Recherche par mot-clé

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Portail

    Contenu

    1 facets displayed. 0 facets selected.
    Aide à l'ordre
    entrées

    Résultats

    Tout (185)

    Tout (185) (30 à 40 de 185 résultats)

    • Articles et rapports : 12-001-X200900211039
      Description :

      La pondération par la propension à répondre est une méthode de rajustement pour tenir compte de la non-réponse totale dans les enquêtes. Une forme de mise en oeuvre de cette méthode consiste à diviser les poids d'échantillonnage par les estimations de la probabilité que les unités échantillonnées répondent à l'enquête. Habituellement, ces estimations sont obtenues par ajustement de modèles paramétriques, tels qu'une régression logistique. Les estimateurs corrigés résultants peuvent devenir biaisés si les modèles paramétriques sont spécifiés incorrectement. Afin d'éviter les erreurs de spécification du modèle, nous considérons l'estimation non paramétrique des probabilités de réponse par la régression par polynômes locaux. Nous étudions les propriétés asymptotiques de l'estimateur résultant sous quasi randomisation. Nous évaluons en pratique le comportement de la méthode proposée de correction de la non-réponse en nous servant de données de la NHANES.

      Date de diffusion : 2009-12-23

    • Articles et rapports : 12-001-X200900211045
      Description :

      Dans l'analyse de données d'enquête, on se sert souvent du nombre de degrés de liberté pour évaluer la stabilité des estimateurs de variance fondé sur le plan de sondage. Par exemple, ce nombre de degrés de liberté est utilisé pour construire les intervalles de confiances fondés sur des approximations de la loi t, ainsi que des tests t connexes. En outre, un petit nombre de degrés de liberté donne une idée qualitative des limites possibles d'un estimateur de variance particulier dans une application. Parfois, le calcul du nombre de degrés de liberté s'appuie sur des formes de l'approximation de Satterthwaite. Ces calculs fondés sur l'approche de Satterthwaite dépendent principalement des grandeurs relatives des variances au niveau de la strate. Cependant, pour des plans de sondage comportant la sélection d'un petit nombre d'unités primaires par strate, les estimateurs de variance au niveau de la strate classiques ne fournissent que des renseignements limités sur les variances réelles de strate. Le cas échéant, les calculs habituels fondés sur l'approche de Satterthwaite peuvent poser des problèmes, surtout dans les analyses portant sur des sous-populations concentrées dans un nombre relativement faible de strates. Pour résoudre ce problème, nous utilisons dans le présent article les estimations des variances à l'intérieur des unités primaires d'échantillonnage (variances intra-UPE) pour fournir de l'information auxiliaire sur les grandeurs relatives des variances globales au niveau de la strate. Les résultats des analyses indiquent que l'estimateur du nombre de degrés de liberté résultant est meilleur que les estimateurs de type Satterthwaite modifiés, à condition que : a) les variances globales au niveau de la strate soient approximativement proportionnelles aux variances intra-strate correspondantes et b) les variances des estimateurs de variance intra-UPE soient relativement faibles. En outre, nous élaborons des méthodes à erreurs sur les variables qui permettent de vérifier empiriquement les conditions a) et b). Pour ces vérifications de modèle, nous établissons des distributions de référence fondées sur des simulations qui diffèrent considérablement des distributions de référence fondées sur les approximations normales en grand échantillon habituelles. Nous appliquons les méthodes proposées à quatre variables de la troisième National Health and Nutrition Examination Survey (NHANES III) réalisée aux États-Unis.

      Date de diffusion : 2009-12-23

    • Articles et rapports : 12-001-X200900211046
      Description :

      Nous élaborons un modèle de régression semiparamétrique pour les enquêtes complexes. Dans ce modèle, les variables explicatives sont représentées séparément sous forme d'une partie non paramétrique et d'une partie linéaire paramétrique. Les méthodes d'estimation combinent l'estimation par la régression polynomiale locale non paramétrique et l'estimation par les moindres carrés. Nous élaborons également des résultats asymptotiques, tels que la convergence et la normalité des estimateurs des coefficients de régression et des fonctions de régression. Nous recourrons à la simulation et à des exemples empiriques tirés de l'Enquête sur la santé en Ontario de 1990 pour illustrer la performance de la méthode et les propriétés des estimations.

      Date de diffusion : 2009-12-23

    • Articles et rapports : 12-001-X200900211056
      Description :

      La rubrique Dans ce numéro contient une brève présentation par le rédacteur en chef de chacun des articles contenus dans le présent numéro de Techniques d'enquête. Aussi, on y trouve parfois quelques commentaires sur des changements dans la structure ou la gestion de la revue.

      Date de diffusion : 2009-12-23

    • Articles et rapports : 11-522-X200800010961
      Description :

      De plus en plus d'enfants de tous âges participent à des interviews dans le cadre d'enquêtes. Alors que les réponses des adolescents à divers types d'enquêtes portant sur de nombreux sujets sont considérées comme fiables, on ne sait pas dans quelle mesure celles fournies par des enfants plus jeunes lors d'interviews sur place le sont. Nous exposons dans le présent article les résultats d'une étude réalisée en enregistrant sur bande vidéo 205 interviews sur place d'enfants de 8 à 14 ans. Les interviews ont été codées, question par question, en se servant de codes de comportement qui fournissent des indicateurs liés aux comportements du processus de réponse aux questions. En outre, nous avons procédé à des évaluations standard des ressources cognitives. En nous basant sur des problèmes visibles et audibles décernés dans le comportement de réponse, nous pouvons évaluer l'incidence des ressources cognitives de l'enfant sur les comportements de réponse. Les résultats donnent à penser que des différences fondamentales existent entre les mécanismes cognitifs qui mènent à des comportements de réponse problématiques chez les filles et chez les garçons.

      Date de diffusion : 2009-12-03

    • Articles et rapports : 11-536-X200900110803
      Description :

      L'estimateur GREG « traditionnel » est utilisé ici pour renvoyer à l'estimateur de régression généralisée qui a fait l'objet de longues discussions, notamment dans le document de Särndal, Swensson et Wretman (1992). Le document résume certaines nouvelles applications de l'estimateur GREG traditionnel dans le cadre de l'estimation des totaux des sous-groupes de population ou des domaines. L'estimation GREG a été mise en pratique pour l'estimation des domaines dans Särndal (1981, 1984), Hidiroglou et Särndal (1985) et Särndal et Hidiroglou (1989); cette application a été examinée de plus près dans l'article de Estevao, Hidiroglou et Särndal (1995). Pour l'estimateur GREG traditionnel, le modèle linéaire à effets fixes sert de modèle sous-jacent de travail ou de soutien, et les totaux auxiliaires au niveau agrégé sont intégrés dans la procédure d'estimation. Dans certains modèles récents, on suppose que l'accès aux données auxiliaires au niveau de l'unité pour l'estimation GREG sur domaines est disponible. De toute évidence, l'accès au registre micro-fusionné et aux données d'enquêtes nécessite une grande souplesse pour l'estimation de domaines. Ce point de vue a été adopté pour l'estimation GREG, notamment dans Lehtonen et Veijanen (1998), Lehtonen, Särndal et Veijanen (2003, 2005), et Lehtonen, Myrskylä, Särndal et Veijanen (2007). Ces nouvelles applications englobent les cas de variables réponses continues et binaires ou polytomiques, l'utilisation de modèles mixtes linéaires généralisés comme modèles de soutien et des plans de sondage probabilistes inégaux. Les mérites relatifs et les défis associés aux divers estimateurs GREG seront soulevés.

      Date de diffusion : 2009-08-11

    • Articles et rapports : 11-536-X200900110808
      Description :

      Supposons que de l'information auxiliaire puisse être utilisée pour concevoir une enquête par échantillon. Supposons en outre que la procédure de sélection de l'échantillon consiste à sélectionner un échantillon probabiliste, à rejeter l'échantillon si la moyenne de l'échantillon d'une variable auxiliaire ne se situe pas à une distance précise de la moyenne de la population, et à continuer jusqu'à ce qu'un échantillon soit accepté. Il est prouvé que les propriétés d'un grand échantillon associées à l'estimateur de régression pour l'échantillon axé sur le rejet sont les mêmes que celles de l'estimateur de régression pour la procédure de sélection initiale. De même, l'estimateur habituel de la variance pour l'estimateur de régression est approprié pour l'échantillon axé sur le rejet. Dans une expérience de Monte Carlo, les propriétés d'un grand échantillon se maintiennent dans le cas des échantillons relativement petits. Par ailleurs, les résultats du test de Monte Carlo concordent avec les principes d'approximation théoriques. L'effet d'efficacité de l'échantillonnage axé sur le rejet, tel qu'il est décrit, correspond à o(n-1) par rapport à l'estimation par régression sans rejet, mais l'effet peut s'avérer important pour certains échantillons.

      Date de diffusion : 2009-08-11

    • Articles et rapports : 11-536-X200900110814
      Description :

      Le calage est le thème principal dans plusieurs articles récents sur l'estimation dans le contexte de l'échantillonnage. Des mots tels que "approche par calage" et "estimateurs par calage" sont souvent utilisés. Comme les auteurs d'articles aiment le souligner, le calage fournit une méthode systématique pour incorporer l'information auxiliaire dans la procédure.

      Le calage est devenu un instrument méthodologique important dans la production à grande échelle de statistiques. Plusieurs agences nationales de statistique ont développé des logiciels conçus pour calculer des poids, habituellement calés sur l'information auxiliaire disponible dans des registres administratifs et autres sources précises.

      Cet article présente une revue de l'approche par calage, en insistant sur les progrès accomplis dans la dernière décennie ou à peu près. La littérature sur le calage est en croissance rapide; l'article discute de quelques points sélectionnés.

      L'article commence avec une définition de l'approche par calage. On y passe en revue les caractéristiques importantes. On fait le contraste avec l'estimation par la régression (généralisée), qui est une méthode alternative mais différente pour prendre en compte l'information auxiliaire. On discute des aspects reliés au calcul, incluant des méthodes permettant d'éviter les poids extrêmes. Dans les premières sections de l'article, on examine des applications du calage : L'estimation d'un total de population avec échantillonnage direct à une phase. Ensuite on considère le cas de la généralisation à des paramètres plus complexes et à des plans de sondage plus complexes. Un point commun des plans plus complexes (échantillonnage à deux ou plusieurs degrés) est que l'information auxiliaire disponible peut avoir plusieurs composantes ou niveaux. On passe en revue l'utilisation du calage dans de tels cas d'information composite. Dans les dernières sections de l'article, on donne quelques exemples pour illustrer comment les résultats issus de l'idée de calage peuvent être différents des réponses fournies précédemment par des approches établies. Enfin, on discute d'applications du calage en présence d'erreurs non dues à l'échantillonnage, en particulier des méthodes d'ajustement du biais de non-réponse.

      Date de diffusion : 2009-08-11

    • Articles et rapports : 11-536-X200900110815
      Description :

      L'utilisation répandue de l'estimation par régression remonte à quelques années seulement. La moyenne de l'échantillon et l'estimateur par quotient traditionnel sont des cas particuliers de cet estimateur. Les deux ont des antécédents qui remontent à la Grèce antique ou plus loin encore. Par exemple, l'estimateur par quotient était utilisé par les Égyptiens et les Babyloniens pour calculer la circonférence d'un cercle à partir de son rayon, en supposant une constante qui se chiffrait à peu près à la fameuse valeur pi. On retrouve de nombreux exemples où l'on s'appuie sur l'estimateur par quotient pour calculer indirectement une mesure d'intérêt, que ce soit en physique ou en génie. L'estimateur par quotient a également été utilisé pour produire les estimations du recensement de la population par le passé, lorsque les chiffres exacts dépassaient les capacités des administrations en place (par exemple, John Graunt 1662, et Laplace à la fin du 18e siècle).

      Dans notre exposé, nous retracerons l'évolution de l'estimation par régression de l'échantillonnage, des années 1930 à nos jours. Nous soulignerons les avantages et les inconvénients associés à l'utilisation de cette méthode dans l'échantillonnage. Nous présenterons également les percées logicielles dans le domaine.

      Date de diffusion : 2009-08-11

    • Articles et rapports : 12-001-X200900110880
      Description :

      Le présent article décrit un cadre pour l'estimation par calage sous les plans d'échantillonnage à deux phases. Les travaux présentés découlent de la poursuite du développement de logiciels généralisés d'estimation à Statistique Canada. Un objectif important de ce développement est d'offrir une grande gamme d'options en vue d'utiliser efficacement l'information auxiliaire dans différents plans d'échantillonnage. Cet objectif est reflété dans la méthodologie générale pour les plans d'échantillonnage à deux phases exposée dans le présent article.

      Nous considérons le plan d'échantillonnage à deux phases classique. Un échantillon de première phase est tiré à partir d'une population finie, puis un échantillon de deuxième phase est tiré en tant que sous échantillon du premier. La variable étudiée, dont le total de population inconnu doit être estimé, est observée uniquement pour les unités contenues dans l'échantillon de deuxième phase. Des plans d'échantillonnage arbitraires sont permis à chaque phase de l'échantillonnage. Divers types d'information auxiliaire sont identifiés pour le calcul des poids de calage à chaque phase. Les variables auxiliaires et les variables étudiées peuvent être continues ou catégoriques.

      L'article apporte une contribution à quatre domaines importants dans le contexte général du calage pour les plans d'échantillonnage à deux phases :1) nous dégageons trois grands types d'information auxiliaire pour les plans à deux phases et les utilisons dans l'estimation. L'information est intégrée dans les poids en deux étapes : un calage de première phase et un calage de deuxième phase. Nous discutons de la composition des vecteurs auxiliaires appropriés pour chaque étape et utilisons une méthode de linéarisation pour arriver aux résidus qui déterminent la variance asymptotique de l'estimateur par calage ;2) nous examinons l'effet de divers choix de poids de départ pour le calage. Les deux choix « naturels » produisent généralement des estimateurs légèrement différents. Cependant, sous certaines conditions, ces deux estimateurs ont la même variance asymptotique ;3) nous réexaminons l'estimation de la variance pour l'estimateur par calage à deux phases. Nous proposons une nouvelle méthode qui peut représenter une amélioration considérable par rapport à la technique habituelle de conditionnement sur l'échantillon de première phase. Une simulation décrite à la section 10 sert à valider les avantages de cette nouvelle méthode ;4) nous comparons l'approche par calage à la méthode de régression assistée par modèle classique qui comporte l'ajustement d'un modèle de régression linéaire à deux niveaux. Nous montrons que l'estimateur assisté par modèle a des propriétés semblables à celles d'un estimateur par calage à deux phases.

      Date de diffusion : 2009-06-22
    Données (2)

    Données (2) ((2 résultats))

    • Microdonnées à grande diffusion : 99M0001X
      Description : Le Fichier des particuliers, Enquête nationale auprès des ménages, 2011 (fichier de microdonnées à grande diffusion) fournit des données sur les caractéristiques de la population canadienne. Le fichier contient un échantillon de 2,7 % de réponses anonymes tirées du questionnaire de l’Enquête nationale auprès des ménages (ENM) de 2011. Le fichier a été examiné minutieusement afin de garantir l'entière confidentialité des réponses individuelles et les identificateurs géographiques ont été limités aux provinces/territoires et aux régions métropolitaines. Avec ces 133 variables, cet outil de travail complet est excellent pour les analystes des politiques, les organismes de sondage, les chercheurs en sciences sociales et quiconque souhaitant modéliser et effectuer des analyses de régression statistique à l'aide des données de l'Enquête nationale auprès des ménages.

      Les fichiers de microdonnées sont les seuls produits donnant aux utilisateurs l'accès à des données non agrégées. L'utilisateur des FMGD peut grouper et manipuler ces variables en fonction de ses besoins et de l'objet de ses recherches. Il peut produire des totalisations qui sont exclues des autres produits l'ENM ou analyser les relations entre les variables en effectuant divers tests statistiques. Les FMGD donnent rapidement accès à une très vaste base de données sociales et économiques sur le Canada et ses habitants.

      Ce produit, offert en format DVD-ROM, comprend le fichier de données (en format ASCII); la documentation de l'utilisateur et l'information complémentaire; toutes les ententes de licence; ainsi que les programmes (codes sources) SAS, SPSS, et Stata pour permettre aux utilisateurs de lire l'ensemble des enregistrements. Afin d'utiliser ce produit, il est important de noter que les utilisateurs doivent posséder des connaissances pour manipuler des ensembles de données (ou des logiciels) comme SAS ou SPSS ou Stata.

      Date de diffusion : 2023-09-12

    • Tableau : 75-001-X19890022277
      Description :

      Cette étude compare le revenu des travailleurs bilingues et unilingues dans trois centres urbains: Montréal, Toronto et Ottawa-Hull. Les différences de revenu sont examinées à la lumière de plusieurs considérations d'ordre démographique. L'auteur examine aussi les différences entre les travailleurs bilingues et unilingues sur le plan des emplois détenus.

      Date de diffusion : 1989-06-30
    Analyses (173)

    Analyses (173) (40 à 50 de 173 résultats)

    • Articles et rapports : 12-001-X200900110882
      Description :

      Le recours à la méthode bootstrap est de plus en plus répandu dans le contexte des enquêtes par sondage réalisées par les organismes statistiques nationaux. Dans la plupart des applications, plusieurs ensembles de poids bootstrap sont fournis aux analystes avec le fichier de microdonnées d'enquête. Jusqu'à présent, l'utilisation de la méthode en pratique semble avoir été limitée principalement aux problèmes d'estimation de la variance. Dans le présent article, nous proposons une méthode bootstrap pour les tests d'hypothèses au sujet d'un vecteur de paramètres inconnus d'un modèle quand l'échantillon a été tiré d'une population finie. Le plan d'échantillonnage probabiliste utilisé pour sélectionner l'échantillon peut être informatif ou non. Notre méthode s'appuie sur des statistiques de test fondées sur un modèle dans lesquelles sont intégrés les poids de sondage. Ces statistiques sont habituellement faciles à calculer en se servant de progiciels statistiques classiques. Nous approximons la distribution sous l'hypothèse nulle de ces statistiques pondérées fondées sur un modèle en utilisant des poids bootstrap. L'un des avantages de notre méthode bootstrap par rapport aux méthodes existantes de test d'hypothèses à partir des données d'enquête est qu'après avoir reçu les ensembles de poids bootstrap, les analystes peuvent l'appliquer très facilement, même s'ils ne disposent pas de logiciels spécialisés pour le traitement des données d'enquêtes complexes. En outre, nos résultats de simulation laissent entendre que, dans l'ensemble, la méthode donne des résultats comparables à ceux de la méthode de Rao Scott et meilleurs que ceux des méthodes de Wald et de Bonferroni quand on teste des hypothèses au sujet d'un vecteur de paramètres d'un modèle de régression linéaire.

      Date de diffusion : 2009-06-22

    • Articles et rapports : 12-001-X200900110892
      Description :

      La rubrique Dans ce numéro contient une brève présentation par le rédacteur en chef de chacun des articles contenus dans le présent numéro de Techniques d'enquête. Aussi, on y trouve parfois quelques commentaires sur des changements dans la structure ou la gestion de la revue.

      Date de diffusion : 2009-06-22

    • Revues et périodiques : 89-552-M
      Géographie : Canada
      Description :

      L'Enquête internationale sur l'alphabétisation des adultes (EIAA) est une initiative de sept pays qui s'est tenue à l'automne 1994. Son objectif visait à établir des profils d'alphabétisme comparables sans égard aux frontières nationales, linguistiques et culturelles. Les vagues successives de l'enquête incluent maintenant près de 30 pays partout dans le monde. La série de monographies comprend des études détaillées découlant de la base de données de l'EIAA, qui ont été effectuées par des spécialistes de l'alphabétisme au Canada et aux États-Unis. Les recherches sont principalement financées par Développement des ressources humaines Canada. Les monographies mettent l'accent sur les questions actuelles en matière de politiques et portent sur des sujets comme la formation continue, la correspondance et la non-correspondance entre les capacités de lecture et le milieu de travail, les capacités de lecture et l'état de santé des personnes âgées, l'alphabétisme et la sécurité économique, pour ne nommer que ceux-là.

      Date de diffusion : 2008-07-21

    • Articles et rapports : 82-622-X2008002
      Géographie : Canada
      Description :

      La présente étude s'appuie sur des données provenant de l'Enquête canadienne sur l'expérience des soins de santé primaires pour évaluer la mesure dans laquelle les Canadiens ont accès à des équipes de soins de santé primaires et l'effet de ces équipes sur les processus de soins et sur leurs résultats. L'étude comprend trois projets portant, respectivement, sur les déterminants de l'accès à une équipe de soins de santé primaires (projet 1), l'effet des équipes de soins de santé primaires sur divers processus de soins (projet 2) et la détermination des chemins suivant lesquels les équipes de soins de santé primaires influencent les résultats des soins (projet 3).

      Date de diffusion : 2008-07-15

    • Articles et rapports : 12-001-X200800110610
      Description :

      Un nouvel estimateur par la régression généralisée d'un total de population finie basé sur la méthode de transformation de Box-Cox et son estimateur de la variance sont proposés sous un plan général de sondage à probabilités inégales. En étant convergent par rapport au plan de sondage, l'estimateur proposé retient la propriété de robustesse de l'estimateur GREG, même si le modèle sous jacent est défaillant. En outre, la méthode de Box-Cox permet de trouver automatiquement une transformation raisonnable de la variable dépendante en se servant des données. La robustesse et l'efficacité du nouvel estimateur sont évaluées analytiquement et par des études en simulation de Monte Carlo.

      Date de diffusion : 2008-06-26

    • Articles et rapports : 12-001-X200800110615
      Description :

      Nous considérons les taux d'échantillonnage optimaux dans des plans d'échantillonnage par élément, quand l'analyse prévue est la régression linéaire pondérée par les poids de sondage et que les paramètres à estimer sont des combinaisons linéaires des coefficients de régression provenant d'un ou de plusieurs modèles. Nous commençons par élaborer des méthodes en supposant que des renseignements exacts sur les variables du plan existent dans la base de sondage, puis nous les généralisons à des situations où l'information pour certaines variables du plan n'est disponible que sous forme d'agrégat pour des groupes de sujets éventuels ou provient de données inexactes ou périmées. Nous envisageons également un plan d'échantillonnage pour l'estimation de combinaisons de coefficients provenant de plus d'un modèle. Une généralisation supplémentaire permet d'utiliser des combinaisons flexibles de coefficients choisies pour améliorer l'estimation d'un effet tout en en contrôlant un autre. Les applications éventuelles comprennent l'estimation des moyennes pour plusieurs ensembles de domaines chevauchants, ou l'amélioration des estimations pour des sous populations telles que les races minoritaires par échantillonnage non proportionnel des régions géographiques. Dans le contexte de la conception d'un sondage sur les soins reçus par les cancéreux (l'étude CanCORS) qui a motivé nos travaux, l'information éventuelle sur les variables du plan d'échantillonnage comprenait des données de recensement au niveau de l'îlot sur la race/ethnicité et la pauvreté, ainsi que des données au niveau individuel. Pour un emplacement de l'étude, un plan d'échantillonnage avec probabilités inégales en utilisant les adresses résidentielles des sujets et des données de recensement réduirait la variance de l'estimateur d'un effet du revenu de 25 %, ou de 38 % si la race des sujets avait été connue également. Par pondération flexible des contrastes du revenu selon la race, la variance de l'estimateur serait réduite de 26 % en utilisant les adresses résidentielles seulement et de 52 % en utilisant les adresses et les races. Nos méthodes seraient utiles dans les études où l'on considère un suréchantillonnage géographique selon la race ethnicité ou les caractéristiques socioéconomiques, ou dans toute étude où les caractéristiques pour lesquelles des données sont disponibles dans les bases de sondage sont mesurées avec une erreur.

      Date de diffusion : 2008-06-26

    • Articles et rapports : 12-001-X200800110642
      Description :

      La rubrique Dans ce numéro contient une brève présentation par le rédacteur en chef de chacun des articles contenus dans le présent numéro de Techniques d'enquête. Aussi, on y trouve parfois quelques commentaires sur des changements dans la structure ou la gestion de la revue.

      Date de diffusion : 2008-06-26

    • Articles et rapports : 11-522-X200600110392
      Description :

      Nous suivons une méthode bayésienne robuste pour analyser des données pouvant présenter un biais de non-réponse et un biais de sélection non ignorables. Nous utilisons un modèle de régression logistique robuste pour établir le lien entre les indicateurs de réponse (variable aléatoire de Bernoulli) et les covariables, dont nous disposons pour tous les membres de la population finie. Ce lien permet d'expliquer l'écart entre les répondants et les non-répondants de l'échantillon. Nous obtenons ce modèle robuste en élargissant le modèle de régression logistique conventionnel à un mélange de lois de Student, ce qui nous fournit des scores de propension (probabilité de sélection) que nous utilisons pour construire des cellules d'ajustement. Nous introduisons les valeurs des non-répondants en tirant un échantillon aléatoire à partir d'un estimateur à noyau de la densité, formé d'après les valeurs des répondants à l'intérieur des cellules d'ajustement. La prédiction fait appel à une régression linéaire spline, fondée sur les rangs, de la variable de réponse sur les covariables selon le domaine, en échantillonnant les erreurs à partir d'un autre estimateur à noyau de la densité, ce qui rend notre méthode encore plus robuste. Nous utilisons des méthodes de Monte-Carlo par chaînes de Markov (MCMC) pour ajuster notre modèle. Dans chaque sous-domaine, nous obtenons la loi a posteriori d'un quantile de la variable de réponse à l'intérieur de chaque sous-domaine en utilisant les statistiques d'ordre sur l'ensemble des individus (échantillonnés et non échantillonnés). Nous comparons notre méthode robuste à des méthodes paramétriques proposées récemment.

      Date de diffusion : 2008-03-17

    • Articles et rapports : 11-522-X200600110416
      Description :

      L'application des méthodes normalisées à des données d'enquête en omettant de tenir compte des caractéristiques du plan de sondage et des redressements de la pondération peut aboutir à des inférences erronées. Les méthodes bootstrap offrent une option intéressante à l'analyste qui veut en tenir compte. Le fichier de données comprend les poids de sondage finals pour l'échantillon complet et les poids bootstrap finals connexes pour un grand nombre de répliques bootstrap, ainsi que les données observées sur les unités de l'échantillon. Nous montrons comment ce genre de fichier peut être utilisé pour analyser les données d'enquête de façon simple à l'aide d'équations d'estimation pondérées. Nous discutons aussi d'une méthode bootstrap à fonction d'estimation en une étape qui permet d'éviter certaines difficultés que pose le bootstrap.

      Date de diffusion : 2008-03-17

    • Articles et rapports : 12-001-X200700210488
      Description :

      Le calage est le thème central de nombreux articles récents sur l'estimation dans le contexte de l'échantillonnage. Des expressions telles que « méthode de calage » et « estimateur par calage » sont fréquentes. Comme tiennent à le souligner les auteurs de ces articles, le calage offre un moyen systématique d'intégrer des données auxiliaires dans la procédure.

      Le calage est devenu un instrument méthodologique important dans la production de statistiques à grande échelle. Plusieurs organismes statistiques nationaux ont conçu des logiciels de calcul des poids, qui sont généralement calés sur les données auxiliaires disponibles dans les registres administratifs et d'autres sources de données fiables. Le présent article fait le point sur la méthode de calage en mettant l'accent sur les progrès accomplis depuis une dizaine d'années. Le nombre d'études sur le calage augmente rapidement et nous abordons ici certaines des questions soulevées.

      L'article débute par une définition de la méthode de calage, suivie d'une revue des caractéristiques importantes de cette méthode. L'estimation par calage est comparée à l'estimation par la régression (généralisée), qui est un autre moyen, conceptuellement différent, de tenir compte de l'information auxiliaire. Vient ensuite une discussion des aspects mathématiques du calage, y compris les méthodes permettant d'éviter les poids extrêmes. Dans les premières sections sont décrites des applications simples de la méthode, c'est-à-dire l'estimation d'un total de population sous échantillonnage direct, à une seule phase. Puis est envisagée la généralisation à des paramètres et à des plans d'échantillonnage plus complexes. Un trait commun de ces plans (à au moins deux phases ou deux degrés) est que l'information auxiliaire disponible peut comporter plusieurs composantes ou couches. L'application du calage dans de tels cas d'information composite est passée en revue. Plus loin, des exemples sont donnés pour illustrer comment les résultats de l'approche du calage peuvent différer de ceux obtenus grâce aux approches établies antérieurement. Enfin sont discutées des applications du calage en présence d'erreurs non dues à l'échantillonnage, en particulier les méthodes de correction du biais de non-réponse.

      Date de diffusion : 2008-01-03
    Références (10)

    Références (10) ((10 résultats))

    • Enquêtes et programmes statistiques — Documentation : 11-522-X20010016308
      Description :

      Cette publication comporte une description détaillée des questions techniques entourant la conception et la réalisation d'enquêtes et s'adresse surtout à des méthodologistes.

      Le Census Bureau utilise une analyse des erreurs de réponse pour évaluer l'efficacité des questions d'une enquête. Pour une enquête donnée, nous choisissons les questions à analyser que nous jugeons essentielles à l'enquête ou qui sont considérées comme problématiques à la suite d'une analyse antérieure. Les questions nouvelles ou révisées sont les plus susceptibles de faire l'objet d'une réinterview, c'est-à-dire d'une nouvelle interview qui consiste à poser de nouveau à un échantillon des répondants à l'enquête un sous-ensemble de questions provenant de l'interview originale. Pour chaque question de la réinterview, nous évaluons la proportion des répondants qui donnent des réponses incohérentes. Nous utilisons l'« indice d'incohérence » pour mesurer la variance de réponse. Pour chaque question, nous indiquons si la variance de réponse est faible, moyenne ou élevée. Dans le cas d'une variance élevée, les questions font l'objet d'un test cognitif et nous recommandons des modifications à apporter aux questions.

      Pour l'analyse des erreurs de réponse de la Schools and Staffing Survey (SASS) parrainée par le National Center for Education Statistics (NCES), nous étudions également les liens possibles entre les réponses incohérentes et les caractéristiques des écoles et des enseignants qui participent à l'enquête. On peut utiliser les résultats de cette analyse pour modifier la méthode d'enquête en vue d'améliorer la qualité des données.

      Date de diffusion : 2002-09-12

    • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015656
      Description :

      Les études de séries chronologiques montrent qu'il existe une association entre la concentration des polluants atmosphériques, d'une part, et la morbidité et la mortalité, d'autre part. En général, ces études sont réalisées dans une seule ville, en appliquant diverses méthodes. Les critiques concernant ces études ont trait à la validité des ensembles de données utilisés et aux méthodes statistiques qui leur sont appliquées, ainsi qu'au manque de cohérence des résultats des études menées dans des villes différentes et même des nouvelles analyses indépendantes des données d'une ville particulière. Dans le présent article, nous examinons certaines des méthodes statistiques utilisées pour analyser un sous-ensemble de données nationales sur la pollution atmosphérique, la mortalité et les conditions météorologiques recueillies durant la National Morbidity and Mortality Air Pollution Study (NMMAPS).

      Date de diffusion : 2000-03-02

    • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015668
      Description :

      À la suite des problèmes d'estimation du sous-dénombrement qu'a posé le Recensement de l'Angleterre et du Pays de Galles de 1991, on s'est fixé comme objectif pour le Recensement de 2001 de créer une base de données entièrement corrigée pour tenir compte du sous-dénombrement net. Dans la présente communication, on examine l'application d'une méthode d'imputation pondérée par donneur qui se fonde sur des renseignements provenant tant du recensement que de l'Enquête sur la couverture du recensement (ECR). Le US Census Bureau envisage une approche similaire pour le Recensement des États-Unis de l'an 2000 (voir Isaki et coll. 1998). La méthode proposée fait la distinction entre les personnes qui ne sont pas dénombrées lors du recensement parce qu'on a manqué leur ménage et celles qui ne sont pas dénombrées dans les ménages qui ont été recensés. Les données de recensement sont couplées aux données de l'ECR. On utilise la régression logistique multinominale pour estimer la probabilité que des ménages soient omis dans le recensement, ainsi que la probabilité que des personnes ne soient pas dénombrées au sein de ménages recensés. On calcule des poids de couverture pour les ménages et pour les personnes d'après les probabilités estimatives, puis on les inègre à la méthode d'imputation par donneur.

      Date de diffusion : 2000-03-02

    • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015682
      Description :

      L'application de la méthode d'estimation à double système (EDS) aux données appariées du recensement et de l'enquête postcensitaire (EPC) afin de déterminer le sous-dénombrement net est bien comprise (Hogan, 1993). Cependant, cette méthode n'a pas été utilisée jusqu'à présent pour évaluer le sous-dénombrement net au Royaume-Uni. On l'appliquera pour la première fois à l'occasion de l'EPC de 2001. Le présent article décrit la méthodologie générale employée pour la conception de l'enquête et pour l'estimation de cette EPC (baptisée Enquête sur la couverture du Recensement de 2001). L'estimation combine l'EDS et un estimateur par quotient ou par régression. Une étude par simulations utilisant les données du Recensement de 1991 de l'Angleterre et du pays de Galles montre que le modèle du quotient est en général plus robuste que le modèle de régression.

      Date de diffusion : 2000-03-02

    • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015684
      Description :

      Il arrive souvent qu'on recueille, de façon pratiquement simultaée, la même information sur plusieurs enquêtes différentes. En France, cela est institutionnalisé dans les enquêtes auprès des ménages qui comportent un tronc commun de variables portant sur la situation démographique, l'emploi, le logement et les revenus. Ces variables sont des cofacteurs importants des variables d'intérêt de chacune des enquêtes et leur utilisation judicieuse peut permettre un renforcement des estimations dans chacune d'elle. Les techniques de calage sur information incertaine peuvent s'appliquer de façon naturelle dans ce contexte. Cela revient à rechercher le meilleur estimateur sans biais des variables communes et à caler chacune des enquêtes sur cet estimateur. Il se trouve que l'estimateur ainsi obtenu dans chaque enquête est toujours un estimateur linéaire dont les pondérations sont faciles à expliciter, que la variance s'obtient sans problème nouveau de même que l'estimation de variance. Si on veut compléter la panoplie des estimateurs par régression, on peut aussi voir cette technique comme un estimateur par ridge-regression, ou encore comme une estimation par régression bayésienne.

      Date de diffusion : 2000-03-02

    • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015688
      Description :

      Des données de sources multiples sont couplées pour examiner les liens géographique et temporel entre la pollution atmosphérique et l'asthme. Ces sources incluent les dossiers administratifs établis par 59 cabinets de médecins généralistes répartis à travers l'Angleterre et le Pays de Galles au sujet d'un demi million de patients venus à la consultation pour cause d'asthme, ainsi que des renseignements socioéconomiques recueillis dans le cadre d'une enquête par interview. Les codes postaux permettent de coupler ces données à celles sur i) la densité routière calculée pour les routes locales, ii) les émissions estimatives de dioxyde de soufre et d'oxydes d'azote, iii) la concentration de fumée noire, de dioxyde de soufre, de dioxyde d'azote et d'autres polluants mesurée ou interpolée aux emplacements des cabinets de médecins. Parallèlement, on analyse des séries chronologiques de Poisson, en tenant compte des variations entre cabinets de médecins, pour examiner les corrélations quotidiennes dans le cas des cabinets situés près des stations de surveillance de la qualité de l'air. Les analyses préliminaires montrent une association faible, en général non significative, entre les taux de consultations et les marqueurs de pollution. On examine les problèmes méthodologiques que posent la combinaison de données de ce genre et l'interprétation des résultats.

      Date de diffusion : 2000-03-02

    • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015692
      Description :

      Les tarifs d'électricité qui varient selon la période de la journée, appelés aussi tarifs horaires ou tarifs multiples, sont susceptibles d'accroître considérablement l'efficacité économique du marché de l'énergie. Plusieurs services publics d'électricité ont étudié les effets économiques des programmes de tarification selon la période de consommation offerts à leur clientèle résidentielle. On recourt ici à la méta-analyse pour regrouper les résultats de trente-huit programmes distincts en vue d'étudier l'effet des tarifs multiples sur la demande d'électricité. Quatre constations importantes se dégagent de l'analyse. Premièrement, le rapport entre le tarif de période de pointe et le tarif en période creuse doit être élevé pour que l'effet sur la demande de pointe soit important. Deuxièmement, les tarifs de période de pointe ontune incidence relativement plus importante sur la demande en été qu'en hiver. Troisièmement, les tarifs sont relativement plus efficaces s'ils sont sur une base permanente plutôt qu'expérimentale. Quatrièmement, la perception de frais en fonction de la demande concurrence les tarifs multiples ordinaires sur la demande de pointe.

      Date de diffusion : 2000-03-02

    • Enquêtes et programmes statistiques — Documentation : 11-522-X19980015017
      Description :

      Les études longitudinales avec observations répétées sur des individus permettent de mieux caractériser les changements et de mieux évaluer les facteurs de risque éventuels. On possède toutefois peu d'expérience sur l'application de modèles perfectionnés à des données longitudinales avec plan d'échantillonnage complexe. Nous présentons ici les résultats d'une comparaison de différentes méthodes d'estimation de la variance applicables à des modèles à effets aléatoires évaluant l'évolution de la fonction cognitive chez les personnes âgées. Le plan d'échantillonnage consiste en un échantillon stratifié de personnes âgées de 65 ans et plus, prélevé dans le cadre d'une étude communautaire visant à examiner les facteurs de risque de la démence. Le modèle résume l'hétérogénéité de la population, en ce qui a trait au niveau global et au taux d'évolution de la fonction cognitive, en utilisant des effets aléatoires comme coordonnée à l'origine et comme pente. Nous discutons d'une méthode de régression non pondérée avec covariables représentant les variables de stratification, d'une méthode de régression pondérée et de la méthode bootstrap; nous présentons également quelques travaux préliminaires sur la méthode de répétition équilibrée et celle du jackknife.

      Date de diffusion : 1999-10-22

    • Enquêtes et programmes statistiques — Documentation : 11-522-X19980015029
      Description :

      Dans le cas des enquêtes longitudinales, les sujets qui font partie de l'échantillon sont observés pendant plusieurs périodes. En général, cette caractéristique produit des observations dépendantes sur le même sujet, plus des corrélations ordinaires entre sujets résultant du plan d'échantillonnage. Nombre des travaux décrits dans la littérature portent surtout sur la modélisation de la moyenne marginale d'une réponse en fonction de covariables. Liang et Zeger (1986) se sont servis d'équations d'estimation généralisées nécessitant uniquement la spécification correcte de la moyenne marginale et ont obtenu les erreurs-types des estimations des paramètres de régression et les critères connexes du test de Wald, en supposant que les mesures répétées effectuées sur un sujet de l'échantillon présentent une structure de corrélation provisoire. Rotnitzky et Jewell (1990) ont développé des tests de quasi-résultat et des corrections de Rao-Scott aux tests de quasi-résultat provisoire dans le cadre de modèles marginaux. Ces méthodes sont asymptotiquement robustes en regard de la spécification erronée de la structure des corrélations propre à un sujet, mais supposent que les sujets de l'échantillon sont indépendants, ce qui n'est pas toujours vrai dans le cas de donneées d'enquêtes longitudinales complexes fondées sur un échantillonnage stratifié à plusieurs degrés. Nous proposons des tests de Wald et des tests de quasi-score asymptotiquement valides pour les données d'enquêtes longitudinales, fondés sur la méthode de linéarisation de Taylor et sur la méthode jackknife. Nous élaborons aussi d'autres tests, fondés sur les corrections apportées par Rao-Scott à des tests naïfs qui ne tiennent pas compte des caractéristiques du plan de sondage et sur les t de Bonferroni. Ces tests sont particulièrement utiles quand le nombre réel de degrés de liberté, ordinairement considéré comme égal au nombre total d'unités primaires dans l'échantillon (grappes) moins le nombre de strates, est petit.

      Date de diffusion : 1999-10-22

    • Enquêtes et programmes statistiques — Documentation : 11-522-X19980015035
      Description :

      Dans le cadre d'une enquête longitudinale effectuée pendant k périodes, certaines unités peuvent être observées pour un nombre de périodes inférieur à k. Les enquêtes avec sous-échantillons se chevauchant partiellement, les enquêtes par panel pur avec non-réponse (une enquête par panel pur étant une enquête par panel non-complétée d'échantillons supplémentaires) et les enquêtes par panel complétées par des échantillons supplémentaires pour certaines périodes en sont des exemples. Nous présentons des estimateurs par régression pour des enquêtes de ce genre. Nous examinons une application aux études spéciales liées au National Resources Inventory.

      Date de diffusion : 1999-10-22
    Date de modification :