Techniques d’enquête

Warning Consulter la version la plus récente.

Information archivée dans le Web

L’information dont il est indiqué qu’elle est archivée est fournie à des fins de référence, de recherche ou de tenue de documents. Elle n’est pas assujettie aux normes Web du gouvernement du Canada et elle n’a pas été modifiée ou mise à jour depuis son archivage. Pour obtenir cette information dans un autre format, veuillez communiquer avec nous.

Juin 2013

La revue Techniques d'enquête Volume 39, numéro 1 (juin 2013) comprend les 9 articles suivants :

Articles réguliers :

Pondérations par une méthode bayésienne séquentielle objective dans l’échantillonnage

Jeremy Strief et Glen Meeden

Résumé

Bien que l’utilisation de pondérations soit très répandue dans l’échantillonnage, leur justification ultime dans la perspective du plan de sondage pose souvent problème. Ici, nous argumentons en faveur d’une justification bayésienne séquentielle des pondérations qui ne dépend pas explicitement du plan de sondage. Cette approche s’appuie sur le type classique d’information présent dans les variables auxiliaires, mais ne suppose pas qu’un modèle relie les variables auxiliaires aux caractéristiques d’intérêt. La pondération résultante d’une unité de l’échantillon peut être interprétée de la manière habituelle comme étant le nombre d’unités de la population que cette unité représente.

Optimiser la qualité de la réponse au moyen de plans de collecte adaptatifs

Barry Schouten, Melania Calinescu et Annemieke Luiten

Résumé

Dans la plupart des enquêtes, le même traitement est réservé à toutes les unités échantillonnées et les mêmes caractéristiques de plan de collecte des données s’appliquent à toutes les personnes et à tous les ménages sélectionnés. Le présent article explique comment les plans de collecte des données peuvent être adaptés en vue d’optimiser la qualité, étant donné des contraintes de coûts. Ces types de plans sont appelés plans de collecte adaptatifs. Les éléments fondamentaux de ce genre de plans sont présentés, discutés et illustrés au moyen de divers exemples.

Vérification automatique en présence de vérifications avec rejet et de vérifications avec avertissement

Sander Scholtus

Résumé

Une limite importante des méthodes actuelles de vérification automatique des données tient au fait que toutes les vérifications sont traitées comme des contraintes fermes. Autrement dit, un rejet à la vérification suppose systématiquement une erreur dans les données. Par contre, dans le cas de la vérification manuelle, les spécialistes du domaine recourent aussi à de très nombreuses vérifications avec avertissement, c’est‑à‑dire des contraintes destinées à repérer les valeurs et combinaisons de valeurs qui sont suspectes mais pas forcément incorrectes. L’incapacité des méthodes de vérification automatique à traiter les vérifications avec avertissement explique partiellement pourquoi, en pratique, de nombreuses différences sont constatées entre les données vérifiées manuellement et celles vérifiées automatiquement. L’objet du présent article est de présenter une nouvelle formulation du problème de localisation des erreurs qui permet de faire la distinction entre les vérifications avec rejet (hard edits) et les vérifications avec avertissement (soft edits). En outre, il montre comment ce problème peut être résolu grâce à une extension de l’algorithme de localisation des erreurs de De Waal et Quere (2003).

Estimation parcimonieuse et efficace de la variance par rééchantillonnage pour les enquêtes complexes

Jae Kwang Kim et Changbao Wu

Résumé

Il est courant que les organismes d’enquête fournissent des poids de rééchantillonnage dans les fichiers de données d’enquête. Ces poids de rééchantillonnage servent à produire de manière simple et systématique des estimations valides et efficaces de la variance pour divers estimateurs. Cependant, la plupart des méthodes existantes de construction de poids de rééchantillonnage ne sont valides que pour des plans d’échantillonnage particuliers et nécessitent habituellement un très grand nombre de répliques. Dans le présent article, nous montrons d’abord comment produire les poids de rééchantillonnage en se basant sur la méthode décrite dans Fay (1984) de manière que l’estimateur de la variance par rééchantillonnage résultant soit algébriquement équivalent à l’estimateur de la variance par linéarisation entièrement efficace pour tout plan d’échantillonnage donné. Puis, nous proposons une nouvelle méthode de calage des poids afin que l’estimation soit simultanément efficace et parcimonieuse au sens où un petit nombre de jeux de poids de rééchantillonnage peuvent produire des estimateurs de la variance par rééchantillonnage valides et efficaces pour les paramètres de population importants. La méthode que nous proposons peut être conjuguée aux méthodes de rééchantillonnage existantes pour les enquêtes complexes à grande échelle. Nous discutons également de la validité des méthodes proposées et de leur extension à certains plans d’échantillonnage équilibrés. Les résultats de simulations montrent que les estimateurs de variance que nous proposons suivent très bien les probabilités de couverture des intervalles de confiance. Les stratégies que nous proposons auront vraisemblablement des répercussions sur la façon de produire les fichiers de données d’enquête à grande diffusion et d’analyser ces ensembles de données.

Estimation de la variance d’indicateurs transversaux pour l’enquête SILC en Suisse

Anne Massiani

Résumé

L’enquête SILC (Statistics on Income and Living Conditions) est une enquête européenne annuelle visant à mesurer la répartition des revenus, la pauvreté et les conditions de vie de la population. Elle est réalisée en Suisse depuis 2007 selon un schéma rotatif de quatre panels qui permet de produire à la fois des estimations transversales et des estimations longitudinales. Dans cet article, nous abordons le problème de l’estimation de la variance des indicateurs transversaux sur la pauvreté et l’exclusion sociale retenus par Eurostat. Nos calculs tiennent compte de la non-linéarité des estimateurs, de la non-réponse totale à différentes phases d’enquête, du sondage indirect et du calage. Nous adaptons la méthode d’estimation de variance en cas de non-réponse après un partage des poids proposée par Lavallée (2002) et obtenons un estimateur de variance asymptotiquement sans biais et très simple à programmer.

Combiner des cohortes dans les enquêtes longitudinales

Iván A. Carrillo et Alan F. Karr

Résumé

Une question fréquente concernant les enquêtes longitudinales est celle de savoir comment combiner les différentes cohortes. Dans le présent article, nous présentons une nouvelle méthode qui permet de combiner différentes cohortes et d’utiliser toutes les données à notre disposition dans une enquête longitudinale pour estimer les paramètres d’un modèle semi-paramétrique qui relie la variable réponse à un jeu de covariables. La procédure s’appuie sur la méthode des équations d’estimation généralisées pondérées pour traiter les données manquantes pour certaines vagues dans les enquêtes longitudinales. Notre méthode s’appuie, pour l’estimation des paramètres du modèle, sur un cadre de randomisation conjointe qui tient compte à la fois du modèle de superpopulation et de la sélection aléatoire selon le plan de sondage. Nous proposons aussi une méthode d’estimation de la variance sous le plan et sous randomisation conjointe. Pour illustrer la méthode, nous l’appliquons à l’enquête Survey of Doctorate Recipients réalisée par la National Science Foundation des États-Unis.

Le sondage indirect appliqué aux populations asymétriques

Pierre Lavallée et Sébastien Labelle-Blanchet

Résumé

On recourt au sondage indirect quand la base de sondage ne coïncide pas avec la population cible, mais est reliée à celle-ci. L’estimation se fait alors par la Méthode généralisée du partage des poids (MGPP) qui est une procédure sans biais (voir Lavallée 2002, 2007). Dans le cas des enquêtes économiques, le sondage indirect s’applique comme suit : la base de sondage comprend les établissements, tandis que la population cible comprend les entreprises. Les entreprises sont sélectionnées au travers de leurs établissements. Cela permet de procéder à une stratification en fonction des caractéristiques des établissements au lieu de celles des entreprises. Comme les distributions des variables d’intérêt des établissements sont généralement très asymétriques (une faible proportion des établissements couvre la majeure partie de l’économie), la MGPP produit des estimations sans biais, mais dont la variance peut être importante. L’objectif du présent article est de proposer certaines corrections des poids en vue de réduire la variance des estimations dans le contexte des populations asymétriques, tout en maintenant l’absence de biais de la méthode. Après un court aperçu du sondage indirect et de la MGPP, nous décrivons les corrections qu’il faut apporter à cette dernière. Nous comparons les estimations obtenues en appliquant ces corrections à celles que donne la MGPP originale en nous servant d’un petit exemple numérique et de données réelles tirées du Registre des entreprises de Statistique Canada.

Communications brèves :

De la performance des estimateurs sur petits domaines autocalés sous le modèle au niveau du domaine de Fay‑Herriot

Yong You, J.N.K. Rao et Mike Hidiroglou

Résumé

Nous considérons deux méthodes distinctes d’autocalage pour l’estimation des moyennes de petit domaine fondée sur le modèle au niveau du domaine de Fay-Herriot (FH), à savoir la méthode de You et Rao (2002) appliquée au modèle FH et la méthode de Wang, Fuller et Qu (2008) basée sur des modèles augmentés. Nous établissons un estimateur de l’erreur quadratique moyenne de prédiction (EQMP) de l’estimateur de You-Rao (YR) d’une moyenne de petit domaine qui, sous le modèle vrai, est correct jusqu’aux termes de deuxième ordre. Nous présentons les résultats d’une étude en simulation du biais relatif de l’estimateur de l’EQMP de l’estimateur YR et de l’estimateur de l’EQMP de l’estimateur de Wang, Fuller et Qu (WFQ) obtenu sous un modèle augmenté. Nous étudions aussi l’EQMP et les estimateurs de l’EQMP des estimateurs YR et WFQ obtenus sous un modèle mal spécifié.

Estimation prudente de la variance pour des plans d’échantillonnage avec probabilités d’inclusion par paire nulles

Peter M. Aronow et Cyrus Samii

Résumé

Nous considérons une estimation prudente de la variance pour l’estimateur de Horvitz-Thompson d’un total de population sous des plans d’échantillonnage avec probabilités d’inclusion par paire nulles, appelés plans « non mesurables ». Nous décomposons l’estimateur de variance de Horvitz‑Thompson classique sous ce genre de plan et caractérisons le biais de manière précise. Nous élaborons une correction du biais qui est garantie d’être faiblement prudente (non biaisée négativement) quelle que soit la nature de la non-mesurabilité. L’analyse jette de la lumière sur les conditions sous lesquelles l’estimateur de variance de Horvitz-Thompson classique donne de bons résultats malgré la non-mesurabilité et où la correction du biais prudente peut être meilleure que les approximations utilisées habituellement.

Date de modification :