Techniques d'enquête

Avertissement Consulter la version la plus récente.

Information archivée dans le Web

L’information dont il est indiqué qu’elle est archivée est fournie à des fins de référence, de recherche ou de tenue de documents. Elle n’est pas assujettie aux normes Web du gouvernement du Canada et elle n’a pas été modifiée ou mise à jour depuis son archivage. Pour obtenir cette information dans un autre format, veuillez communiquer avec nous.

Juin 2008

Note concernant le contenu : Au moment actuel, le contenu intégral du rapport n'est disponible qu'en format PDF.

Pour accéder à la version PDF, veuillez vous servir du lien hypertexte « Contenu intégral en version PDF » qui figure dans le menu latéral de cette page (côté gauche).


Dans ce numéro

Ce numéro de Techniques d'enquête comprend des articles traitant de divers sujets de méthodologie.
Dans le premier article, Thompson et Wu considèrent le problème de l'obtention des probabilités d'inclusion pour le calcul des poids d'échantillonnage quand des modifications ou des compromis ont été apportés au plan d'échantillonnage original à cause de contraintes ou de limites pratiques. L'étude du problème a été motivée par l'enquête réalisée par la Chine dans le cadre du projet International Tobacco Control Policy Evaluation Survey en utilisant un plan d'échantillonnage à plusieurs degrés avec probabilités inégales pour la sélection de fumeurs et de non-fumeurs adultes dans sept villes. Parce que certains districts ont refusé de participer à l'enquête, des unités de substitution ont dû être sélectionnées après le tirage de l'échantillon original. Cette substitution a rendu difficile le calcul des probabilités d'inclusion de premier ordre et virtuellement impossible celui des probabilités de deuxième ordre. Dans l'article, les auteurs démontrent, théoriquement et empiriquement, que les probabilités d'inclusion de premier et de deuxième ordres peuvent être estimées avec précision au moyen de simulations Monte-Carlo.

Torabi et Rao calculent l'erreur quadratique moyenne (EQM) d'un nouvel estimateur par la régression généralisée (GREG) d'une moyenne de petit domaine sous un modèle à deux niveaux et comparent, théoriquement et empiriquement, l'efficacité relative du nouvel estimateur GREG proposé et de l'estimateur fondé sur le meilleur prédicteur linéaire sans biais.

Dans son article, You discute de l'utilisation de divers modèles transversaux et chronologiques pour petits domaines en vue d'estimer le taux de chômage dans des régions infraprovinciales au Canada. En particulier, il considère un modèle non linéaire intégré à effets mixtes sous un cadre hiérarchique bayésien (HB). Il utilise une approche HB avec la méthode d'échantillonnage de Gibbs pour obtenir des estimations des moyennes et des variances a posteriori des taux de chômage dans les petits domaines. Le modèle HB proposé produit des estimations fondées sur le modèle fiables si l'on s'en tient à la réduction du coefficient de variation. You analyse aussi la qualité de l'ajustement du modèle proposé et compare les estimations fondées sur le modèle aux estimations directes.

L'article de Wang, Fuller et Qu traite de l'estimation pour petits domaines sous une contrainte. Les auteurs étudient l'effet de divers modèles augmentés en ce qui concerne l'EQM et le prédicteur EBLUP. Ils considèrent des modèles pour petits domaines augmentés d'une variable explicative supplémentaire pour lesquels les prédicteurs pour petits domaines ordinaires présentent la propriété d'autocalage. En outre, ils considèrent des modèles pour petits domaines augmentés d'une variable auxiliaire supplémentaire qui est fonction de la taille du domaine afin de réduire le biais lorsqu'un modèle incorrect est utilisé aux fins de prédictions.

Nandram et Choi exposent une approche intéressante de répartition des électeurs indécis dans les sondages réalisés avant une élection. Les données des sondages électoraux sont habituellement présentées dans des tableaux de contingence à double entrée et de nombreux sondages sont réalisés avant l'élection proprement dite. Les auteurs décrivent la construction et l'analyse d'un modèle de non-réponse non ignorable variant en fonction du temps par des méthodes bayésiennes. Ils comparent leurs modèles à des versions élargies (afin d'inclure la variable de temps) des modèles de non-réponse ignorable et non ignorable introduits par Nandram, Cox et Choi (Techniques d'enquête, 2005). Ils construisent aussi un nouveau paramètre pour faciliter la prédiction du gagnant. Ils illustrent leur approche à l'aide de données de sondage recueillies durant la campagne pour l'élection du gouverneur de l'Ohio de 1998.

Dans leur article, Lazar, Meeden et Nelson élaborent une approche bayésienne de l'échantillonnage d'une population finie qui s'appuie sur l'utilisation d'une loi a posteriori de Pólya, quand l'information a priori est disponible sous la forme de données partielles sur une variable auxiliaire. Ils présentent l'estimateur de Pólya contraint et montrent qu'il possède des similarités avec l'estimateur par la régression généralisée sous échantillonnage aléatoire simple. Toutefois, leur estimateur ne requiert pas la spécification d'un modèle linéaire. Il est également apparenté aux méthodes fondées sur la vraisemblance empirique. Des exemples servent à illustrer la théorie.

Zaslavsky, Zheng et Adams considèrent les taux d'échantillonnage optimaux dans des plans d'échantillonnage par élément, quand l'analyse prévue est la régression linéaire pondérée par les poids de sondage et que les quantités à estimer sont des combinaisons linéaires des coefficients de régression provenant d'un ou de plusieurs modèles. Ils commencent par élaborer des méthodes en supposant que des renseignements exacts sur les variables du plan existent dans la base de sondage, puis ils les généralisent à des situations où l'information pour certaines variables du plan n'est disponible que sous forme d'agrégat pour des groupes de sujets éventuels ou provient de données inexactes ou périmées. Les applications éventuelles comprennent l'estimation des moyennes pour plusieurs ensembles de domaines chevauchants, l'estimation pour des sous-populations telles que les races minoritaires par échantillonnage non proportionnel des régions géographiques, ainsi que les études où les caractéristiques pour lesquelles des données sont disponibles dans les bases de sondage sont mesurées avec une erreur.

L'article de Li porte sur le problème de l'estimation d'un total de population finie à l'aide d'un estimateur par la régression généralisée non linéaire. L'auteur utilise la méthode de transformation de Box-Cox ainsi que l'estimation par la méthode du pseudo maximum de vraisemblance pour obtenir des prédictions dictées par les données. Il montre que l'estimateur par la régression résultant est convergent sous le plan et évalue également les propriétés de cet estimateur au moyen d'une étude par simulation.

Béguin et Hulliger étendent l'algorithme BACON au traitement de données d'enquête incomplètes. L'algorithme BACON a été élaboré pour repérer les observations aberrantes multivariées en utilisant la distance de Mahalanobis. Quand des valeurs manquent, l'algorithme EM peut être utilisé pour estimer la matrice de covariance à chaque étape d'itération de l'algorithme BACON. Afin de pouvoir traiter l'échantillonnage en population finie, les auteurs modifient l'algorithme EM et obtiennent une version qu'ils nomment algorithme EEM (espérance estimée/maximisation) qu'ils combinent à l'algorithme BACON. Ils obtiennent ainsi l'algorithme BACON-EEM qu'ils appliquent à deux ensembles de données et comparent à d'autres méthodes.

L'article de Jäckle et Lynn offre une évaluation empirique des effets des paiements incitatifs continus sur l'attrition, le biais de non-réponse et la non-réponse partielle, ainsi que de la variation éventuelle de ces effets d'une vague à l'autre d'une enquête par panel à mode d'interview mixte réalisée auprès des jeunes au Royaume-Uni. Ils testent plusieurs hypothèses quant aux effets des primes d'encouragement. Ils concluent que l'offre de ces primes est un moyen efficace de maintenir la taille d'échantillon d'un panel, donc de s'assurer de sa valeur en ce qui concerne l'efficacité, surtout pour les analyses de sous-groupes. Cependant, ils constatent aussi que les primes d'encouragement n'ont aucun effet sur le biais dû à l'attrition.

Enfin, Mohadjer et Curtin discutent des défis associés à la conception et à la mise en œuvre d'un processus d'échantillonnage permettant d'atteindre les objectifs de la National Health and Nutrition Examination Survey (NHANES). Ils décrivent comment le plan d'échantillonnage de la NHANES doit établir un juste équilibre entre les exigences liées à l'obtention d'échantillons de sous-domaines efficaces, d'une part, et d'une charge de travail pouvant être bien gérée par le personnel chargé des interviews et des examens dans les centres d'examen mobiles (CEM), d'autre part, tout en maintenant les taux de réponse aussi élevés et les coûts aussi faibles que possible. L'article décrit en détails plusieurs caractéristiques uniques du plan de sondage de la NHANES et se termine par un bref résumé des réalisations et de certains défis que posera dans l'avenir l'élaboration du plan de sondage de la NHANES.

Harold Mantel, Rédacteur en chef délégué