Techniques d'enquête

Avertissement Consulter la version la plus récente.

Information archivée dans le Web

L’information dont il est indiqué qu’elle est archivée est fournie à des fins de référence, de recherche ou de tenue de documents. Elle n’est pas assujettie aux normes Web du gouvernement du Canada et elle n’a pas été modifiée ou mise à jour depuis son archivage. Pour obtenir cette information dans un autre format, veuillez communiquer avec nous.

Juin 2009

Note concernant le contenu : Au moment actuel, le contenu intégral n'est disponible qu'en format PDF.

Pour accéder à la version PDF, veuillez vous servir du lien hypertexte « Contenu intégral en version PDF » qui figure dans le menu latéral de cette page (côté gauche).

Avis d'accessibilité : Si vous ne pouvez accéder à l'information suivante, contactez-nous pour obtenir de l'aide ou des formats de rechange.


Dans ce numéro

Dans le premier article de ce numéro de Techniques d’enquête, Estevao et Särndal examinent le problème de l’estimation par calage dans le contexte de l’échantillonnage à deux phases. Les apports de l’article comprennent le choix des poids initiaux dans la procédure de calage, ainsi que l’important problème de l’estimation de la variance. Les auteurs proposent de nouveaux estimateurs de la variance et procèdent à une étude par simulation, dont les résultats montrent que ces nouveaux estimateurs s’avèrent plus efficaces que les estimateurs classiques.

Ensuite, Li et Valliant étudient le problème de la détection des unités influentes dans l’analyse des données d’enquête par régression linéaire. Ils commencent par donner une expression de la matrice chapeau et des effets de levier connexes (éléments diagonaux de la matrice chapeau) quand les paramètres du modèle sont estimés par les moindres carrés pondérés. Puis, ils proposent une décomposition des effets de levier et soulignent que l’effet de levier d’une unité donnée peut être important si le poids de sondage de cette dernière est grand ou que son vecteur de variables explicatives est éloigné du centre. Ils illustrent l’effet des unités influentes sur les moindres carrés ordinaires ainsi que pondérés au moyen d’un exemple numérique.

Beaumont et Bocci proposent une méthode bootstrap pour vérifier les hypothèses au sujet d’un vecteur de paramètres inconnus du modèle quand l’échantillon a été tiré d’une population finie. La méthode s’appuie sur des statistiques de test fondées sur un modèle dans lesquelles sont intégrés les poids de sondage et qui peuvent habituellement être obtenues facilement en se servant de progiciels standard. Au moyen d’une étude par simulation, les auteurs montrent que la méthode proposée donne des résultats comparables à ceux de la procédure de Rao‑Scott, et de meilleurs résultats que celles de Wald et de Bonferroni lorsque l’on vérifie les hypothèses au sujet d’un vecteur de paramètres d’un modèle de régression linéaire.

Dans leur article, Park, Choi et Choi présentent une approche intéressante de traitement de la non‑réponse. Des études ont montré que le comportement de vote des électeurs indécis peut avoir une incidence importante sur le résultat final d’une élection et que l’on peut accroître l’exactitude de la prédiction des résultats en tenant compte de ces électeurs. Les auteurs présentent deux modèles bayésiens dont les distributions de probabilité a priori dépendent de l’information donnée par les répondants et les indécis. Ils analysent un tableau de contingence à double entrée incomplet en se servant de quatre jeux de données provenant des sondages électoraux réalisés en 1998 dans l’État de l’Ohio pour illustrer comment il convient d’utiliser et d’interpréter les résultats des estimations pour les élections.

Ghosh, Kim, Sinha, Maiti, Katzoff et Parsons élaborent des méthodes bayésiennes hiérarchiques et empiriques pour l’estimation de proportions dans de petits domaines en utilisant des modèles au niveau de l’unité. Ils proposent un modèle hiérarchique bayésien analogue au modèle linéaire mixte généralisé pour obtenir les moyennes et les erreurs‑types a posteriori des proportions pour des petits domaines de population. Adoptant une approche fondée sur la théorie des fractions d’estimation optimales, ils obtiennent aussi les estimateurs bayésiens empiriques et les estimateurs asymptotiques de l’erreur quadratique moyenne correspondants. Ils illustrent les méthodes en se servant de données provenant de la National Health Interview Survey (NHIS) pour obtenir des estimations sur petits domaines des proportions d’Asiatiques ne possédant pas d’assurance‑maladie.

L’article de McElroy et Holan porte sur les tests de détection de la saisonnalité résiduelle dans les données désaisonnalisées. Les auteurs proposent un test de signification statistique permettant de détecter dans la densité spectrale de la série chronologique étudiée les pics indicateurs de saisonnalité. Ils élaborent la théorie qui sous‑tend la méthode proposée et illustrent et comparent cette dernière aux méthodes existantes au moyen d’études par simulation et d’études empiriques.

Gabler et Lahiri fournissent une justification assistée par modèle de la formule classique de la variance due à l’intervieweur pour l’échantillonnage avec probabilités égales sans grappes spatiales. Puis, ils obtiennent, dans le contexte d’un plan d’échantillonnage complexe, une définition de la variabilité due à l’intervieweur qui tient compte comme il convient des probabilités inégales de sélection et des grappes spatiales. Ils proposent aussi une décomposition des effets totaux en effets dus à la pondération, aux grappes spatiales et aux intervieweurs. Leurs résultats peuvent aider à mieux comprendre et contrôler les sources de variabilité.

Dans leur article, Schouten, Cobben et Bethlehem se penchent sur l’évaluation de la similarité entre la réponse à une enquête et l’échantillon ou la population à l’étude. Ils proposent un indicateur de représentativité pour remplacer les taux de réponse comme indicateur de la qualité lorsque l’on évalue l’effet du biais de non‑réponse. Ils montrent que cet indicateur, appelé indicateur R, est apparenté jusqu’à un certain point au V de Cramer qui mesure l’association entre la variable de réponse et les variables auxiliaires. En fait, il est préférable de considérer l’indicateur R comme une mesure de l’absence d’association, puisqu’une association faible implique qu’il n’existe aucune preuve que la non‑réponse a eu une incidence sur la composition des données observées. Les auteurs établissent les propriétés théoriques de l’indicateur proposé et illustrent ce dernier au moyen d’études empiriques.

Finalement, dans son article, Chauvet s’attaque au problème de l’échantillonnage équilibré lorsque les tailles dans chaque strate sont trop petites pour permettre un équilibrage exact. L’auteur propose un algorithme adapté de la méthode du Cube garantissant l’équilibrage au niveau de la population. Une étude par simulation confirme la bonne performance de la méthode proposée.

Harold Mantel, Rédacteur en chef délégué