Techniques d’enquête

Warning Consulter la version la plus récente.

Information archivée dans le Web

L’information dont il est indiqué qu’elle est archivée est fournie à des fins de référence, de recherche ou de tenue de documents. Elle n’est pas assujettie aux normes Web du gouvernement du Canada et elle n’a pas été modifiée ou mise à jour depuis son archivage. Pour obtenir cette information dans un autre format, veuillez communiquer avec nous.

Date de diffusion : 21 juin 2018

Le numéro de juin 2018 de la revue Techniques d’enquête (volume 44, numéro 1) comprend sept articles réguliers.

Articles réguliers

Inférence sous un modèle pour des échantillons fondés sur des ensembles ordonnés

par Omer Ozturk et Konul Bayramoglu Kavlak

Le présent article traite de l’inférence statistique sous un modèle de superpopulation en population finie quand on utilise des échantillons obtenus par échantillonnage d’ensembles ordonnés (EEO). Les échantillons sont construits sans remise. Nous montrons que la moyenne d’échantillon sous EEO est sans biais par rapport au modèle et présente une plus petite erreur de prédiction quadratique moyenne (EPQM) que la moyenne sous échantillonnage aléatoire simple (EAS). Partant d’un estimateur sans biais de l’EPQM, nous construisons aussi un intervalle de confiance de prédiction pour la moyenne de population. Une étude en simulation à petite échelle montre que cet estimateur est aussi bon qu’un estimateur sur échantillon aléatoire simple (EAS) quand l’information pour le classement est de qualité médiocre. Par ailleurs, cet estimateur est plus efficace que l’estimateur EAS quand la qualité de l’information de classement est bonne et que le ratio des coûts de l’obtention d’une unité sous EEO et sous EAS n’est pas très élevé. L’étude en simulation indique aussi que les probabilités de couverture des intervalles de prédiction sont très proches des probabilités de couverture nominales. La procédure d’inférence proposée est appliquée à un ensemble de données réel.

Article complet Version PDF

Linéarisation contre Bootstrap pour estimer la variance de l’évolution de l’indice de Gini

par Guillaume Chauvet et Camelia Goga

Le présent article traite de l’estimation de la variance par linéarisation ou par bootstrap pour l’indice de Gini, et pour l’évolution de cet indice entre deux périodes. Dans le cas d’un seul échantillon, nous adoptons l’approche de linéarisation par la fonction d’influence proposée par Deville (1999), la méthode du bootstrap sans remise proposée par Gross (1980) pour l’échantillonnage aléatoire simple sans remise, et la méthode de tirage avec remise des unités primaires d’écrite dans Rao et Wu (1988) pour l’échantillonnage à plusieurs degrés. Pour obtenir un estimateur de variance dans le cas de deux échantillons, nous utilisons la technique de linéarisation au moyen de fonctions d’influence partielles (Goga, Deville et Ruiz-Gazen, 2009). Nous élaborons aussi une extension des procédures bootstrap étudiées à l’échantillonnage bidimensionnel. Les deux approches sont comparées sur des données simulées.

Article complet Version PDF

Étalonnage temporel avec préservation des taux de croissance (PTC) : Inconvénients et autres solutions

par Jacco Daalmans, Tommaso Di Fonzo, Nino Mushkudiani et Reinier Bikker

L’étalonnage des séries mensuelles et trimestrielles à des données annuelles est une pratique courante adoptée par de nombreux instituts nationaux de statistique. Le problème de l’étalonnage se pose quand des données temporelles pour une même variable cible sont mesurées à différentes fréquences et qu’il est nécessaire d’éliminer les différences entre les sommes des valeurs infra-annuelles et les valeurs annuelles de référence. Plusieurs méthodes d’étalonnage sont décrites dans la littérature. La procédure d’étalonnage avec préservation des taux de croissance (PTC) est souvent considérée comme étant la meilleure. Il est généralement soutenu qu’elle a pour fondement un principe idéal de préservation du mouvement. Toutefois, nous montrons que l’étalonnage PTC présente des inconvénients appréciables qui importent pour les applications pratiques et qui ne sont pas décrits dans la littérature. Nous considérons d’autres modèles d’étalonnage qui ne souffrent pas de certains des effets indésirables de la PTC.

Article complet Version PDF

Étude de divers estimateurs de la prévalence de la maladie mentale grave fondés sur un échantillon à deux phases

par Phillip S. Kott, Dan Liao, Jeremy Aldworth, Sarra L. Hedden, Joseph C. Gfroerer, Jonaki Bose et Lisa Colpe

Un processus à deux phases a été utilisé par la Substance Abuse and Mental Health Services Administration pour estimer la proportion d’Américains adultes atteints d’une maladie mentale grave (MMG). La première phase correspondait à la National Survey on Drug Use and Health (NSDUH) réalisée annuellement, tandis que la seconde phase consistait en un sous-échantillon aléatoire d’adultes ayant répondu à la NSDUH. Les personnes qui ont répondu à la deuxième phase d’échantillonnage ont été soumises à une évaluation clinique visant à déceler les maladies mentales graves. Un modèle de prédiction logistique a été ajusté à ce sous-échantillon en prenant la situation de MMG (oui ou non) déterminée au moyen de l’instrument de deuxième phase comme variable dépendante, et les variables connexes recueillies dans la NSDUH auprès de tous les adultes comme variables explicatives du modèle. Des estimations de la prévalence de la MMG chez l’ensemble des adultes et au sein de sous-populations d’adultes ont ensuite été calculées en attribuant à chaque participant à la NSDUH une situation de MMG établie en comparant sa probabilité estimée d’avoir une MMG avec un seuil diagnostique choisi sur la distribution des probabilités prédites. Nous étudions d’autres options que cet estimateur par seuil diagnostique classique, dont l’estimateur par probabilité. Ce dernier attribue une probabilité estimée d’avoir une MMG à chaque participant à la NSDUH. La prévalence estimée de la MMG est la moyenne pondérée de ces probabilités estimées. Au moyen des données de la NSDUH et de son sous-échantillon, nous montrons que, même si l’estimateur par probabilité donne une plus petite erreur quadratique moyenne quand on estime la prévalence de la MMG parmi l’ensemble des adultes, il a une plus grande tendance que l’estimateur par seuil diagnostique classique à présenter un biais au niveau de la sous-population.

Article complet Version PDF

Stratégies de sous-échantillonnage des non-répondants pour les programmes économiques

par Katherine Jenny Thompson, Stephen Kaputa et Laura Bechtel

Le U.S. Census Bureau étudie des stratégies de sous-échantillonnage des non-répondants en prévision de l’Economic Census de 2017. Les contraintes imposées au plan de sondage comprennent une borne inférieure obligatoire pour le taux de réponse totale, ainsi que des taux de réponse cibles par industrie. Le présent article expose la recherche sur les procédures de répartition de l’échantillon pour le sous-échantillonnage des non-répondants conditionnellement à ce que ce sous-échantillonnage soit systématique. Nous considérons deux approches, à savoir 1) l’échantillonnage avec probabilités égales et 2) la répartition optimisée avec contraintes sur les taux de réponse totale et la taille d’échantillon, avec pour objectif la sélection de plus grands échantillons dans les industries qui, au départ, affichent des taux de réponse plus faibles. Nous présentons une étude en simulation qui examine le biais relatif et l’erreur quadratique moyenne pour les répartitions proposées, en évaluant la sensibilité de chaque procédure à la taille du sous-échantillon, aux propensions à répondre et à la procédure d’estimation.

Article complet Version PDF

Estimation bayésienne robuste sur petits domaines

par Malay Ghosh, Jiyoun Myung et Fernando A.S. Moura

Les modèles pour petits domaines conçus pour traiter les données au niveau du domaine reposent habituellement sur l’hypothèse de normalité des effets aléatoires. Cette hypothèse ne tient pas toujours. L’article présente un nouveau modèle pour petits domaines dont les effets aléatoires suivent une loi t. En outre, la modélisation conjointe des moyennes et des variances de petit domaine est examinée. Il est montré que cette approche donne de meilleurs résultats que les autres méthodes.

Article complet Version PDF

Calage assisté par un modèle pour des données de sondage non probabiliste en utilisant le LASSO adaptatif

par Jack Kuang Tsung Chen, Richard L. Valliant et Michael R. Elliott

Le cadre fondé sur l’échantillonnage probabiliste a joué un rôle dominant en recherche par sondage, parce qu’il fournit des outils mathématiques précis pour évaluer la variabilité d’échantillonnage. Toutefois, en raison de la hausse des coûts et de la baisse des taux de réponse, l’usage d’échantillons non probabilistes s’accroît, particulièrement dans le cas de populations générales, pour lesquelles le tirage d’échantillons à partir d’enquêtes en ligne devient de plus en plus économique et facile. Cependant, les échantillons non probabilistes posent un risque de biais de sélection dû à des différences d’accès et de degrés d’intérêt, ainsi qu’à d’autres facteurs. Le calage sur des totaux statistiques connus dans la population offre un moyen de réduire éventuellement l’effet du biais de sélection dans les échantillons non probabilistes. Ici, nous montrons que le calage assisté par un modèle en utilisant le LASSO adaptatif peut donner un estimateur convergent d’un total de population à condition qu’un sous-ensemble des variables explicatives réelles soit inclus dans le modèle de prédiction, permettant ainsi qu’un grand nombre de covariables possibles soit incluses sans risque de surajustement. Nous montrons que le calage assisté par un modèle en utilisant le LASSO adaptatif produit une meilleure estimation, pour ce qui est de l’erreur quadratique moyenne, que les méthodes concurrentes classiques, tels les estimateurs par la régression généralisée (GREG), quand un grand nombre de covariables sont nécessaires pour déterminer le modèle réel, sans vraiment qu’il y ait perte d’efficacité par rapport à la méthode GREG quand de plus petits modèles suffisent. Nous obtenons aussi des formules analytiques pour les estimateurs de variance des totaux de population, et comparons le comportement de ces estimateurs aux estimateurs bootstrap. Nous concluons par un exemple réel en utilisant des données provenant de la National Health Interview Survey.

Article complet Version PDF


Date de modification :