Recherche par mot-clé
Filtrer les résultats par
Aide à la rechercheMot(s)-clé(s)
Sujet
- Sélectionné: Méthodes statistiques (54)
- Analyse des données (3)
- Assurance de la qualité (1)
- Bases de sondage et couverture (1)
- Collecte et questionnaires (4)
- Contrôle de la divulgation et diffusion de données (1)
- Données administratives (1)
- Histoire et contexte (3)
- Inférence et fondements (1)
- Plan de sondage (12)
- Pondération et estimation (17)
- Réponse et non-réponse (5)
- Séries chronologiques (1)
- Techniques statistiques (5)
- Vérification et imputation (6)
- Autre contenu lié aux Méthodes statistiques (4)
Type
Enquête ou programme statistique
- Enquête sur la dynamique du travail et du revenu (5)
- Recensement de la population (2)
- Enquête sur les industries de services : distribution de films cinématographiques et de vidéos (1)
- Enquête annuelle sur les industries de services : établissements du patrimoine (1)
- Enquête sur les industries de services : Arts de la scène (1)
- Programme de déclaration uniforme de la criminalité (1)
- Enquête sur les dépenses des ménages (1)
- Enquête sur l'emploi du temps (1)
Résultats
Tout (54)
Tout (54) (0 à 10 de 54 résultats)
- 1. Études cas-témoins basées sur la population ArchivéArticles et rapports : 12-001-X20060029546Description :
Nous discutons de méthodes d'analyse des études cas témoins pour lesquelles les témoins sont sélectionnés selon un plan de sondage complexe. La méthode la plus simple est l'approche du sondage standard basée sur des versions pondérées des équations d'estimation pour la population. Nous examinons aussi des méthodes plus efficaces et comparons leur degré de robustesse aux erreurs de spécification du modèle dans des cas simples. Nous discutons également brièvement des études familiales cas témoins, pour lesquelles la structure intragrappe présente un intérêt en soi.
Date de diffusion : 2006-12-21 - Articles et rapports : 12-001-X20060029547Description :
La pondération par calage peut être utilisée pour corriger la non réponse totale et (ou) les erreurs de couverture sous des modèles appropriés de quasi randomisation. Divers ajustements par calage qui sont asymptotiquement identiques dans un contexte d'échantillonnage pur peuvent diverger lorsqu'ils sont utilisés de cette manière. L'introduction de variables instrumentales dans la pondération par calage permet que la non réponse (disons) soit une fonction d'un ensemble de caractéristiques différentes de celles comprises dans le vecteur de calage. Si l'ajustement par calage a une forme non linéaire, une variante du jackknife permet d'éliminer le besoin d'itération dans l'estimation de la variance.
Date de diffusion : 2006-12-21 - Articles et rapports : 12-001-X20060029548Description :
La théorie de l'imputation multiple pour traiter les données manquantes exige que l'imputation soit faite conditionnellement du plan d'échantillonnage. Cependant, comme la plupart des progiciels standard utilisés pour l'imputation multiple fondée sur un modèle reposent sur l'hypothèse d'un échantillonnage aléatoire simple, de nombreux praticiens sont portés à ne pas tenir compte des caractéristiques des plans d'échantillonnage complexes, comme la stratification et la mise en grappes, dans leurs imputations. Or, la théorie prédit que l'analyse d'ensembles de données soumis de telle façon à une imputation multiple peut produire des estimations biaisées du point de vue du plan de sondage. Dans le présent article, nous montrons au moyen de simulations que i) le biais peut être important si les caractéristiques du plan sont reliées aux variables d'intérêt et que ii) le biais peu être réduit en tenant compte de l'effet des caractéristiques du plan dans les modèles d'imputation. Les simulations montrent aussi que l'introduction de caractéristiques non pertinentes du plan comme contraintes dans les modèles d'imputation peut donner lieu à des inférences conservatrices, à condition que les modèles contiennent aussi des variables explicatives pertinentes. Ces résultats portent à formuler la prescription qui suit à l'intention des imputeurs : le moyen le plus sûr de procéder consiste à inclure les variables du plan de sondage dans la spécification des modèles d'imputation. À l'aide de données réelles, nous donnons une démonstration d'une approche simple d'intégration des caractéristiques d'un plan de sondage complexe qui peut être suivie en utilisant certains progiciels standard pour créer des imputations multiples.
Date de diffusion : 2006-12-21 - Articles et rapports : 12-001-X20060029549Description :
Nous proposons dans cet article une méthode de bootstrap de type Bernoulli facilement applicable à des plans stratifiés à plusieurs degrés où les fractions de sondage sont grandes, à condition qu'un échantillonnage aléatoire simple sans remise soit utilisé à chaque degré. La méthode fournit un ensemble de poids de rééchantillonnage qui donnent des estimations convergentes de la variance pour les estimateurs lisses ainsi que non lisses. La force de la méthode tient à sa simplicité. Elle peut être étendue facilement à n'importe quel nombre de degrés d'échantillonnage sans trop de complications. L'idée principale est de garder ou de remplacer une unité d'échantillonnage à chaque degré d'échantillonnage en utilisant des probabilités prédéterminées pour construire l'échantillon bootstrap. Nous présentons une étude par simulation limitée afin d'évaluer les propriétés de la méthode et, à titre d'illustration, nous appliquons cette dernière à l'Enquête nationale sur les prix menée en 1997 au Japon.
Date de diffusion : 2006-12-21 - Articles et rapports : 12-001-X20060029550Description :
L'article donne une comparaison des approches de la stratification par une méthode géométrique, par optimisation et par la méthode de Lavallée et Hidiroglou (LH). L'approche géométrique de stratification est une approximation, tandis que les deux autres, qui s'appuient sur des méthodes numériques, peuvent être considérées comme des méthodes de stratification optimales. L'algorithme de la stratification géométrique est très simple comparativement à ceux des deux autres approches, mais il ne prend pas en compte la construction d'une strate à tirage complet, qui est habituellement produite lorsque l'on stratifie une population positivement asymétrique. Dans le cas de la stratification par optimisation, on peut prendre en considération toute forme de la fonction d'optimisation et de ses contraintes. Une étude numérique comparative portant sur cinq populations artificielles positivement asymétriques a indiqué que, dans chaque cas étudié, l'approche par optimisation était plus efficace que la stratification géométrique. En outre, nous avons comparé les approches géométrique et par optimisation à l'algorithme LH. Cette comparaison a révélé que la méthode géométrique de stratification était moins efficace que l'algorithme LH, tandis que l'approche par optimisation était aussi efficace que cet algorithme. Néanmoins, les limites de strate déterminées par la stratification géométrique peuvent être considérées comme de bons points de départ pour l'approche par optimisation.
Date de diffusion : 2006-12-21 - Articles et rapports : 12-001-X20060029551Description :
Lorsqu'on veut sélectionner un échantillon, il arrive qu'au lieu de disposer d'une base de sondage contenant les unités de collecte souhaitées, on ait accès à une base de sondage contenant des unités liées d'une certaine façon à la liste d'unités de collecte. On peut alors envisager de sélectionner un échantillon dans la base de sondage disponible afin de produire une estimation pour la population cible souhaitée en s'appuyant sur les liens qui existent entre les deux. On donne à cette approche le nom de sondage indirect.
L'estimation des caractéristiques de la population cible étudiée par sondage indirect peut poser un défi de taille, en particulier si les liens entre les unités des deux populations ne sont pas bijectifs. Le problème vient surtout de la difficulté à associer une probabilité de sélection, ou un poids d'estimation, aux unités étudiées de la population cible. La méthode généralisée du partage des poids (MGPP) a été mise au point par Lavallée (1995) et Lavallée (2002) afin de résoudre ce genre de problème d'estimation. La MGPP fournit un poids d'estimation pour chaque unité enquêtée de la population cible.
Le présent article débute par une description du sondage indirect, qui constitue le fondement de la MGPP. En deuxième lieu, nous donnons un aperçu de la MGPP dans lequel nous la formulons dans un cadre théorique en utilisant la notation matricielle. En troisième lieu, nous présentons certaines propriétés de la MGPP, comme l'absence de biais et la transitivité. En quatrième lieu, nous considérons le cas particulier où les liens entre les deux populations sont exprimés par des variables indicatrices. En cinquième lieu, nous étudions certains liens typiques spéciaux afin d'évaluer leur effet sur la MGPP. Enfin, nous examinons le problème de l'optimalité. Nous obtenons des poids optimaux dans un sens faible (pour des valeurs particulières de la variable d'intérêt), ainsi que les conditions dans lesquelles ces poids sont également optimaux au sens fort et indépendants de la variable d'intérêt.
Date de diffusion : 2006-12-21 - 7. Extensions de la méthode d'échantillonnage indirect et son application aux enquêtes dans le tourisme ArchivéArticles et rapports : 12-001-X20060029552Description :
On doit procéder à une enquête portant sur la fréquentation touristique d'origine intra ou extra-régionale en Bretagne. Pour des raisons matérielles concrètes, les « enquêtes aux frontières » ne peuvent plus s'organiser. Le problème majeur est l'absence de base de sondage permettant d'atteindre directement les touristes. Pour contourner ce problème, on applique la méthode d'échantillonnage indirect dont la pondération est obtenue par la méthode généralisée de partage des poids développée récemment par Lavallée (1995), Lavallée (2002), Deville (1999) et présentée également dans Lavallée et Caron (2001). Cet article montre comment adapter cette méthode à l'enquête. Certaines extensions s'avèrent nécessaires. On développera l'une d'elle destinée à estimer le total d'une population dont on a tiré un échantillon bernoullien.
Date de diffusion : 2006-12-21 - Articles et rapports : 12-001-X20060029553Description :
Félix-Medina et Thompson (2004) ont proposé une variante de l'échantillonnage par dépistage de liens dans laquelle on suppose qu'une part de la population (qui n'est pas nécessairement la plus grande) est couverte par une liste d'emplacements disjoints où les membres de la population peuvent être trouvés avec une probabilité élevée. Après la sélection d'un échantillon d'emplacements, on demande aux personnes se trouvant à chacun de ces emplacements de nommer d'autres membres de la population. Les deux auteurs ont proposé des estimateurs du maximum de vraisemblance des tailles de population qui donnent des résultats acceptables à condition que, pour chaque emplacement, la probabilité qu'un membre de la population soit nommé par une personne se trouvant à cet emplacement, appelée probabilité de nomination, ne soit pas faible. Dans la présente étude, nous partons de la variante de Félix-Medina et Thompson, et nous proposons trois ensembles d'estimateurs des tailles de population dérivés sous une approche bayésienne. Deux des ensembles d'estimateurs sont obtenus en utilisant des lois a priori incorrectes des tailles de population, et l'autre en utilisant des lois a priori de Poisson. Cependant, nous n'utilisons la méthode bayésienne que pour faciliter la construction des estimateurs et adoptons l'approche fréquentiste pour faire les inférences au sujet des tailles de population. Nous proposons deux types d'estimateurs de variance et d'intervalles de confiance partiellement fondés sur le plan de sondage. L'un d'eux est obtenu en utilisant un bootstrap et l'autre, en suivant la méthode delta sous l'hypothèse de normalité asymptotique. Les résultats d'une étude par simulation indiquent que i) quand les probabilités de nomination ne sont pas faibles, chacun des ensembles d'estimateurs proposés donne de bon résultats et se comporte de façon fort semblable aux estimateurs du maximum de vraisemblance, ii) quand les probabilités de nomination sont faibles, l'ensemble d'estimateurs dérivés en utilisant des lois a priori de Poisson donne encore des résultats acceptables et ne présente pas les problèmes de biais qui caractérisent les estimateurs du maximum de vraisemblance et iii) les résultats précédents ne dépendent pas de la taille de la fraction de la population couverte par la base de sondage.
Date de diffusion : 2006-12-21 - Articles et rapports : 12-001-X20060029554Description :
L'échantillonnage en vue d'estimer un indice des prix à la consommation (IPC) est assez compliqué et requiert généralement la combinaison de données provenant d'au moins deux enquêtes, l'une donnant les prix et l'autre, la pondération par les dépenses. Deux approches fondamentalement différentes du processus d'échantillonnage - l'échantillonnage probabiliste et l'échantillonnage par choix raisonné - ont été vivement recommandées et sont utilisées par divers pays en vue de recueillir les données sur les prix. En construisant un petit « univers » d'achats et de prix à partir de données scannées sur les céréales, puis en simulant diverses méthodes d'échantillonnage et d'estimation, nous comparons les résultats de deux approches du plan de sondage et de l'estimation, à savoir l'approche probabiliste adoptée aux États Unis et l'approche par choix raisonné adoptée au Royaume Uni. Pour la même quantité d'information recueillie, mais avec l'utilisation d'estimateurs différents, les méthodes du Royaume Uni semblent offrir une meilleure exactitude globale du ciblage d'un indice superlatif des prix à la consommation basé sur la population.
Date de diffusion : 2006-12-21 - Articles et rapports : 12-001-X20060029555Description :
Les chercheurs et les responsables des politiques utilisent souvent des données provenant d'enquêtes par échantillonnage probabiliste représentatives de la population nationale. Le nombre de sujets couverts par ces enquêtes, et par conséquent la durée des entrevues, a généralement augmenté au fil des ans, ce qui a accru les coûts et le fardeau de réponse. Un remède éventuel à ce problème consiste à regrouper prudemment les questions d'une enquête en sous ensembles et à demander à chaque répondant de ne répondre qu'à l'un de ces sous ensembles. Les plans de sondage de ce type sont appelés plans à « questionnaire scindé » ou plans d'« échantillonnage matriciel ». Le fait de ne poser qu'un sous ensemble des questions d'une enquête à chaque répondant selon un plan d'échantillonnage matriciel crée ce que l'on peut considérer comme des données manquantes. Le recours à l'imputation multiple (Rubin 1987), une approche polyvalente mise au point pour traiter les données pour lesquelles des valeurs manquent, est tentant pour analyser les données provenant d'un échantillon matriciel, parce qu'après la création des imputations multiples, l'analyste peut appliquer les méthodes standard d'analyse de données complètes provenant d'une enquête par sondage. Le présent article décrit l'élaboration et l'évaluation d'une méthode permettant de créer des questionnaires d'échantillonnage matriciel contenant chacun un sous ensemble de questions devant être administrées à des répondants sélectionnés aléatoirement. La méthode peut être appliquée dans des conditions complexes, y compris les situations comportant des enchaînements de questions. Les questionnaires sont créés de telle façon que chacun comprenne des questions qui sont prédictives des questions exclues, afin qu'il soit possible, lors des analyses subséquentes fondées sur l'imputation multiple, de recouvrer une partie de l'information relative aux questions exclues qui aurait été recueillie si l'on n'avait pas recouru à l'échantillonnage matriciel. Ce dernier et les méthodes d'imputation multiple sont évalués au moyen de données provenant de la National Health and Nutrition Examination Survey, l'une des nombreuses enquêtes par échantillonnage probabiliste représentatives de la population nationale réalisées par le National Center for Health Statistics des Centers for Disease Control and Prevention. L'étude démontre que l'approche peut être appliquée à une grande enquête nationale sur la santé à structure complexe et permet de faire des recommandations pratiques quant aux questions qu'il serait approprié d'inclure dans des plans d'échantillonnage matriciel lors de futures enquêtes.
Date de diffusion : 2006-12-21
- Précédent Go to previous page of Tout results
- 1 (actuel) Aller à la page 1 des résultats «!tag»
- 2 Aller à la page 2 des résultats «!tag»
- 3 Aller à la page 3 des résultats «!tag»
- 4 Aller à la page 4 des résultats «!tag»
- 5 Aller à la page 5 des résultats «!tag»
- 6 Aller à la page 6 des résultats «!tag»
- Suivant Go to next page of Tout results
Données (0)
Données (0) (0 résultat)
Aucun contenu disponible actuellement
Analyses (43)
Analyses (43) (0 à 10 de 43 résultats)
- 1. Études cas-témoins basées sur la population ArchivéArticles et rapports : 12-001-X20060029546Description :
Nous discutons de méthodes d'analyse des études cas témoins pour lesquelles les témoins sont sélectionnés selon un plan de sondage complexe. La méthode la plus simple est l'approche du sondage standard basée sur des versions pondérées des équations d'estimation pour la population. Nous examinons aussi des méthodes plus efficaces et comparons leur degré de robustesse aux erreurs de spécification du modèle dans des cas simples. Nous discutons également brièvement des études familiales cas témoins, pour lesquelles la structure intragrappe présente un intérêt en soi.
Date de diffusion : 2006-12-21 - Articles et rapports : 12-001-X20060029547Description :
La pondération par calage peut être utilisée pour corriger la non réponse totale et (ou) les erreurs de couverture sous des modèles appropriés de quasi randomisation. Divers ajustements par calage qui sont asymptotiquement identiques dans un contexte d'échantillonnage pur peuvent diverger lorsqu'ils sont utilisés de cette manière. L'introduction de variables instrumentales dans la pondération par calage permet que la non réponse (disons) soit une fonction d'un ensemble de caractéristiques différentes de celles comprises dans le vecteur de calage. Si l'ajustement par calage a une forme non linéaire, une variante du jackknife permet d'éliminer le besoin d'itération dans l'estimation de la variance.
Date de diffusion : 2006-12-21 - Articles et rapports : 12-001-X20060029548Description :
La théorie de l'imputation multiple pour traiter les données manquantes exige que l'imputation soit faite conditionnellement du plan d'échantillonnage. Cependant, comme la plupart des progiciels standard utilisés pour l'imputation multiple fondée sur un modèle reposent sur l'hypothèse d'un échantillonnage aléatoire simple, de nombreux praticiens sont portés à ne pas tenir compte des caractéristiques des plans d'échantillonnage complexes, comme la stratification et la mise en grappes, dans leurs imputations. Or, la théorie prédit que l'analyse d'ensembles de données soumis de telle façon à une imputation multiple peut produire des estimations biaisées du point de vue du plan de sondage. Dans le présent article, nous montrons au moyen de simulations que i) le biais peut être important si les caractéristiques du plan sont reliées aux variables d'intérêt et que ii) le biais peu être réduit en tenant compte de l'effet des caractéristiques du plan dans les modèles d'imputation. Les simulations montrent aussi que l'introduction de caractéristiques non pertinentes du plan comme contraintes dans les modèles d'imputation peut donner lieu à des inférences conservatrices, à condition que les modèles contiennent aussi des variables explicatives pertinentes. Ces résultats portent à formuler la prescription qui suit à l'intention des imputeurs : le moyen le plus sûr de procéder consiste à inclure les variables du plan de sondage dans la spécification des modèles d'imputation. À l'aide de données réelles, nous donnons une démonstration d'une approche simple d'intégration des caractéristiques d'un plan de sondage complexe qui peut être suivie en utilisant certains progiciels standard pour créer des imputations multiples.
Date de diffusion : 2006-12-21 - Articles et rapports : 12-001-X20060029549Description :
Nous proposons dans cet article une méthode de bootstrap de type Bernoulli facilement applicable à des plans stratifiés à plusieurs degrés où les fractions de sondage sont grandes, à condition qu'un échantillonnage aléatoire simple sans remise soit utilisé à chaque degré. La méthode fournit un ensemble de poids de rééchantillonnage qui donnent des estimations convergentes de la variance pour les estimateurs lisses ainsi que non lisses. La force de la méthode tient à sa simplicité. Elle peut être étendue facilement à n'importe quel nombre de degrés d'échantillonnage sans trop de complications. L'idée principale est de garder ou de remplacer une unité d'échantillonnage à chaque degré d'échantillonnage en utilisant des probabilités prédéterminées pour construire l'échantillon bootstrap. Nous présentons une étude par simulation limitée afin d'évaluer les propriétés de la méthode et, à titre d'illustration, nous appliquons cette dernière à l'Enquête nationale sur les prix menée en 1997 au Japon.
Date de diffusion : 2006-12-21 - Articles et rapports : 12-001-X20060029550Description :
L'article donne une comparaison des approches de la stratification par une méthode géométrique, par optimisation et par la méthode de Lavallée et Hidiroglou (LH). L'approche géométrique de stratification est une approximation, tandis que les deux autres, qui s'appuient sur des méthodes numériques, peuvent être considérées comme des méthodes de stratification optimales. L'algorithme de la stratification géométrique est très simple comparativement à ceux des deux autres approches, mais il ne prend pas en compte la construction d'une strate à tirage complet, qui est habituellement produite lorsque l'on stratifie une population positivement asymétrique. Dans le cas de la stratification par optimisation, on peut prendre en considération toute forme de la fonction d'optimisation et de ses contraintes. Une étude numérique comparative portant sur cinq populations artificielles positivement asymétriques a indiqué que, dans chaque cas étudié, l'approche par optimisation était plus efficace que la stratification géométrique. En outre, nous avons comparé les approches géométrique et par optimisation à l'algorithme LH. Cette comparaison a révélé que la méthode géométrique de stratification était moins efficace que l'algorithme LH, tandis que l'approche par optimisation était aussi efficace que cet algorithme. Néanmoins, les limites de strate déterminées par la stratification géométrique peuvent être considérées comme de bons points de départ pour l'approche par optimisation.
Date de diffusion : 2006-12-21 - Articles et rapports : 12-001-X20060029551Description :
Lorsqu'on veut sélectionner un échantillon, il arrive qu'au lieu de disposer d'une base de sondage contenant les unités de collecte souhaitées, on ait accès à une base de sondage contenant des unités liées d'une certaine façon à la liste d'unités de collecte. On peut alors envisager de sélectionner un échantillon dans la base de sondage disponible afin de produire une estimation pour la population cible souhaitée en s'appuyant sur les liens qui existent entre les deux. On donne à cette approche le nom de sondage indirect.
L'estimation des caractéristiques de la population cible étudiée par sondage indirect peut poser un défi de taille, en particulier si les liens entre les unités des deux populations ne sont pas bijectifs. Le problème vient surtout de la difficulté à associer une probabilité de sélection, ou un poids d'estimation, aux unités étudiées de la population cible. La méthode généralisée du partage des poids (MGPP) a été mise au point par Lavallée (1995) et Lavallée (2002) afin de résoudre ce genre de problème d'estimation. La MGPP fournit un poids d'estimation pour chaque unité enquêtée de la population cible.
Le présent article débute par une description du sondage indirect, qui constitue le fondement de la MGPP. En deuxième lieu, nous donnons un aperçu de la MGPP dans lequel nous la formulons dans un cadre théorique en utilisant la notation matricielle. En troisième lieu, nous présentons certaines propriétés de la MGPP, comme l'absence de biais et la transitivité. En quatrième lieu, nous considérons le cas particulier où les liens entre les deux populations sont exprimés par des variables indicatrices. En cinquième lieu, nous étudions certains liens typiques spéciaux afin d'évaluer leur effet sur la MGPP. Enfin, nous examinons le problème de l'optimalité. Nous obtenons des poids optimaux dans un sens faible (pour des valeurs particulières de la variable d'intérêt), ainsi que les conditions dans lesquelles ces poids sont également optimaux au sens fort et indépendants de la variable d'intérêt.
Date de diffusion : 2006-12-21 - 7. Extensions de la méthode d'échantillonnage indirect et son application aux enquêtes dans le tourisme ArchivéArticles et rapports : 12-001-X20060029552Description :
On doit procéder à une enquête portant sur la fréquentation touristique d'origine intra ou extra-régionale en Bretagne. Pour des raisons matérielles concrètes, les « enquêtes aux frontières » ne peuvent plus s'organiser. Le problème majeur est l'absence de base de sondage permettant d'atteindre directement les touristes. Pour contourner ce problème, on applique la méthode d'échantillonnage indirect dont la pondération est obtenue par la méthode généralisée de partage des poids développée récemment par Lavallée (1995), Lavallée (2002), Deville (1999) et présentée également dans Lavallée et Caron (2001). Cet article montre comment adapter cette méthode à l'enquête. Certaines extensions s'avèrent nécessaires. On développera l'une d'elle destinée à estimer le total d'une population dont on a tiré un échantillon bernoullien.
Date de diffusion : 2006-12-21 - Articles et rapports : 12-001-X20060029553Description :
Félix-Medina et Thompson (2004) ont proposé une variante de l'échantillonnage par dépistage de liens dans laquelle on suppose qu'une part de la population (qui n'est pas nécessairement la plus grande) est couverte par une liste d'emplacements disjoints où les membres de la population peuvent être trouvés avec une probabilité élevée. Après la sélection d'un échantillon d'emplacements, on demande aux personnes se trouvant à chacun de ces emplacements de nommer d'autres membres de la population. Les deux auteurs ont proposé des estimateurs du maximum de vraisemblance des tailles de population qui donnent des résultats acceptables à condition que, pour chaque emplacement, la probabilité qu'un membre de la population soit nommé par une personne se trouvant à cet emplacement, appelée probabilité de nomination, ne soit pas faible. Dans la présente étude, nous partons de la variante de Félix-Medina et Thompson, et nous proposons trois ensembles d'estimateurs des tailles de population dérivés sous une approche bayésienne. Deux des ensembles d'estimateurs sont obtenus en utilisant des lois a priori incorrectes des tailles de population, et l'autre en utilisant des lois a priori de Poisson. Cependant, nous n'utilisons la méthode bayésienne que pour faciliter la construction des estimateurs et adoptons l'approche fréquentiste pour faire les inférences au sujet des tailles de population. Nous proposons deux types d'estimateurs de variance et d'intervalles de confiance partiellement fondés sur le plan de sondage. L'un d'eux est obtenu en utilisant un bootstrap et l'autre, en suivant la méthode delta sous l'hypothèse de normalité asymptotique. Les résultats d'une étude par simulation indiquent que i) quand les probabilités de nomination ne sont pas faibles, chacun des ensembles d'estimateurs proposés donne de bon résultats et se comporte de façon fort semblable aux estimateurs du maximum de vraisemblance, ii) quand les probabilités de nomination sont faibles, l'ensemble d'estimateurs dérivés en utilisant des lois a priori de Poisson donne encore des résultats acceptables et ne présente pas les problèmes de biais qui caractérisent les estimateurs du maximum de vraisemblance et iii) les résultats précédents ne dépendent pas de la taille de la fraction de la population couverte par la base de sondage.
Date de diffusion : 2006-12-21 - Articles et rapports : 12-001-X20060029554Description :
L'échantillonnage en vue d'estimer un indice des prix à la consommation (IPC) est assez compliqué et requiert généralement la combinaison de données provenant d'au moins deux enquêtes, l'une donnant les prix et l'autre, la pondération par les dépenses. Deux approches fondamentalement différentes du processus d'échantillonnage - l'échantillonnage probabiliste et l'échantillonnage par choix raisonné - ont été vivement recommandées et sont utilisées par divers pays en vue de recueillir les données sur les prix. En construisant un petit « univers » d'achats et de prix à partir de données scannées sur les céréales, puis en simulant diverses méthodes d'échantillonnage et d'estimation, nous comparons les résultats de deux approches du plan de sondage et de l'estimation, à savoir l'approche probabiliste adoptée aux États Unis et l'approche par choix raisonné adoptée au Royaume Uni. Pour la même quantité d'information recueillie, mais avec l'utilisation d'estimateurs différents, les méthodes du Royaume Uni semblent offrir une meilleure exactitude globale du ciblage d'un indice superlatif des prix à la consommation basé sur la population.
Date de diffusion : 2006-12-21 - Articles et rapports : 12-001-X20060029555Description :
Les chercheurs et les responsables des politiques utilisent souvent des données provenant d'enquêtes par échantillonnage probabiliste représentatives de la population nationale. Le nombre de sujets couverts par ces enquêtes, et par conséquent la durée des entrevues, a généralement augmenté au fil des ans, ce qui a accru les coûts et le fardeau de réponse. Un remède éventuel à ce problème consiste à regrouper prudemment les questions d'une enquête en sous ensembles et à demander à chaque répondant de ne répondre qu'à l'un de ces sous ensembles. Les plans de sondage de ce type sont appelés plans à « questionnaire scindé » ou plans d'« échantillonnage matriciel ». Le fait de ne poser qu'un sous ensemble des questions d'une enquête à chaque répondant selon un plan d'échantillonnage matriciel crée ce que l'on peut considérer comme des données manquantes. Le recours à l'imputation multiple (Rubin 1987), une approche polyvalente mise au point pour traiter les données pour lesquelles des valeurs manquent, est tentant pour analyser les données provenant d'un échantillon matriciel, parce qu'après la création des imputations multiples, l'analyste peut appliquer les méthodes standard d'analyse de données complètes provenant d'une enquête par sondage. Le présent article décrit l'élaboration et l'évaluation d'une méthode permettant de créer des questionnaires d'échantillonnage matriciel contenant chacun un sous ensemble de questions devant être administrées à des répondants sélectionnés aléatoirement. La méthode peut être appliquée dans des conditions complexes, y compris les situations comportant des enchaînements de questions. Les questionnaires sont créés de telle façon que chacun comprenne des questions qui sont prédictives des questions exclues, afin qu'il soit possible, lors des analyses subséquentes fondées sur l'imputation multiple, de recouvrer une partie de l'information relative aux questions exclues qui aurait été recueillie si l'on n'avait pas recouru à l'échantillonnage matriciel. Ce dernier et les méthodes d'imputation multiple sont évalués au moyen de données provenant de la National Health and Nutrition Examination Survey, l'une des nombreuses enquêtes par échantillonnage probabiliste représentatives de la population nationale réalisées par le National Center for Health Statistics des Centers for Disease Control and Prevention. L'étude démontre que l'approche peut être appliquée à une grande enquête nationale sur la santé à structure complexe et permet de faire des recommandations pratiques quant aux questions qu'il serait approprié d'inclure dans des plans d'échantillonnage matriciel lors de futures enquêtes.
Date de diffusion : 2006-12-21
- Précédent Go to previous page of Analyses results
- 1 (actuel) Aller à la page 1 des résultats «!tag»
- 2 Aller à la page 2 des résultats «!tag»
- 3 Aller à la page 3 des résultats «!tag»
- 4 Aller à la page 4 des résultats «!tag»
- 5 Aller à la page 5 des résultats «!tag»
- Suivant Go to next page of Analyses results
Références (11)
Références (11) (0 à 10 de 11 résultats)
- Enquêtes et programmes statistiques — Documentation : 62F0026M2006001Géographie : Province ou territoireDescription :
Dans ce guide, on présente de l'information susceptible d'intéresser les utilisateurs de données provenant de l'Enquête sur les dépenses des ménages. Dans le cadre de cette enquête, on recueille des données sur les habitudes de dépenses, les caractéristiques des logements et de l'équipement ménager des ménages canadiens. L'enquête vise les ménages privés des 10 provinces. (Depuis 1999, les territoires sont étudiés à tous les deux ans.)
Ce guide comprend les définitions des termes et des variables de l'enquête, ainsi que des descriptions sur les méthodes de l'enquête et la qualité des données. Il contient aussi une section décrivant les statistiques pouvant être produites au moyen des données sur les dépenses (dont la part consacrée au budget, la part de marché, les agrégats et les médianes).
Date de diffusion : 2006-12-12 - Enquêtes et programmes statistiques — Documentation : 89-622-X2006003Description :
L'Enquête sociale générale (ESG) est une enquête annuelle qui permet de suivre les changements et les nouvelles tendances dans la société canadienne. Pour la quatrième fois au Canada, l'ESG a permis de recueillir des données nationales sur l'emploi du temps. L'ESG est financée au moyen d'une initiative gouvernementale visant à combler les lacunes en données pour la recherche sur les politiques. Dans le présent document, nous décrivons le cadre stratégique qui soutient l'enquête, et nous analysons l'incidence de ce cadre sur les décisions en matière de contenu prises pour l'ESG. Après un bref aperçu des principales conclusions des trois premiers cycles de données sur l'emploi du temps, nous examinons les pratiques exemplaires et les enseignements tirés de l'élaboration, de la collecte et du traitement de ces données au Canada. Enfin, nous comparons les méthodes et le contenu de l'enquête canadienne sur l'emploi du temps par rapport à l'enquête américaine.
Date de diffusion : 2006-11-20 - Enquêtes et programmes statistiques — Documentation : 68-514-XDescription :
L'approche utilisée par Statistique Canada pour la collecte et la diffusion de données économiques a évolué depuis plusieurs décennies vers un système de collecte et d'estimation fortement intégré qui alimente le cadre du Système de comptabilité nationale du Canada.
L'élément clé de cette approche a été la création de l'Enquête unifiée auprès des entreprises, qui avait pour objet d'améliorer l'uniformité, la cohérence, l'ampleur et la profondeur des données des enquêtes-entreprises.
L'EUE a atteint cet objectif en regroupant dans un cadre commun un grand nombre d'enquêtes-entreprises annuelles du Canada. Ce cadre comprenait une seule base de sondage, un schéma pour le plan d'échantillonnage, l'harmonisation conceptuelle du contenu des enquêtes, divers moyens d'utiliser les données administratives pertinentes, une collecte intégrée des données, des outils de traitement et d'analyse, et un entrepôt central de données.
Date de diffusion : 2006-11-20 - Enquêtes et programmes statistiques — Documentation : 15-206-X2006004Description :
Cette étude a pour objectif de décrire brièvement la méthodologie actuellement utilisée pour produire le volume annuel d'heures travaillées conforme au Système de comptabilité nationale (SCN) . Ces données servent d'entrées de travail dans les mesures annuelles et trimestrielles de la productivité du travail et dans les mesures annuelles de la productivité multifactorielle. À cette fin, ces heures travaillées sont décomposées par niveau d'éducation et par groupe d'âge afin de tenir compte des changements dans la composition de la main-d'oeuvre. Elles servent également à calculer la rémunération horaire et le coût unitaire de main-d'oeuvre, à produire des simulations du modèle des entrées-sorties du SCN et en tant qu'intrants de main-d'oeuvre dans la plupart des comptes satellites du SCN (c.-à-d. environnement, tourisme).
Date de diffusion : 2006-10-27 - Enquêtes et programmes statistiques — Documentation : 92-565-XDescription :
L'Avant-goût des produits et services donne un aperçu complet des produits et services proposés dont les données sont tirées du Recensement de la population de 2006 et du Recensement de l'agriculture de 2006. Les renseignements (le cas échéant) qu'il renferme comprendront les principales caractéristiques et le contenu, « Quoi de neuf? » en comparaison avec les données de 2001, les niveaux géographiques, la disponibilité et les formats de diffusion, le calendrier d'exécution de la diffusion et l'établissement des prix.
Pour 2006, l'Avant-goût est maintenant un produit exclusif à Internet et n'est plus offert en format imprimé formel (c.-à-d. une publication sous forme de bulletin); toutefois, un format imprimable est offert sur Internet. Ce produit sera mis à jour périodiquement au fur et à mesure que les détails relatifs aux produits et services seront définitifs.
Date de diffusion : 2006-10-17 - Enquêtes et programmes statistiques — Documentation : 82-225-X20060099205Description :
L'aperçu de la confirmation des décès décrit le module de confirmation des décès du Registre canadien du cancer, sa structure, sa fonction et son rôle dans le fonctionnement du registre national du cancer. Les entrées et les sorties sont énumérées et décrites brièvement, de même que les différentes étapes constituant le processus de confirmation des décès.
Date de diffusion : 2006-07-07 - Avis et consultations : 87-004-X20030039213Description :
À Statistique Canada, le Programme de la statistique culturelle (PSC) constitue la principale source d'analyse du secteur culturel depuis sa création en 1972. Il conservera ce rôle, mais en modifiant largement sa façon de recueillir les données culturelles et, en réalité, ces données elles-mêmes. Le présent article vise à informer les utilisateurs de ces données de l'ampleur des changements à venir et de la manière dont le PSC relève les défis de cette période de transition.
Date de diffusion : 2006-06-12 - Enquêtes et programmes statistiques — Documentation : 75F0002M2006001Description :
Une entrevue préliminaire visant à recueillir des renseignements généraux est menée auprès de tous les répondants âgés de 16 ans et plus qui sont ajoutés à l'échantillon de l'Enquête sur la dynamique du travail et du revenu (EDTR). Dans le cas de la majorité des répondants longitudinaux, cela se produit au moment de l'ajout d'un nouveau panel et de la collecte des renseignements préliminaires pendant la première entrevue sur le travail. Toutefois, toutes les personnes vivant avec un répondant longitudinal sont aussi entrevueées aux fins de l'EDTR. Les entrevues préliminaires sont donc menées auprès des nouveaux membres d'un ménage pendant leur première entrevue sur le travail après leur arrivée dans le ménage. Les personnes longitudinales ayant atteint l'âge de 16 ans pendant la participation de leur ménage à l'échantillon de l'EDTR peuvent alors participer aux entrevues de l'EDTR; on leur pose donc les questions de l'entrevue préliminaire au cours de leur première entrevue sur le travail.
Ce document de recherche présente le contenu de l'entrevue préliminaire de 2005 (pour l'année de référence 2004) y compris le libellé et le cheminement des questions ainsi que les choix de réponses possibles.
Date de diffusion : 2006-04-06 - Enquêtes et programmes statistiques — Documentation : 75F0002M2006003Description :
L'entrevue pour l'Enquête sur la dynamique du travail et du revenu (EDTR) est réalisée au moyen d'interview assistée par ordinateur (IAO); il n'y a pas de questionnaires imprimés pour la collecte. Le présent document est le rapprochement écrit de l'IAO, ou du questionnaire.
Par les années passées, dans le cadre de l'EDTR, on effectuait une entrevue sur le travail en janvier, et une entrevue distincte sur le revenu en mai. En 2005 (pour l'année de référence 2004), les deux entrevues ont été combinées en une, qui se tient au mois de janvier.
Une entrevue sur le travail et le revenu est recueillie pour tous les répondants âgés de 16 ans et plus. Les répondants ont le chois entre répondre à des questions sur leur revenu au cours d'une entrevue ou donner à Statistique Canada la permission d'utiliser leurs dossiers de l'impôt sur le revenu.
En janvier 2005, les données pour l'année de référence 2004 ont été recueillies auprès des panels 3 et 4. Le panel 3, qui en est à sa sixième et dernière année, regroupe environ 17 000 ménages, et le panel 4, qui en est à sa troisième année, compte lui aussi quelque 17 000 ménages.
Le présent document brosse un tableau de la structure de l'entrevue sur le travail et le revenu de janvier 2005 (pour l'année de référence 2004) en présentant la formulation des questions, les réponses possibles, et le cheminement des questions.
Date de diffusion : 2006-04-06 - Enquêtes et programmes statistiques — Documentation : 75F0002M2006002Description :
Dans les années précédentes, l'EDTR comprenait une entrevue sur le travail en janvier et une entrevue distincte sur le revenu en mai. En 2005 (année de référence 2004), les deux entrevues ont été combinées en une seule entrevue menée en janvier.
Les données sont recueillies au moyen d'une méthode d'entrevue assistée par ordinateur; il n'y a donc pas de questionnaires papier pour la collecte. Les questions, les réponses et le déroulement de l'entrevue sur le travail et le revenu sont décrits dans d'autres documents de recherche de l'EDTR. Ce document présente les renseignements de la partie Entrée et sortie de l'entrevue 2005 sur le travail et le revenu (pour l'année de référence 2004).
La composante d'Entrée et Sortie est répartie en cinq modules différents. Le module Entrée correspond à la première série de données recueillies. Il sert à mettre à jour les données sur le lieu de résidence, les conditions et les dépenses de logement ainsi que sur la composition du ménage. Pour chaque personne signalée au module Entrée, le module Démographique permet de réunir (ou de mettre à jour) le nom de la personne, la date de naissance, le sexe, et l'état matrimonial. Ensuite, le module Liens de parenté permet de réunir (ou de mettre à jour) le lien entre chaque répondant et tous les autres membres du ménage. Le module Sortie comprend des questions sur l'identité de la personne avec qui communiquer pour la prochaine entrevue et les noms, numéros de téléphone et adresses de deux personnes-ressources à utiliser seulement si un dépistage des répondants est requis ultérieurement. Un aperçu de la composante Dépistage est également inclus dans ce document.
Date de diffusion : 2006-03-27
- Date de modification :