Aide à l'ordre
entrées

Résultats

Tout (11)

Tout (11) (0 à 10 de 11 résultats)

  • Articles et rapports : 12-001-X200900211045
    Description :

    Dans l'analyse de données d'enquête, on se sert souvent du nombre de degrés de liberté pour évaluer la stabilité des estimateurs de variance fondé sur le plan de sondage. Par exemple, ce nombre de degrés de liberté est utilisé pour construire les intervalles de confiances fondés sur des approximations de la loi t, ainsi que des tests t connexes. En outre, un petit nombre de degrés de liberté donne une idée qualitative des limites possibles d'un estimateur de variance particulier dans une application. Parfois, le calcul du nombre de degrés de liberté s'appuie sur des formes de l'approximation de Satterthwaite. Ces calculs fondés sur l'approche de Satterthwaite dépendent principalement des grandeurs relatives des variances au niveau de la strate. Cependant, pour des plans de sondage comportant la sélection d'un petit nombre d'unités primaires par strate, les estimateurs de variance au niveau de la strate classiques ne fournissent que des renseignements limités sur les variances réelles de strate. Le cas échéant, les calculs habituels fondés sur l'approche de Satterthwaite peuvent poser des problèmes, surtout dans les analyses portant sur des sous-populations concentrées dans un nombre relativement faible de strates. Pour résoudre ce problème, nous utilisons dans le présent article les estimations des variances à l'intérieur des unités primaires d'échantillonnage (variances intra-UPE) pour fournir de l'information auxiliaire sur les grandeurs relatives des variances globales au niveau de la strate. Les résultats des analyses indiquent que l'estimateur du nombre de degrés de liberté résultant est meilleur que les estimateurs de type Satterthwaite modifiés, à condition que : a) les variances globales au niveau de la strate soient approximativement proportionnelles aux variances intra-strate correspondantes et b) les variances des estimateurs de variance intra-UPE soient relativement faibles. En outre, nous élaborons des méthodes à erreurs sur les variables qui permettent de vérifier empiriquement les conditions a) et b). Pour ces vérifications de modèle, nous établissons des distributions de référence fondées sur des simulations qui diffèrent considérablement des distributions de référence fondées sur les approximations normales en grand échantillon habituelles. Nous appliquons les méthodes proposées à quatre variables de la troisième National Health and Nutrition Examination Survey (NHANES III) réalisée aux États-Unis.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 11-522-X200800010956
    Description :

    L'utilisation de l'interview enregistrée assistée par ordinateur (IEAO) comme outil pour déceler la falsification des interviews est de plus en plus fréquente dans les études par sondage (Biemer, 2000, 2003; Thissen, 2007). De même, les spécialistes de la recherche sur les enquêtes commencent à accroître l'utilité de l'IEAO en combinant les enregistrements sonores au codage pour résoudre les problèmes de qualité des données (Herget, 2001; Hansen, 2005; McGee, 2007). La communication porte sur les résultats d'une étude intégrée dans la National Home and Hospice Care Survey (NHHCS) réalisée auprès des établissements de santé par le National Center for Health Statistics, dans laquelle le codage du comportement fondé sur l'IEAO et des paradonnées particulières à l'IEAO ont été utilisés pour 1) repérer et corriger les problèmes de comportement des intervieweurs ou ceux relatifs aux questions au début de la période de collecte des données, avant qu'ils n'aient un effet négatif sur la qualité des données et 2) trouver des moyens de réduire l'erreur de mesure dans les futures exécutions de la NHHCS. Au cours des neuf premières semaines de la période de travail sur le terrain de 30 semaines, l'IEAO a été utilisée pour enregistrer chez tous les intervieweurs l'administration d'un sous-ensemble de questions de l'application de la NHHCS. Les enregistrements ont été reliés à l'application d'interview et aux données de sortie, puis codés selon l'un de deux modes, à savoir le codage par intervieweur ou le codage par question. La méthode de codage par intervieweur a permis d'examiner les problèmes particuliers à un intervieweur, ainsi que les problèmes plus généraux s'appliquant éventuellement à tous les intervieweurs. La méthode de codage par question a produit des données fournissant des éclaircissements sur l'intelligibilité des questions et d'autres problèmes de réponse. Sous ce mode, les codeurs ont codé plusieurs applications de la même question par plusieurs intervieweurs. Grâce à l'approche du codage par question, les chercheurs ont relevé des problèmes ayant trait à trois questions importantes de l'enquête durant les premières semaines de la collecte des données et ont donné aux intervieweurs des directives quant à la façon de traiter ces questions à mesure que la collecte des données s'est poursuivie. Les résultats du codage des enregistrements sonores (qui étaient reliés à l'application d'enquête et aux données de sortie) fourniront des renseignements qui permettront d'améliorer l'énoncé des questions et la formation des intervieweurs en prévision de la prochaine vague de la NHHCS et orienteront les travaux en vue de poursuivre l'amélioration de l'application d'IEAO et du système de codage.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010970
    Description :

    RTI International mène une étude longitudinale sur l'éducation. L'un des volets de l'étude consistait à recueillir des relevés de notes et des catalogues de cours auprès des écoles secondaires fréquentées par les personnes comprises dans l'échantillon. Il fallait aussi saisir et coder les renseignements tirés de ces documents. Le défi était de taille puisque les relevés et les catalogues, dont le contenu et la présentation variaient grandement, ont été recueillis auprès de différents types d'écoles, dont des écoles publiques, privées et religieuses de tout le pays. La difficulté consistait à concevoir un système perfectionné pouvant être utilisé simultanément par de nombreux utilisateurs. RTI a mis au point un système de saisie et de codage des données tirées des relevés de notes et des catalogues de cours d'études secondaires. Doté de toutes les caractéristiques d'un système de saisie et de codage haut de gamme, évolué, multi-utilisateur, multitâche, convivial et d'entretien peu coûteux, le système est basé sur le Web et possède trois grandes fonctions : la saisie et le codage des données des relevés et des catalogues, le contrôle de la qualité des données à l'étape de la saisie (par les opérateurs) et le contrôle de la qualité des données à l'étape du codage (par les gestionnaires). Compte tenu de la nature complexe de la saisie et du codage des données des relevés et des catalogues, le système a été conçu pour être souple et pour permettre le transport des données saisies et codées dans tout le système afin de réduire le temps de saisie. Il peut aussi guider logiquement les utilisateurs dans toutes les pages liées à un type d'activité, afficher l'information nécessaire pour faciliter la saisie et suivre toutes les activités de saisie, de codage et de contrôle de la qualité. Les données de centaines de catalogues et de milliers de relevés de notes ont été saisies, codées et vérifiées à l'aide du système. La présente communication aborde les besoins et la conception du système, les problèmes de mise en oeuvre et les solutions adoptées, ainsi que les leçons tirées de cette expérience.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010987
    Description :

    Ces dernières années, d'importants progrès ont été réalisés dans le domaine de la collecte des données en ligne. Aujourd'hui, un grand nombre de bureaux de la statistique offrent une option de réponse en ligne pour de nombreux types d'enquête. L'opinion selon laquelle la collecte de données en ligne peut accroître la qualité des données tout en réduisant les coûts de collecte est très répandue. L'expérience a montré que les entreprises auxquelles a été offerte l'option de remplir un questionnaire en ligne au lieu d'un questionnaire imprimé ont mis du temps à adopter l'option en ligne. Par ailleurs, les expériences ont également montré qu'en favorisant la réponse en ligne plutôt que l'utilisation d'un questionnaire imprimé, il est possible d'accroître le taux d'adoption de l'option en ligne. Cependant, les études décrivant ce qui se passe lorsque la stratégie de prise de contact est modifiée radicalement et que l'option de réponse en ligne est la seule offerte dans une enquête auprès des entreprises complexe sont encore rares. En 2008, Statistics Sweden a décidé d'utiliser une stratégie axée à peu près uniquement sur le Web dans l'enquête sur la production industrielle (PRODCOM). Le questionnaire en ligne a été élaboré au moyen de l'outil généralisé de conception d'enquêtes en ligne utilisé par l'organisme. Le présent article décrit la solution en ligne et certaines expériences relatives à l'enquête PRODCOM de 2008, y compris les données de traitement sur les taux de réponse et les ratios d'erreurs, ainsi que les résultats d'un suivi cognitif à l'enquête. Certaines importantes leçons apprises sont également présentées.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010991
    Description :

    Dans le processus d'évaluation des plans d'enquête prospectifs, les organismes statistiques doivent généralement tenir compte d'un grand nombre de facteurs pouvant avoir une incidence considérable sur le coût de l'enquête et la qualité des données. Or, les compromis entre le coût et la qualité sont souvent compliqués par les limites relatives à la quantité d'information disponible au regard des coûts fixes et des coûts marginaux liés au remaniement des instruments et à leur mise à l'essai sur le terrain, au nombre d'unités d'échantillonnage du premier degré et d'éléments compris dans l'échantillon, à l'affectation de sections d'instrument et aux modes de collecte appropriés pour des éléments d'échantillon précis ainsi qu'au nombre d'interviews et à leur périodicité (dans le cas des enquêtes longitudinales). D'autre part, les concepteurs disposent souvent de renseignements limités sur l'incidence de ces facteurs sur la qualité des données.

    Les auteurs appliquent des méthodes normalisées d'optimisation de la conception pour neutraliser l'incertitude entourant les composantes susmentionnées liées au coût et à la qualité. Une attention particulière est portée au niveau de précision requis des renseignements sur le coût et la qualité pour que ceux-ci soient d'une quelconque utilité dans le processus de conception, à la nature délicate des compromis coût-qualité relativement aux changements dans les hypothèses concernant les formes fonctionnelles ainsi qu'aux répercussions des travaux préliminaires au regard de la collecte de renseignements sur le coût et la qualité. De plus, la communication examine les différences entre le coût et la qualité dans la mise à l'essai sur le terrain et le travail de production, l'intégration des renseignements sur le coût et la qualité sur le plan de la production à l'adaptation de la conception de même que les coûts et les risques opérationnels découlant de la collecte de données détaillées sur le coût et la qualité pendant la phase de production. Les méthodes proposées sont motivées par le travail avec le remaniement cloisonné de l'interview et les composantes liées au journal de la Consumer Expenditure Survey des États-Unis.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800011014
    Description :

    Dans de nombreux pays, l'amélioration des statistiques économiques est au nombre des grandes priorités du 21e siècle. L'accent est mis, d'abord et avant tout, sur la qualité des comptes nationaux, tant annuels que trimestriels. À cet égard, la qualité des données sur les entreprises les plus grandes joue un rôle essentiel. L'analyse de cohérence est un outil fort utile pour s'assurer que les données fournies par ces entreprises sont de bonne qualité. Par cohérence, nous entendons que les données provenant de diverses sources concordent et brossent un tableau logique du développement de ces entreprises. Une analyse de cohérence efficace est généralement une tâche ardue qui consiste principalement à recueillir des données de différentes sources afin de les comparer de façon structurée. Au cours des deux dernières années, de grands progrès ont été accomplis à Statistics Sweden en ce qui concerne l'amélioration des routines servant à l'analyse de cohérence. Nous avons construit un outil TI qui recueille les données sur les plus grandes entreprises auprès d'un grand nombre de sources et les présente de manière structurée et logique, et nous avons élaboré une approche systématique d'analyse trimestrielle des données destinée aux comptes nationaux. Le présent article décrit les travaux effectués dans ces deux domaines et donne un aperçu de l'outil TI et des routines retenues.

    Date de diffusion : 2009-12-03

  • Stats en bref : 88-001-X200900711026
    Description :

    Les renseignements contenus dans ce document sont destinés principalement aux décideurs en science et technologie (S-T), des niveaux fédéral et provincial, et servent principalement comme base de comparaison entre provinces et secteurs. Les statistiques sont les agrégats des enquêtes sur les sciences des administrations provinciales et des organismes provinciaux de recherche effectuées par Statistique Canada à contrat pour les provinces et portant sur la période allant de 2002-2003 à 2006-2007.

    Date de diffusion : 2009-11-20

  • Articles et rapports : 11-536-X200900110809
    Description :

    L'échantillonnage par grappes et l'échantillonnage à plusieurs degrés nécessitent l'échantillonnage d'unités auprès de plus d'une population. Il y a habituellement de l'information auxiliaire disponible sur la population et sur l'échantillon à chacun de ces niveaux. Les poids de calage d'un échantillon sont généralement produits uniquement au moyen de l'information auxiliaire à ce niveau. Cette approche laisse de côté de l'information disponible aux autres niveaux. En outre, il est souvent utile de coupler les poids de calage entre les échantillons à différents niveaux. Grâce à la pondération intégrée de l'échantillonnage par grappes, les poids des unités d'une grappe sont tous identiques et équivalents au poids de la grappe. On présente une généralisation de la pondération intégrée aux plans d'échantillonnage à plusieurs degrés. Ce processus s'appelle la pondération couplée.

    Date de diffusion : 2009-08-11

  • Articles et rapports : 12-001-X200900110880
    Description :

    Le présent article décrit un cadre pour l'estimation par calage sous les plans d'échantillonnage à deux phases. Les travaux présentés découlent de la poursuite du développement de logiciels généralisés d'estimation à Statistique Canada. Un objectif important de ce développement est d'offrir une grande gamme d'options en vue d'utiliser efficacement l'information auxiliaire dans différents plans d'échantillonnage. Cet objectif est reflété dans la méthodologie générale pour les plans d'échantillonnage à deux phases exposée dans le présent article.

    Nous considérons le plan d'échantillonnage à deux phases classique. Un échantillon de première phase est tiré à partir d'une population finie, puis un échantillon de deuxième phase est tiré en tant que sous échantillon du premier. La variable étudiée, dont le total de population inconnu doit être estimé, est observée uniquement pour les unités contenues dans l'échantillon de deuxième phase. Des plans d'échantillonnage arbitraires sont permis à chaque phase de l'échantillonnage. Divers types d'information auxiliaire sont identifiés pour le calcul des poids de calage à chaque phase. Les variables auxiliaires et les variables étudiées peuvent être continues ou catégoriques.

    L'article apporte une contribution à quatre domaines importants dans le contexte général du calage pour les plans d'échantillonnage à deux phases :1) nous dégageons trois grands types d'information auxiliaire pour les plans à deux phases et les utilisons dans l'estimation. L'information est intégrée dans les poids en deux étapes : un calage de première phase et un calage de deuxième phase. Nous discutons de la composition des vecteurs auxiliaires appropriés pour chaque étape et utilisons une méthode de linéarisation pour arriver aux résidus qui déterminent la variance asymptotique de l'estimateur par calage ;2) nous examinons l'effet de divers choix de poids de départ pour le calage. Les deux choix « naturels » produisent généralement des estimateurs légèrement différents. Cependant, sous certaines conditions, ces deux estimateurs ont la même variance asymptotique ;3) nous réexaminons l'estimation de la variance pour l'estimateur par calage à deux phases. Nous proposons une nouvelle méthode qui peut représenter une amélioration considérable par rapport à la technique habituelle de conditionnement sur l'échantillon de première phase. Une simulation décrite à la section 10 sert à valider les avantages de cette nouvelle méthode ;4) nous comparons l'approche par calage à la méthode de régression assistée par modèle classique qui comporte l'ajustement d'un modèle de régression linéaire à deux niveaux. Nous montrons que l'estimateur assisté par modèle a des propriétés semblables à celles d'un estimateur par calage à deux phases.

    Date de diffusion : 2009-06-22

  • Articles et rapports : 11-621-M2009079
    Géographie : Canada, Province ou territoire
    Description :

    L'étude examine la performance du secteur du commerce de gros en 2008, à la fois à l'échelle nationale et provinciale, ainsi que les principaux facteurs permettant d'expliquer les résultats pour ce secteur. L'article examine aussi les tendances infra annuelles dans ce secteur.

    Date de diffusion : 2009-05-05
Stats en bref (1)

Stats en bref (1) ((1 résultat))

  • Stats en bref : 88-001-X200900711026
    Description :

    Les renseignements contenus dans ce document sont destinés principalement aux décideurs en science et technologie (S-T), des niveaux fédéral et provincial, et servent principalement comme base de comparaison entre provinces et secteurs. Les statistiques sont les agrégats des enquêtes sur les sciences des administrations provinciales et des organismes provinciaux de recherche effectuées par Statistique Canada à contrat pour les provinces et portant sur la période allant de 2002-2003 à 2006-2007.

    Date de diffusion : 2009-11-20
Articles et rapports (10)

Articles et rapports (10) ((10 résultats))

  • Articles et rapports : 12-001-X200900211045
    Description :

    Dans l'analyse de données d'enquête, on se sert souvent du nombre de degrés de liberté pour évaluer la stabilité des estimateurs de variance fondé sur le plan de sondage. Par exemple, ce nombre de degrés de liberté est utilisé pour construire les intervalles de confiances fondés sur des approximations de la loi t, ainsi que des tests t connexes. En outre, un petit nombre de degrés de liberté donne une idée qualitative des limites possibles d'un estimateur de variance particulier dans une application. Parfois, le calcul du nombre de degrés de liberté s'appuie sur des formes de l'approximation de Satterthwaite. Ces calculs fondés sur l'approche de Satterthwaite dépendent principalement des grandeurs relatives des variances au niveau de la strate. Cependant, pour des plans de sondage comportant la sélection d'un petit nombre d'unités primaires par strate, les estimateurs de variance au niveau de la strate classiques ne fournissent que des renseignements limités sur les variances réelles de strate. Le cas échéant, les calculs habituels fondés sur l'approche de Satterthwaite peuvent poser des problèmes, surtout dans les analyses portant sur des sous-populations concentrées dans un nombre relativement faible de strates. Pour résoudre ce problème, nous utilisons dans le présent article les estimations des variances à l'intérieur des unités primaires d'échantillonnage (variances intra-UPE) pour fournir de l'information auxiliaire sur les grandeurs relatives des variances globales au niveau de la strate. Les résultats des analyses indiquent que l'estimateur du nombre de degrés de liberté résultant est meilleur que les estimateurs de type Satterthwaite modifiés, à condition que : a) les variances globales au niveau de la strate soient approximativement proportionnelles aux variances intra-strate correspondantes et b) les variances des estimateurs de variance intra-UPE soient relativement faibles. En outre, nous élaborons des méthodes à erreurs sur les variables qui permettent de vérifier empiriquement les conditions a) et b). Pour ces vérifications de modèle, nous établissons des distributions de référence fondées sur des simulations qui diffèrent considérablement des distributions de référence fondées sur les approximations normales en grand échantillon habituelles. Nous appliquons les méthodes proposées à quatre variables de la troisième National Health and Nutrition Examination Survey (NHANES III) réalisée aux États-Unis.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 11-522-X200800010956
    Description :

    L'utilisation de l'interview enregistrée assistée par ordinateur (IEAO) comme outil pour déceler la falsification des interviews est de plus en plus fréquente dans les études par sondage (Biemer, 2000, 2003; Thissen, 2007). De même, les spécialistes de la recherche sur les enquêtes commencent à accroître l'utilité de l'IEAO en combinant les enregistrements sonores au codage pour résoudre les problèmes de qualité des données (Herget, 2001; Hansen, 2005; McGee, 2007). La communication porte sur les résultats d'une étude intégrée dans la National Home and Hospice Care Survey (NHHCS) réalisée auprès des établissements de santé par le National Center for Health Statistics, dans laquelle le codage du comportement fondé sur l'IEAO et des paradonnées particulières à l'IEAO ont été utilisés pour 1) repérer et corriger les problèmes de comportement des intervieweurs ou ceux relatifs aux questions au début de la période de collecte des données, avant qu'ils n'aient un effet négatif sur la qualité des données et 2) trouver des moyens de réduire l'erreur de mesure dans les futures exécutions de la NHHCS. Au cours des neuf premières semaines de la période de travail sur le terrain de 30 semaines, l'IEAO a été utilisée pour enregistrer chez tous les intervieweurs l'administration d'un sous-ensemble de questions de l'application de la NHHCS. Les enregistrements ont été reliés à l'application d'interview et aux données de sortie, puis codés selon l'un de deux modes, à savoir le codage par intervieweur ou le codage par question. La méthode de codage par intervieweur a permis d'examiner les problèmes particuliers à un intervieweur, ainsi que les problèmes plus généraux s'appliquant éventuellement à tous les intervieweurs. La méthode de codage par question a produit des données fournissant des éclaircissements sur l'intelligibilité des questions et d'autres problèmes de réponse. Sous ce mode, les codeurs ont codé plusieurs applications de la même question par plusieurs intervieweurs. Grâce à l'approche du codage par question, les chercheurs ont relevé des problèmes ayant trait à trois questions importantes de l'enquête durant les premières semaines de la collecte des données et ont donné aux intervieweurs des directives quant à la façon de traiter ces questions à mesure que la collecte des données s'est poursuivie. Les résultats du codage des enregistrements sonores (qui étaient reliés à l'application d'enquête et aux données de sortie) fourniront des renseignements qui permettront d'améliorer l'énoncé des questions et la formation des intervieweurs en prévision de la prochaine vague de la NHHCS et orienteront les travaux en vue de poursuivre l'amélioration de l'application d'IEAO et du système de codage.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010970
    Description :

    RTI International mène une étude longitudinale sur l'éducation. L'un des volets de l'étude consistait à recueillir des relevés de notes et des catalogues de cours auprès des écoles secondaires fréquentées par les personnes comprises dans l'échantillon. Il fallait aussi saisir et coder les renseignements tirés de ces documents. Le défi était de taille puisque les relevés et les catalogues, dont le contenu et la présentation variaient grandement, ont été recueillis auprès de différents types d'écoles, dont des écoles publiques, privées et religieuses de tout le pays. La difficulté consistait à concevoir un système perfectionné pouvant être utilisé simultanément par de nombreux utilisateurs. RTI a mis au point un système de saisie et de codage des données tirées des relevés de notes et des catalogues de cours d'études secondaires. Doté de toutes les caractéristiques d'un système de saisie et de codage haut de gamme, évolué, multi-utilisateur, multitâche, convivial et d'entretien peu coûteux, le système est basé sur le Web et possède trois grandes fonctions : la saisie et le codage des données des relevés et des catalogues, le contrôle de la qualité des données à l'étape de la saisie (par les opérateurs) et le contrôle de la qualité des données à l'étape du codage (par les gestionnaires). Compte tenu de la nature complexe de la saisie et du codage des données des relevés et des catalogues, le système a été conçu pour être souple et pour permettre le transport des données saisies et codées dans tout le système afin de réduire le temps de saisie. Il peut aussi guider logiquement les utilisateurs dans toutes les pages liées à un type d'activité, afficher l'information nécessaire pour faciliter la saisie et suivre toutes les activités de saisie, de codage et de contrôle de la qualité. Les données de centaines de catalogues et de milliers de relevés de notes ont été saisies, codées et vérifiées à l'aide du système. La présente communication aborde les besoins et la conception du système, les problèmes de mise en oeuvre et les solutions adoptées, ainsi que les leçons tirées de cette expérience.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010987
    Description :

    Ces dernières années, d'importants progrès ont été réalisés dans le domaine de la collecte des données en ligne. Aujourd'hui, un grand nombre de bureaux de la statistique offrent une option de réponse en ligne pour de nombreux types d'enquête. L'opinion selon laquelle la collecte de données en ligne peut accroître la qualité des données tout en réduisant les coûts de collecte est très répandue. L'expérience a montré que les entreprises auxquelles a été offerte l'option de remplir un questionnaire en ligne au lieu d'un questionnaire imprimé ont mis du temps à adopter l'option en ligne. Par ailleurs, les expériences ont également montré qu'en favorisant la réponse en ligne plutôt que l'utilisation d'un questionnaire imprimé, il est possible d'accroître le taux d'adoption de l'option en ligne. Cependant, les études décrivant ce qui se passe lorsque la stratégie de prise de contact est modifiée radicalement et que l'option de réponse en ligne est la seule offerte dans une enquête auprès des entreprises complexe sont encore rares. En 2008, Statistics Sweden a décidé d'utiliser une stratégie axée à peu près uniquement sur le Web dans l'enquête sur la production industrielle (PRODCOM). Le questionnaire en ligne a été élaboré au moyen de l'outil généralisé de conception d'enquêtes en ligne utilisé par l'organisme. Le présent article décrit la solution en ligne et certaines expériences relatives à l'enquête PRODCOM de 2008, y compris les données de traitement sur les taux de réponse et les ratios d'erreurs, ainsi que les résultats d'un suivi cognitif à l'enquête. Certaines importantes leçons apprises sont également présentées.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010991
    Description :

    Dans le processus d'évaluation des plans d'enquête prospectifs, les organismes statistiques doivent généralement tenir compte d'un grand nombre de facteurs pouvant avoir une incidence considérable sur le coût de l'enquête et la qualité des données. Or, les compromis entre le coût et la qualité sont souvent compliqués par les limites relatives à la quantité d'information disponible au regard des coûts fixes et des coûts marginaux liés au remaniement des instruments et à leur mise à l'essai sur le terrain, au nombre d'unités d'échantillonnage du premier degré et d'éléments compris dans l'échantillon, à l'affectation de sections d'instrument et aux modes de collecte appropriés pour des éléments d'échantillon précis ainsi qu'au nombre d'interviews et à leur périodicité (dans le cas des enquêtes longitudinales). D'autre part, les concepteurs disposent souvent de renseignements limités sur l'incidence de ces facteurs sur la qualité des données.

    Les auteurs appliquent des méthodes normalisées d'optimisation de la conception pour neutraliser l'incertitude entourant les composantes susmentionnées liées au coût et à la qualité. Une attention particulière est portée au niveau de précision requis des renseignements sur le coût et la qualité pour que ceux-ci soient d'une quelconque utilité dans le processus de conception, à la nature délicate des compromis coût-qualité relativement aux changements dans les hypothèses concernant les formes fonctionnelles ainsi qu'aux répercussions des travaux préliminaires au regard de la collecte de renseignements sur le coût et la qualité. De plus, la communication examine les différences entre le coût et la qualité dans la mise à l'essai sur le terrain et le travail de production, l'intégration des renseignements sur le coût et la qualité sur le plan de la production à l'adaptation de la conception de même que les coûts et les risques opérationnels découlant de la collecte de données détaillées sur le coût et la qualité pendant la phase de production. Les méthodes proposées sont motivées par le travail avec le remaniement cloisonné de l'interview et les composantes liées au journal de la Consumer Expenditure Survey des États-Unis.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800011014
    Description :

    Dans de nombreux pays, l'amélioration des statistiques économiques est au nombre des grandes priorités du 21e siècle. L'accent est mis, d'abord et avant tout, sur la qualité des comptes nationaux, tant annuels que trimestriels. À cet égard, la qualité des données sur les entreprises les plus grandes joue un rôle essentiel. L'analyse de cohérence est un outil fort utile pour s'assurer que les données fournies par ces entreprises sont de bonne qualité. Par cohérence, nous entendons que les données provenant de diverses sources concordent et brossent un tableau logique du développement de ces entreprises. Une analyse de cohérence efficace est généralement une tâche ardue qui consiste principalement à recueillir des données de différentes sources afin de les comparer de façon structurée. Au cours des deux dernières années, de grands progrès ont été accomplis à Statistics Sweden en ce qui concerne l'amélioration des routines servant à l'analyse de cohérence. Nous avons construit un outil TI qui recueille les données sur les plus grandes entreprises auprès d'un grand nombre de sources et les présente de manière structurée et logique, et nous avons élaboré une approche systématique d'analyse trimestrielle des données destinée aux comptes nationaux. Le présent article décrit les travaux effectués dans ces deux domaines et donne un aperçu de l'outil TI et des routines retenues.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-536-X200900110809
    Description :

    L'échantillonnage par grappes et l'échantillonnage à plusieurs degrés nécessitent l'échantillonnage d'unités auprès de plus d'une population. Il y a habituellement de l'information auxiliaire disponible sur la population et sur l'échantillon à chacun de ces niveaux. Les poids de calage d'un échantillon sont généralement produits uniquement au moyen de l'information auxiliaire à ce niveau. Cette approche laisse de côté de l'information disponible aux autres niveaux. En outre, il est souvent utile de coupler les poids de calage entre les échantillons à différents niveaux. Grâce à la pondération intégrée de l'échantillonnage par grappes, les poids des unités d'une grappe sont tous identiques et équivalents au poids de la grappe. On présente une généralisation de la pondération intégrée aux plans d'échantillonnage à plusieurs degrés. Ce processus s'appelle la pondération couplée.

    Date de diffusion : 2009-08-11

  • Articles et rapports : 12-001-X200900110880
    Description :

    Le présent article décrit un cadre pour l'estimation par calage sous les plans d'échantillonnage à deux phases. Les travaux présentés découlent de la poursuite du développement de logiciels généralisés d'estimation à Statistique Canada. Un objectif important de ce développement est d'offrir une grande gamme d'options en vue d'utiliser efficacement l'information auxiliaire dans différents plans d'échantillonnage. Cet objectif est reflété dans la méthodologie générale pour les plans d'échantillonnage à deux phases exposée dans le présent article.

    Nous considérons le plan d'échantillonnage à deux phases classique. Un échantillon de première phase est tiré à partir d'une population finie, puis un échantillon de deuxième phase est tiré en tant que sous échantillon du premier. La variable étudiée, dont le total de population inconnu doit être estimé, est observée uniquement pour les unités contenues dans l'échantillon de deuxième phase. Des plans d'échantillonnage arbitraires sont permis à chaque phase de l'échantillonnage. Divers types d'information auxiliaire sont identifiés pour le calcul des poids de calage à chaque phase. Les variables auxiliaires et les variables étudiées peuvent être continues ou catégoriques.

    L'article apporte une contribution à quatre domaines importants dans le contexte général du calage pour les plans d'échantillonnage à deux phases :1) nous dégageons trois grands types d'information auxiliaire pour les plans à deux phases et les utilisons dans l'estimation. L'information est intégrée dans les poids en deux étapes : un calage de première phase et un calage de deuxième phase. Nous discutons de la composition des vecteurs auxiliaires appropriés pour chaque étape et utilisons une méthode de linéarisation pour arriver aux résidus qui déterminent la variance asymptotique de l'estimateur par calage ;2) nous examinons l'effet de divers choix de poids de départ pour le calage. Les deux choix « naturels » produisent généralement des estimateurs légèrement différents. Cependant, sous certaines conditions, ces deux estimateurs ont la même variance asymptotique ;3) nous réexaminons l'estimation de la variance pour l'estimateur par calage à deux phases. Nous proposons une nouvelle méthode qui peut représenter une amélioration considérable par rapport à la technique habituelle de conditionnement sur l'échantillon de première phase. Une simulation décrite à la section 10 sert à valider les avantages de cette nouvelle méthode ;4) nous comparons l'approche par calage à la méthode de régression assistée par modèle classique qui comporte l'ajustement d'un modèle de régression linéaire à deux niveaux. Nous montrons que l'estimateur assisté par modèle a des propriétés semblables à celles d'un estimateur par calage à deux phases.

    Date de diffusion : 2009-06-22

  • Articles et rapports : 11-621-M2009079
    Géographie : Canada, Province ou territoire
    Description :

    L'étude examine la performance du secteur du commerce de gros en 2008, à la fois à l'échelle nationale et provinciale, ainsi que les principaux facteurs permettant d'expliquer les résultats pour ce secteur. L'article examine aussi les tendances infra annuelles dans ce secteur.

    Date de diffusion : 2009-05-05

  • Articles et rapports : 82-003-X200900110800
    Géographie : Canada
    Description :

    Le présent article fournit des estimations plus précises et plus détaillées de la prévalence du cancer que celles qui étaient disponibles auparavant.

    Date de diffusion : 2009-03-18
Revues et périodiques (0)

Revues et périodiques (0) (0 résultat)

Aucun contenu disponible actuellement

Date de modification :