Assurance de la qualité

Aide à l'ordre
entrées

Résultats

Tout (239)

Tout (239) (180 à 190 de 239 résultats)

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015660
    Description :

    Les situations qui nécessitent le couplage des enregistrements d'un ou de plusieurs fichiers sont très diverses. Dans le cas d'un seul fichier, le but du couplage est de repérer les enregistrements en double. Dans le cas de deux fichiers, il consiste à déceler les unités qui sont les mêmes dans les deux fichiers et donc de créer des paires d'enregistrements correspondants. Souvent, les enregistrements qu'il faut coupler ne contiennent aucun identificateur unique. Le couplage hiérarchique des enregistrements, le couplage probabiliste des enregistrements et l'appariement statistique sont trois méthodes applicables dans ces conditions. Nous décrivons les principales différences entre ces méthodes. Puis, nous discutons du choix des variables d'appariement, de la préparation des fichiers en prévision du couplage et de la façon dont les paires sont reconnues. Nous donnons aussi quelques conseils et quelques trucs utilisés pour coupler des fichiers. Enfin, nous présentons deux exemples : le couplage probabiliste d'enregistrements réalisé dans le cadre de la contre-vérification des données du recensement et le couplage hiérarchique des enregistrements du fichier maître des numéros d'entreprise (NE) à ceux du fichier de l'univers statistique (FUS) d'unités déclarantes non constituées en société (T1).

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015664
    Description :

    La litterature sur la statistique comprend de nombreuses études portant sur les méthodes déterministes, on trouve peu d'information sur ces méthodes. En outre, il semble qu'il n'existe pas d'études qui comparent les résultats obtenus avec les deux méthodes. Or, une telle comparaison serait utile lorsque les seuls indicateurs communs dont on dispose, et à partir desquels les bases de données doivent être couplées, sont des indicateurs indistincts, comme le nom, le sexe et la race. La présente étude compare une méthode de couplage déterministe par étapes avec la méthode probabiliste mise en oeuvre dans AUTOMATCH pour de telles situations. La comparaison porte sur un couplage de données médicales des centres régionaux de soins périnataux intensifs et de données relatives à l'éducation du ministère de l'Éducation de la Floride. Les numéros d'assurance sociale qui figurent dans les deux bases de données ont servi à valider les paires d'enregistrements après le couplage. On compare les taux de correspondance et les taux d'erreur obtenus avec les deux méthodes et on présente une discussion sur les similitudes et les différences entre les méthodes, ainsi que sur les points forts et les points faibles de chacune.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015666
    Description :

    L'échantillon de fusion obtenu par un procédé d'appariement statistique peut être considéré comme un échantillon tiré d'une population artificielle. Nous dérivons la distribution de cette population artificielle. Si la corrélation entre des variables spécifiques est le seul point d'intérêt, l'importance de l'indépendance conditionnelle peut être réduite. Dans une étude de simulation, nous examinons les effets de la non-confirmation de certaines hypothèses formulées pour obtenir la distribution de la population artificielle. Enfin, nous présentons des idées au sujet de l'établissement de la supposée indépendance conditionnelle par l'analyse de classes latentes.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015668
    Description :

    À la suite des problèmes d'estimation du sous-dénombrement qu'a posé le Recensement de l'Angleterre et du Pays de Galles de 1991, on s'est fixé comme objectif pour le Recensement de 2001 de créer une base de données entièrement corrigée pour tenir compte du sous-dénombrement net. Dans la présente communication, on examine l'application d'une méthode d'imputation pondérée par donneur qui se fonde sur des renseignements provenant tant du recensement que de l'Enquête sur la couverture du recensement (ECR). Le US Census Bureau envisage une approche similaire pour le Recensement des États-Unis de l'an 2000 (voir Isaki et coll. 1998). La méthode proposée fait la distinction entre les personnes qui ne sont pas dénombrées lors du recensement parce qu'on a manqué leur ménage et celles qui ne sont pas dénombrées dans les ménages qui ont été recensés. Les données de recensement sont couplées aux données de l'ECR. On utilise la régression logistique multinominale pour estimer la probabilité que des ménages soient omis dans le recensement, ainsi que la probabilité que des personnes ne soient pas dénombrées au sein de ménages recensés. On calcule des poids de couverture pour les ménages et pour les personnes d'après les probabilités estimatives, puis on les inègre à la méthode d'imputation par donneur.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015670
    Description :

    Pour atteindre efficacement leur public cible, les publicistes et les planificateurs des médias ont besoin de savoir quel pourcentage de consommateurs de Coke diète regardent Alerte à Malibu, ou combien de clients d'AT&T ont vu une annonce de Sprint au cours de la dernière semaine. Toutes les données pertinentes pourraient en théorie être recueillies auprès de chacun des répondants. Toutefois, la collecte de données précises et détaillées serait très coûteuse. Elle imposerait en outre un fardeau important aux répondants, compte tenu de la technique de collecte utilisée actuellement. Pour le moment, ces donées sont recueillies dans le cadre d'enquêtes distinctes, en Nouvelle-Zélande et dans nombre d'autres pays. Le niveau d'exposition aux principaux médias est mesuré de façon continue, et les études sur l'utilisation des produits sont répandues. Des techniques d'appariement statistique fournissent une façon de combiner ces sources d'information distinctes. La base de données des cotes d'écoute de la télévision en Nouvelle-Zélande a été combinée à une enquête multi-intérêts portant sur le profit des lecteurs d'imprimés et la consommation de produits, grâce à l'appariement statistique. Le service Panorama qui en résulte répond aux besoins d'information des publicistes et des planificateurs des médias. L'expérience a été reprise depuis en Australie. Le présent document porte sur l'élaboration du cadre d'appariement statistique qui a servi à la combinaison de ces bases de données, ainsi que sur les connaissances heuristiques et les techniques qui ont été utilisées. Celles-ci comprenaient notamment une expérience effectuée au moyen d'un plan de contrôle visant à déterminer les variables d'appariement importantes. Le présent document comprend en outre un résumé des études ayant servi à l'évaluation et à la validation des résultats combinés. Trois critères principaux d'évaluation ont été utilisés, à savoir : la précision des résultats combinés, la stabilité de ces résultats et la préservation des résultats des bases de données originales. On aborde aussi la façon dont les conditions préalables à la combinaison de ces bases de données ont été respectées. Les différences entre les techniques d'analyse utilisées dans les deux bases de données d'origine ont constitué l'obstacle le plus important à cette étape. Enfin, des suggestions pour le de'veloppement de systèmes d'appariement statistique similaires ailleurs sont fournis.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015672
    Description :

    La fusion des données qui est examinée ici consiste à créer un ensemble de données provenant de sources différentes sur des variables que l'on n'observe pas conjointement. Supposons par exemple que l'on dispose d'observations pour (X,Z) sur un ensemble de personnes et pour (Y,Z) sur un autre ensemble de personnes. Chacune des variables X, Y et Z peut être vectorielle. L'objectif principal consiste à obtenir des précisions sur la distribution conjointe de (X,Y) en se servant de Z comme ce que l'on conviendra d'appeler variable d'appariement. Toutefois, on s'efforce d'abord d'extraire des ensembles de données distincts autant de renseignements que possible sur la distribution conjointe de (X,Y,Z). On ne peut procéder à ce genre de fusion que moyennant la précision de certaines propriétés distributionnelles pour les données fusionnées, à savoir l'hypothèse d'indépendance conditionnelle étant donné les variables d'appariement. Classiquement, l'examen des variables fusionnées consiste à déterminer dans quelle mesure cette hypothèse sous-jacente est appropriée. Ici, nous examinons le problème sous un angle différent. La question que nous nous posons est celle de savoir comment il est possible d'estimer des distributions dans des situations où l'on ne dispose que d'observations provenant de certaines distributions marginales. Nous pouvons la résoudre en appliquant le critère d'entropie maximale. Nous montrons notamment qu'il est possible d'interpréter les données créés par fusion de données de sources différentes comme un cas spécial de cette situation. Par conséquent, nous dérivons l'hypothèse nécessaire d'indépendance conditionnelle en tant que conséquence du type de données disponibles.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015674
    Description :

    L'influence de l'environnement sur la santé est un sujet de préoccupation croissante, plus particulièrement les effets de l'émission de polluants industriels dans l'atmosphère, le sol et l'eau. L'évaluation des risques que comporte une source de pollution donnée pour la santé publique est souvent effectuée à l'aide de données démographiques, environementales et relatives à la santé qui sont recueillies couramment par des organismes gouvernementaux. Ces ensembles de données présentent des différences d'échantillonnage notables sur les plans géographique et temporel; ces différences se répercutent sur les analyses épidémiologiques qui utilisent conjointement de tels ensembles. Au Royaumi-Uni, les problèmes de santé sont enregistrés individuellement pour chaque personne. Sont également indiqués le code de cause de maladie, la date du diagnostic ou du décès, et en utilisant le code postal de l'unité comme référence géographique. Par contre, les données démographiques relatives aux petites régions sont enregistrées uniquement lors du recensement décennal et sont diffusés comme données de niveau régional dans des zones qui ne correspondent pas à celles des codes postaux. Des données relatives à l'exposition ambiante sont pourtant disponibles à un autre niveau, selon le type d'exposition et la source des mesures.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015678
    Description :

    Un modèle d'affectation des ressources en matière de soins de santé selon les besoins de la population a été conçu et mis en application, l'âge, le sexe et l'état de santé des habitants ayant été utilisés pour évaluer les besoins de la population ontarienne en matière de soins de santé. Pour élaborer ce modèle, on a combiné les données provinciales sur l'autoévaluation de la santé et de l'utilisation des services de santé, selon l'âge et le sexe, obtenues auprès de 62 413 répondants de l'Enquête sur la santé en Ontario (ESO) de 1990 et les données sur les dépenses provinciales en soins de santé pour l'exercice 1995-1996, selon l'âge et le sexe. Ce modèle ne comprenait que les services visés par l'ESO (omnipraticiens, médecins spécialistes, optométrie, physiothérapie, chiropractie et soins de courte durée). La répartition de l'utilisation et des dépenses entre les diverses catégories d'âge, de sexe et d'état de santé a été utilisée pour établir les proportions appropriées de ressources en matière de soins de santé pour chaque combinaison âge-sexe-état de santé. Ces proportions ont par la suite été appliquées aux populations des régions géographiques, à partir des données sur l'âge, le sexe et l'état de santé provenant de l'ESO, ainsi que des estimations plus récentes de la population, afin de déterminer les affectations pour chaque région. Le total de ces affectations en dollars devait correspondre au montant du budget provincial de 1995-1996. Les affectations ainsi calculées ont été comparées à celles de 1995-1996 pour déterminer dans quelle mesure elles étaient effectivement compatibles avec les besoins relatifs de la population des régions de l'Ontario.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015680
    Description :

    La combinaison de bases de données par des méthodes de couplage d'enregistrements en vue d'augmenter la quantité d'information disponible est un phénomène de plus en plus fréquent. Si l'on ne peut se fonder sur aucun identificateur unique pour procéder à l'appariement des enregistrements, on recourt au couplage probabiliste. On apparie un enregistrement du premier fichier à un enregistrement du deuxième avec une certaine probabilité et on décide ensuite si cette paire d'enregistrements représente ou non un appariement vrai. Habituellement, ce processus nécessite une certaine intervention manuelle qui demande du temps et des ressources humaines. En outre, il aboutit souvent à un couplage complexe. Autrement dit, au lieu d'être systématiquement biunivoque (un à un), le couplage entre les deux bases de données peut être multi-univoque (plusieurs à un), co-univoque (un à plusieurs) ou multivoque (plusieurs à plusieurs).

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015682
    Description :

    L'application de la méthode d'estimation à double système (EDS) aux données appariées du recensement et de l'enquête postcensitaire (EPC) afin de déterminer le sous-dénombrement net est bien comprise (Hogan, 1993). Cependant, cette méthode n'a pas été utilisée jusqu'à présent pour évaluer le sous-dénombrement net au Royaume-Uni. On l'appliquera pour la première fois à l'occasion de l'EPC de 2001. Le présent article décrit la méthodologie générale employée pour la conception de l'enquête et pour l'estimation de cette EPC (baptisée Enquête sur la couverture du Recensement de 2001). L'estimation combine l'EDS et un estimateur par quotient ou par régression. Une étude par simulations utilisant les données du Recensement de 1991 de l'Angleterre et du pays de Galles montre que le modèle du quotient est en général plus robuste que le modèle de régression.

    Date de diffusion : 2000-03-02
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (161)

Analyses (161) (30 à 40 de 161 résultats)

  • Articles et rapports : 82-003-X201000111066
    Géographie : Canada
    Description :

    Le présent article porte sur quatre procédures essentielles de contrôle de la qualité et de réduction des données qui doivent être appliquées avant que des données sur l'activité physique soient calculées à partir des données d'accélérométrie.

    Date de diffusion : 2010-01-13

  • Articles et rapports : 11-522-X200800010950
    Description :

    Le prochain recensement aura lieu en mai 2011. Cette enquête d'envergure représente un défi particulier pour Statistique Canada et demande beaucoup de temps et de ressources. Une planification serrée a été mise en place afin d'atteindre tous les échéanciers. Plusieurs étapes de mise à l'essai du questionnaire ont été prévues. Ces tests portent sur le contenu du recensement mais abordent aussi la stratégie de communication prévue. Cet article a pour but de présenter un portrait global de la stratégie. De plus, l'emphase sera mise sur l'intégration des études qualitatives à l'étude quantitative faites en 2008 afin de pouvoir analyser les résultats et ainsi obtenir une meilleure évaluation des propositions.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010954
    Description :

    Au cours de la dernière année, Statistique Canada a conçu et mis à l'essai un nouveau moyen d'évaluer le rendement des intervieweurs qui procèdent aux interviews sur place assistées par ordinateur (IPAO). Un processus officiel existe déjà pour la surveillance des interviews téléphoniques centralisées. Les surveillants écoutent les interviews téléphoniques pendant qu'elles ont lieu pour évaluer l'exécution des tâches par l'intervieweur en fonction de critères préétablis et faire des commentaires à ce dernier pour lui indiquer ce qu'il a bien fait et ce qu'il doit améliorer. Pour les programmes d'IPAO, nous avons élaboré et mettons à l'essai une méthode pilote par laquelle des interviews sont enregistrées de façon numérique puis le surveillant écoute ces enregistrements afin d'évaluer le rendement de l'intervieweur sur le terrain et de lui fournir de la rétroaction qui aidera la qualité des données. Dans le présent article, nous donnons un aperçu du projet de surveillance de l'IPAO à Statistique Canada en décrivant la méthodologie de surveillance de l'IPAO et les plans de mise en oeuvre.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010955
    Description :

    Les gestionnaires d'enquête commencent tout juste à découvrir les nombreuses utilités de l'enregistrement audionumérique pour la surveillance et la gestion du personnel sur le terrain. Jusqu'ici, cette technique a surtout permis de garantir l'authenticité des interviews, de déceler la falsification, de fournir des exemples concrets permettant d'évaluer le rendement sur le terrain puis de renseigner les gestionnaires de la collecte des données sur les interviews menées en personne. Par ailleurs, l'interview enregistrée assistée par ordinateur (IEAO) permet d'améliorer certains aspects de la qualité des données d'enquête en corroborant ou en corrigeant les réponses codées par le personnel travaillant sur le terrain. À l'avenir, l'enregistrement sonore pourrait même remplacer ou suppléer la transcription textuelle des réponses libres, sur le terrain, d'autant plus qu'il promet de gagner en efficacité grâce aux logiciels de traduction de la voix en texte.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010956
    Description :

    L'utilisation de l'interview enregistrée assistée par ordinateur (IEAO) comme outil pour déceler la falsification des interviews est de plus en plus fréquente dans les études par sondage (Biemer, 2000, 2003; Thissen, 2007). De même, les spécialistes de la recherche sur les enquêtes commencent à accroître l'utilité de l'IEAO en combinant les enregistrements sonores au codage pour résoudre les problèmes de qualité des données (Herget, 2001; Hansen, 2005; McGee, 2007). La communication porte sur les résultats d'une étude intégrée dans la National Home and Hospice Care Survey (NHHCS) réalisée auprès des établissements de santé par le National Center for Health Statistics, dans laquelle le codage du comportement fondé sur l'IEAO et des paradonnées particulières à l'IEAO ont été utilisés pour 1) repérer et corriger les problèmes de comportement des intervieweurs ou ceux relatifs aux questions au début de la période de collecte des données, avant qu'ils n'aient un effet négatif sur la qualité des données et 2) trouver des moyens de réduire l'erreur de mesure dans les futures exécutions de la NHHCS. Au cours des neuf premières semaines de la période de travail sur le terrain de 30 semaines, l'IEAO a été utilisée pour enregistrer chez tous les intervieweurs l'administration d'un sous-ensemble de questions de l'application de la NHHCS. Les enregistrements ont été reliés à l'application d'interview et aux données de sortie, puis codés selon l'un de deux modes, à savoir le codage par intervieweur ou le codage par question. La méthode de codage par intervieweur a permis d'examiner les problèmes particuliers à un intervieweur, ainsi que les problèmes plus généraux s'appliquant éventuellement à tous les intervieweurs. La méthode de codage par question a produit des données fournissant des éclaircissements sur l'intelligibilité des questions et d'autres problèmes de réponse. Sous ce mode, les codeurs ont codé plusieurs applications de la même question par plusieurs intervieweurs. Grâce à l'approche du codage par question, les chercheurs ont relevé des problèmes ayant trait à trois questions importantes de l'enquête durant les premières semaines de la collecte des données et ont donné aux intervieweurs des directives quant à la façon de traiter ces questions à mesure que la collecte des données s'est poursuivie. Les résultats du codage des enregistrements sonores (qui étaient reliés à l'application d'enquête et aux données de sortie) fourniront des renseignements qui permettront d'améliorer l'énoncé des questions et la formation des intervieweurs en prévision de la prochaine vague de la NHHCS et orienteront les travaux en vue de poursuivre l'amélioration de l'application d'IEAO et du système de codage.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010968
    Description :

    Statistique Canada a lancé un programme destiné à intensifier et à améliorer l'utilisation de la technologie d'imagerie pour le traitement des questionnaires d'enquête imprimés. Le but est d'en faire une méthode efficace, fiable et économique de saisie des données. L'objectif est de continuer de se servir de la reconnaissance optique de caractères (ROC) pour saisir les données des questionnaires, des documents et des télécopies reçus, tout en améliorant l'intégration du processus et l'assurance de la qualité/le contrôle de la qualité (CQ) du processus de saisie des données. Ces améliorations sont exposées dans le présent article.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010969
    Description :

    Dans le cadre d'un projet auquel ont participé plusieurs divisions du Census Bureau des États-Unis, un système hautement perfectionné et novateur a été mis au point pour faire la saisie, le suivi et le balayage optique des données des répondants. Ce système met en oeuvre la reconnaissance intelligente de caractères (RIC), la reconnaissance optique de caractères (ROC), la reconnaissance optique de marques (ROM) et une technologie de saisie clavier fortement axée sur la détection et le contrôle des erreurs. Appelé integrated Computer Assisted Data Entry (iCADE) System, il fournit des images numériques des questionnaires remplis par les répondants qui sont ensuite traitées par une combinaison d'algorithmes d'imagerie, envoyées à l'application de reconnaissance optique de marques (ROM) qui recueille les données sous forme de cases cochées, recueille automatiquement et envoie uniquement les champs à réponse écrite aux clavistes qui procèdent à la saisie des données. Ces capacités ont accru considérablement l'efficacité du processus de saisie des données et abouti à une approche nouvelle et efficace des activités postérieures à la collecte.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010974
    Description :

    L'article porte sur les lignes directrices pour la conception des questionnaires des enquêtes-établissements. Plus précisément, il traite du processus de transition d'un ensemble de lignes directrices rédigées pour un public général de méthodologistes d'enquête à des lignes directrices s'adressant à un public plus restreint de gestionnaires d'enquête et d'analystes travaillant pour un organisme particulier. Ce processus a été le fruit des efforts d'une équipe constituée de divers employés de la Direction des programmes économiques du Census Bureau qui ont travaillé en étroite collaboration. Partant de lignes directrices générales, l'équipe a déterminé ce qu'il convenait d'ajouter, de modifier ou de supprimer, ainsi que la part d'information théorique et expérimentale relevée dans la littérature qu'il convenait d'inclure. Outre le processus, l'article décrit le résultat final : un ensemble de lignes directrices pour la conception de questionnaires s'adressant spécialement à la Direction des programmes économiques.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010975
    Description :

    Un problème important dans le domaine de la statistique officielle est l'accès à des mesures objectives permettant de prendre des décisions fondées sur des données factuelles. Istat a mis en place un système d'information en vue d'évaluer la qualité des enquêtes. Entre autres indicateurs standard de la qualité, les taux de non-réponse sont calculés et sauvegardés systématiquement pour toutes les enquêtes. Cette riche base d'information permet d'effecteur des analyses au cours du temps et des comparaisons entre enquêtes. Le présent article porte sur l'analyse des interdépendances entre le mode de collecte des données, ainsi que d'autres caractéristiques des enquêtes et la non-réponse totale. Une attention particulière est accordée à la mesure dans laquelle la collecte de données multimode améliore les taux de réponse.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010976
    Description :

    Bon nombre d’organismes statistiques considèrent le taux de réponse comme un indicateur de la qualité des données d’enquête. Ils mettent donc en oeuvre diverses mesures pour réduire la non-réponse ou pour maintenir un niveau de réponse acceptable. Toutefois, le taux de réponse ne constitue pas nécessairement un bon indicateur du biais de non-réponse. Un taux de réponse élevé ne suppose pas un faible biais de non-réponse. Ce qui compte, c’est l’écart entre la composition de la réponse et celle de l’ensemble de l’échantillon. Dans le présent exposé, nous décrivons le concept des indicateurs R pour évaluer les écarts possibles entre l’échantillon et la réponse. Ces indicateurs peuvent faciliter l’analyse de la réponse aux enquêtes au fil du temps, quels que soient les stratégies d’enquête sur le terrain ou les modes de collecte des données. Nous présentons des exemples tirés de la pratique.

    Date de diffusion : 2009-12-03
Références (80)

Références (80) (0 à 10 de 80 résultats)

  • Enquêtes et programmes statistiques — Documentation : 12-606-X
    Description :

    Ceci est une trouse destiné à aider des producteurs et des utilisateurs de données à l'externe de Statistique Canada.

    Date de diffusion : 2017-09-27

  • Enquêtes et programmes statistiques — Documentation : 91F0015M2017013
    Description :

    Au moyen d’un couplage d’enregistrements, le présent article compare le lieu de résidence indiqué dans le Recensement de 2011 à celui du fichier T1 sur la famille (T1FF) de 2010. Il en ressort que si le niveau de correspondance du lieu de résidence est relativement élevé en général, il fléchit, parfois de manière importante, pour certaines franges de la population.

    Date de diffusion : 2017-09-26

  • Enquêtes et programmes statistiques — Documentation : 12-586-X
    Description : Le Cadre d’assurance de la qualité (CAQ) est l’outil de gouvernance de niveau le plus élevé pour la gestion de la qualité à Statistique Canada. Il fournit un aperçu des stratégies de gestion de la qualité et d’atténuation des risques adoptées par les différents secteurs de programme de l’organisme. Le CAQ est utilisé conjointement avec les pratiques de gestion de Statistique Canada, comme celles décrites dans les Lignes directrices concernant la qualité.
    Date de diffusion : 2017-04-21

  • Enquêtes et programmes statistiques — Documentation : 11-522-X201700014707
    Description :

    L’Enquête sur la population active (EPA) est une enquête menée auprès d’environ 56 000 ménages, qui fournit des renseignements sur le marché du travail au Canada. La piste de vérification est une option de programmation Blaise pour les enquêtes comme l’EPA, avec interviews assistées par ordinateur (IAO), qui crée des fichiers comprenant chaque frappe au clavier, des résultats de vérification des données ainsi qu’une indication horaire de chaque tentative de collecte faite auprès de tous les ménages. La combinaison d’une enquête de grande taille et d’une source aussi complète de paradonnées ouvre la porte à une analyse approfondie de la qualité des données, mais entraîne aussi des défis au chapitre des mégadonnées. Comment peut-on extraire des renseignements utiles de ce grand ensemble de frappes au clavier et d’indications horaires? Comment cela peut-il contribuer à évaluer la qualité de la collecte des données de l’EPA? La présentation décrira certains des défis qui se sont posés et les solutions qui ont été utilisées pour les relever, ainsi que les résultats de l’analyse de la qualité des données.

    Date de diffusion : 2016-03-24

  • Enquêtes et programmes statistiques — Documentation : 11-522-X201700014716
    Description :

    Les données administratives, selon leur source et leur objectif original, peuvent être considérées comme plus fiables au chapitre de l’information que les données recueillies dans le cadre d’une enquête. Elles ne nécessitent pas qu’un répondant soit présent et comprenne le libellé des questions, et elles ne sont pas limitées par la capacité du répondant à se rappeler des événements rétrospectivement. La présente communication compare certaines données d’enquête, comme des variables démographiques, tirées de l’Étude longitudinale et internationale des adultes (ELIA), à diverses sources administratives pour lesquelles des ententes de couplage avec l’ELIA sont en place. La correspondance entre les sources de données, et certains des facteurs qui pourraient l’affecter, sont analysés pour divers aspects de l’enquête.

    Date de diffusion : 2016-03-24

  • Enquêtes et programmes statistiques — Documentation : 11-522-X201700014717
    Description :

    Les fichiers comprenant des données couplées du Système d’information sur les étudiants postsecondaires (SIEP) de Statistique Canada et des données fiscales peuvent servir à examiner les trajectoires des étudiants qui poursuivent des études postsecondaires (EPS) et leurs résultats sur le marché du travail par la suite. D’une part, les données administratives sur les étudiants couplées de façon longitudinale peuvent fournir des renseignements agrégés sur les trajectoires des étudiants pendant leurs études postsecondaires, comme les taux de persévérance, les taux de diplomation, la mobilité, etc. D’autre part, les données fiscales peuvent compléter le SIEP et fournir des renseignements sur les résultats au chapitre de l’emploi, comme la rémunération moyenne et médiane ou la progression de la rémunération selon le secteur d’emploi (industrie), le domaine d’études, le niveau de scolarité et/ou d’autres données démographiques, année après année suivant l’obtention du diplôme. Deux études longitudinales pilotes ont été menées au moyen de données administratives sur les étudiants postsecondaires d’établissements des Maritimes, qui ont été couplées de façon longitudinale et avec le fichier de données fiscales de Statistique Canada (le fichier sur la famille T1) pour les années pertinentes. Cet article met d’abord l’accent sur la qualité des renseignements compris dans les données administratives et sur la méthode utilisée pour mener ces études longitudinales et calculer des indicateurs. En deuxième lieu, elle portera sur certaines limites liées à l’utilisation de données administratives, plutôt que de données d’enquête, pour définir certains concepts.

    Date de diffusion : 2016-03-24

  • Enquêtes et programmes statistiques — Documentation : 11-522-X201700014725
    Description :

    Les données fiscales sont de plus en plus exploitées pour la mesure et l’analyse de la population et de ses caractéristiques. Un des enjeux soulevés par l’utilisation croissante de ce type de données concerne la définition du concept du lieu de résidence. Si le recensement se base sur le concept du lieu habituel de résidence, les données fiscales nous renseignent sur l’adresse postale des déclarants. Au moyen d’un couplage d’enregistrements entre le recensement, l’Enquête nationale auprès des ménages et les données fiscales du fichier T1 sur la famille, cette étud

    Date de diffusion : 2016-03-24

  • Enquêtes et programmes statistiques — Documentation : 11-522-X201700014726
    Description :

    La migration interne constitue l’une des composantes de l’accroissement démographique estimées à Statistique Canada. Elle est estimée en comparant l’adresse des individus au début et à la fin d’une période donnée. Les principales données exploitées sont celles de la Prestation fiscale canadienne pour enfants et celles du fichier T1 sur la famille. La qualité des adresses et la couverture de sous-populations plus mobiles jouent un rôle capital dans le calcul d’estimations de bonne qualité. L’objectif de cet article est de présenter les résultats d’évaluations reliées à ces aspects, profitant de l’accès à un plus grand nombre de sources de données fiscales à Statistique Canada.

    Date de diffusion : 2016-03-24

  • Enquêtes et programmes statistiques — Documentation : 12-001-X201200111680
    Description :

    Les données d'enquête peuvent être falsifiées par les intervieweurs, la fabrication de données étant la forme de falsification la plus flagrante. Même un petit nombre d'interviews contrefaites peuvent fausser gravement les résultats d'analyses empiriques subséquentes. Outre l'exécution de réinterviews, certaines approches statistiques ont été proposées pour repérer ce genre de comportement frauduleux. À l'aide d'un petit ensemble de données, le présent article illustre comment la classification automatique, qui n'est ordinairement pas employée dans ce contexte, pourrait être utilisée pour repérer les intervieweurs qui falsifient les tâches qui leur sont assignées. Plusieurs indicateurs sont combinés pour classer les intervieweurs « à risque » en se fondant uniquement sur les données recueillies. Cette classification multivariée semble supérieure à l'utilisation d'un seul indicateur tel que la loi de Benford.

    Date de diffusion : 2012-06-27

  • Enquêtes et programmes statistiques — Documentation : 62F0026M2011001
    Description :

    Dans ce rapport, on présente les indicateurs de qualité produits pour l'Enquête sur les dépenses des ménages de 2009. Ces indicateurs de qualité, tels que les coefficients de variation, les taux de non-réponse, les taux de glissement et les taux d'imputation, permettent aux utilisateurs d'interpréter les données.

    Date de diffusion : 2011-06-16
Date de modification :