Assurance de la qualité

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Géographie

2 facets displayed. 0 facets selected.

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (250)

Tout (250) (180 à 190 de 250 résultats)

  • Enquêtes et programmes statistiques — Documentation : 62F0026M2001002
    Description :

    Ce document présente les indicateurs de qualité produits pour l'enquête sur les dépenses des ménages de 1999. On y trouve les indicateurs de qualité usuels utiles aux utilisateurs pour l'interprétation des données tel que les coefficients de variation, les taux de non-réponse, les taux d'imputation et l'impact des données imputées sur les estimations. On y a également ajouté certains indicateurs moins fréquemment utilisés comme les taux de glissement et des mesures de la représentativité de l'échantillon pour certaines caractéristiques qui permettent d'évaluer la méthodologie de l'enquête.

    Date de diffusion : 2001-10-15

  • Articles et rapports : 11F0019M2001166
    Géographie : Canada
    Description :

    La présente étude est consacrée à une évaluation de deux problèmes que peut poser la déclaration des prestations d'assurance-emploi (a.-e.) et d'aide sociale (a.s.) dans le cadre de l'Enquête sur la dynamique du travail et du revenu (EDTR) : a) la sous-déclaration du nombre mensuel de prestataires et b) une tendance à déclarer incorrectement avoir reçu des prestations toute une année, tandis qu'en fait on peut n'en avoir touché que certains mois, ce qui mène à des pointes artificielles au niveau du nombre de débuts en janvier et de cessations en décembre des périodes de prestations (l'effet de troncature). Les résultats de notre analyse montrent que :

    1) Le taux de sous-déclaration des prestations d'a.-e. dans le cadre de l'EDTR est d'environ 15 %. Même s'il varie suivant le mois (de 0 % à 30 %), ce taux est assez stable d'une année à une autre.

    (2) Il y a des pointes importantes au niveau du nombre de débuts en janvier et de cessations en décembre des périodes de prestations d'a.-e. Les pointes au niveau du nombre de débuts en janvier des périodes de telles prestations semblent cependant représenter un phénomène réel, plutôt qu'un problème de troncature. Elles reflètent étroitement la courbe de répartition de l'établissement des nouvelles périodes de prestations d'a.-e. (dont le nombre augmente considérablement en janvier à la suite de la baisse de l'emploi après le sommet atteint pendant le congé de Noël par la demande de main-d'oeuvre). Il n'y a pas de statistiques correspondantes pour les cessations des périodes d'a.-e. qui permettraient d'évaluer la nature des pointes de décembre.

    (3) Le taux de sous-déclaration des prestations d'a.s. dans le cadre de l'EDTR, énormément supérieur au taux de sous-déclaration des prestations d'a.-e., est d'environ 50 %. Il chute à 20 % à 30 % approximativement, si nous supposons que les gens qui ont reçu des prestations d'a.s., mais qui n'ont pas déclaré durant quels mois ils en ont touché, ont reçu de telles prestations toute l'année.

    (4) Il y a des pointes importantes au niveau du nombre de débuts en janvier et de cessations en décembre des périodes de prestations d'a.s. Comme dans le cas de l'a.-e., ces pointes au niveau de l'a.s. pourraient refléter un phénomène réel. Après tout, les débuts et les cessations des périodes de prestations d'a.s. sont influencés par les conditions du marché du travail de la même façon que le sont les débuts et les cessations des périodes de prestations d'a.-e. Les pointes au niveau de l'a.s. sont cependant beaucoup plus importantes qu'au niveau de l'a.-e., ce qui accroît la probabilité qu'elles soient dues, tout au moins en partie, à un effet de troncature.

    Date de diffusion : 2001-09-11

  • Articles et rapports : 12-001-X20000025534
    Description :

    Les auteurs ont surtout cherché à vérifier la validité des estimations MLCA (analyse markovienne de structure latente) de l'erreur de classification de la population active et à évaluer la possibilité que ce type d'analyse remplace les méthodes traditionnelles d'évaluation de la qualité des données.

    Date de diffusion : 2001-02-28

  • Articles et rapports : 11F0019M2000144
    Géographie : Canada
    Description :

    Dans le présent document, nous réexaminons les tendances au niveau des faibles revenus dans les familles canadiennes avec des enfants en tirant profit des progrès récents au niveau de la mesure de l'intensité des faibles revenus. Nous axons notre attention en particulier sur l'indice de Sen-Shorrocks-Thon (SST) et sur son élaboration par Osberg et Xu. L'intensité des faibles revenus a diminué dans les années 80 mais a augmenté dans les années 90. La diminution des gains a exercé des pressions à la hausse sur les niveaux de faible revenu pendant une grande partie de la période. Les transferts plus élevés ont plus que compensé ces pressions dans les années 80 et ont continué à absorber une part importante de l'augmentation jusqu'en 1993. En comparaison, l'augmentation de l'intensité des faibles revenus après 1993 reflétait les réductions des prestations d'a.-c. et d'aide sociale qui n'ont pas été compensées par une augmentation des gains d'emploi, au moins jusqu'en 1996, la dernière année utilisée dans le présent document.

    L'un des principaux buts du document est méthodologique. Nous comparons des résultats établis à l'aide de l'indice de SST à des résultats produits au moyen du taux de faible revenu, mieux connu, la mesure habituellement utilisée pour l'indexation des tendances au niveau des faibles revenus. Le taux de faible revenu est enchâssé dans l'indice de SST, mais contrairement à cet indice, incorpore uniquement des renseignements partiels sur la distribution des faibles revenus. Par conséquent, le taux de faible revenu est généralement incapable de déceler les changements que nous décrivons, ce qui vaut en plus indépendamment du choix du seuil de faible revenu. Comparativement à la mesure de l'intensité des faibles revenus, le taux est aussi relativement insensible aux changements au niveau des paiements de transfert et des gains d'emploi.

    Date de diffusion : 2000-03-30

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015638
    Description :

    Le symposium de 1999 porte sur les techniques et les méthodes servant à combiner des données de sources différentes et sur l'analyse des ensembles de données qui en résultent. Dans le cadre de la présente communication, nous montrons qu'il est utile d'adopter une telle approche d'intégration pour s'attaquer à un problème statistique complexe. Le problème en soi se décrit facilement - il s'agit de la façon de se rapprocher le plus possible d'un recensement parfait et surtout de la façon d'obtenir des dénombrements de recensement qui soient complets. De façon générale, le sous-dénombrement est évalué dans le cadre d'une enquête post-censitaire (EPC) menée après le recensement. Au Royaume-Uni en 1991, l'EPC n'a pas réussi à cerner entièrement le sous-dénombrement, ce qui fait que l'on a dû se servir de méthodes démographiques pour évaluer l'étendue du sous-dénombrement. Les problèmes que l'approche conventionnelle de l'EPC a posés en 1991 ont donné lieu à un projet de recherche conjoint entre l'Office for National Statistics et le département de la statistique sociale de l'University of Southampton qui visait à élaborer une méthode qui permette de mener un recensement avec résultats finals au Royaume-Uni en 2001. Autrement dit, le sous-dénombrement sera pris en compte non seulement aux niveaux supérieurs de totalisation, mais aussi aux niveaux inférieurs auxquels les tableaux de recensement sont produits. Ainsi, tous les résultats de recensement seront cohérents à l'interne et leurs totalisations seront cohérentes avec les estimations nationales de la population. Cette méthode s'appuie sur l'intégration de renseignements tirés d'un certain nombre de sources de données en vue de constituer le recensement avec résultats finals.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015640
    Description :

    Les auteurs décrivent comment SN se prépare à entrer dans l'ère nouvelle de la production de statistiques déclenchée par les progès technologiques. Le décloisonnement du traitement des données est une caractéristique fondamentale du virage vers cette ère nouvelle. Les auteurs expliquent comment les nouveaux outils techniques et méthodologiques influenceront les processus et leur organisation. Ils insistent tout spécialement sur la cohérence du contenu des statistiques et de leur présentation aux utilisateurs qui est l'un des avantages les plus importants qu'offrent ces nouveaux outils, mais aussi l'un des plus grands défis à relever.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015644
    Description :

    Une des façons d'enrichir les données d'enquête est de les compléter avec des données recueillies directement auprès des répondants et celles tirées de systèmes administratifs. Cette pratique permet notamment de recueillir des données auxquelles on n'aurait pas accès autrement, d'obtenir des données de meilleure qualité à l'égard de certains éléments que les répondants ne peuvent peut-être pas fournir avec précision (ou ne peuvent pas fournir du tout), de réduire le fardeau pour les répondants et de maximiser l'utilité des données comprises dans les systèmes administratifs. Compte tenu de son lien direct avec les données administratives, l'ensemble de données obtenu au moyen de ces techniques peut constituer un excellent outil de travail pour analyser et évaluer certaines politiques. Toutefois, les méthodes utilisées pour regrouper efficacement les données provenant de diverses sources posent un certain nombre de défis que les partis concernées doivent relever. Il s'agit notamment de la protection des renseignements personnels, du couplage des données, de la qualité des données, de l'estimation et de la diffusion.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015648
    Description :

    On estime les paramètres d'un modèle stochastique des carrières au sein de la population active tenant compte de la répartition des périodes corrélées d'emploi, de chômage (avec et sans recherche d'emploi) et de non appartenance à la population active. Aucune source unique de données n'est complètement satisfaisante si l'on veut que le modèle refléte les tendances infra-annuelles de l'emploi, ainsi que la progression vers l'âge de la retraite. Par contre, on peut calculer une approximation d'après plusieurs sources de données distinctes.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015652
    Description :

    Objectif: Recueillir, coupler, évaluer et diffuser des données sur les professions et la mortalité en vue de crééer un système de dépistage des maladies et lésions professionnelles dans le but ultime de réduire ou de prévenir le risque excédentaire chez les travailleurs et les membres de la population en général.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015656
    Description :

    Les études de séries chronologiques montrent qu'il existe une association entre la concentration des polluants atmosphériques, d'une part, et la morbidité et la mortalité, d'autre part. En général, ces études sont réalisées dans une seule ville, en appliquant diverses méthodes. Les critiques concernant ces études ont trait à la validité des ensembles de données utilisés et aux méthodes statistiques qui leur sont appliquées, ainsi qu'au manque de cohérence des résultats des études menées dans des villes différentes et même des nouvelles analyses indépendantes des données d'une ville particulière. Dans le présent article, nous examinons certaines des méthodes statistiques utilisées pour analyser un sous-ensemble de données nationales sur la pollution atmosphérique, la mortalité et les conditions météorologiques recueillies durant la National Morbidity and Mortality Air Pollution Study (NMMAPS).

    Date de diffusion : 2000-03-02
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (171)

Analyses (171) (50 à 60 de 171 résultats)

  • Articles et rapports : 11-522-X200800010985
    Description :

    Au Canada, les entreprises complexes représentent moins de 1 % du nombre total d'entreprises, mais comptent pour plus de 45 % du revenu total. Conscient de la grande importance des données recueillies auprès de ces entreprises, Statistique Canada a adopté plusieurs initiatives afin d'en améliorer la qualité. L'une d'entre elles consiste à évaluer la cohérence des données recueillies auprès des grandes entreprises complexes. Les résultats de ces récentes analyses de la cohérence ont joué un rôle capital dans le repérage des points à améliorer. Une fois réalisées, ces améliorations auraient pour effet d'accroître la qualité des données recueillies auprès des grandes entreprises complexes tout en réduisant le fardeau de réponse qui leur est imposé.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010991
    Description :

    Dans le processus d'évaluation des plans d'enquête prospectifs, les organismes statistiques doivent généralement tenir compte d'un grand nombre de facteurs pouvant avoir une incidence considérable sur le coût de l'enquête et la qualité des données. Or, les compromis entre le coût et la qualité sont souvent compliqués par les limites relatives à la quantité d'information disponible au regard des coûts fixes et des coûts marginaux liés au remaniement des instruments et à leur mise à l'essai sur le terrain, au nombre d'unités d'échantillonnage du premier degré et d'éléments compris dans l'échantillon, à l'affectation de sections d'instrument et aux modes de collecte appropriés pour des éléments d'échantillon précis ainsi qu'au nombre d'interviews et à leur périodicité (dans le cas des enquêtes longitudinales). D'autre part, les concepteurs disposent souvent de renseignements limités sur l'incidence de ces facteurs sur la qualité des données.

    Les auteurs appliquent des méthodes normalisées d'optimisation de la conception pour neutraliser l'incertitude entourant les composantes susmentionnées liées au coût et à la qualité. Une attention particulière est portée au niveau de précision requis des renseignements sur le coût et la qualité pour que ceux-ci soient d'une quelconque utilité dans le processus de conception, à la nature délicate des compromis coût-qualité relativement aux changements dans les hypothèses concernant les formes fonctionnelles ainsi qu'aux répercussions des travaux préliminaires au regard de la collecte de renseignements sur le coût et la qualité. De plus, la communication examine les différences entre le coût et la qualité dans la mise à l'essai sur le terrain et le travail de production, l'intégration des renseignements sur le coût et la qualité sur le plan de la production à l'adaptation de la conception de même que les coûts et les risques opérationnels découlant de la collecte de données détaillées sur le coût et la qualité pendant la phase de production. Les méthodes proposées sont motivées par le travail avec le remaniement cloisonné de l'interview et les composantes liées au journal de la Consumer Expenditure Survey des États-Unis.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800011002
    Description :

    La présente étude s'appuie sur un échantillon représentatif de la population canadienne pour quantifier le biais dû à l'utilisation de données autodéclarées sur la taille, le poids et l'indice de masse corporelle (IMC) au lieu de mesures directes. Nous comparons les associations entre les catégories d'IMC et certains problèmes de santé afin de déterminer si les erreurs de classification résultant de l'utilisation de données autodéclarées modifient les associations entre l'obésité et les problèmes de santé. L'analyse est fondée sur 4 567 répondants à l'Enquête sur la santé dans les collectivités canadiennes (ESCC) de 2005 qui, durant une interview sur place, ont déclaré leur taille et leur poids, puis ont été mesurés et pesés par un intervieweur ayant reçu une formation appropriée. En se basant sur les données autodéclarées, une proportion importante de personnes ayant un excès de poids ont été classées incorrectement dans des catégories d'IMC plus faible. Ces erreurs de classification se sont soldées par des associations plus fortes entre l'excès de poids ou l'obésité et la morbidité.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800011007
    Description :

    Le Centre de ressources en conception de questionnaires (CRCQ) est le point de convergence du savoir-faire de Statistique Canada en matière de conception et d'évaluation de questionnaires. À l'heure actuelle, les interviews cognitives en vue de mettre le questionnaire à l'essai ont le plus souvent lieu vers la fin du processus d'élaboration de ce dernier. S'il intervenait plus tôt dans ce processus, le CRCQ pourrait tester de nouveaux sujets d'enquête en utilisant des méthodes cognitives mieux adaptées à chaque étape de l'élaboration du questionnaire. Le nombre de participants à chaque phase de mise à l'essai serait moins élevé, ce qui réduirait le coût et les difficultés de recrutement.

    Fondé sur une revue de la littérature et sur les projets d'évaluation des questionnaires existants de Statistique Canada, le présent article décrit comment le CRCQ pourrait aider ses clients à apporter en temps voulu les modifications appropriées à leurs questionnaires.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800011014
    Description :

    Dans de nombreux pays, l'amélioration des statistiques économiques est au nombre des grandes priorités du 21e siècle. L'accent est mis, d'abord et avant tout, sur la qualité des comptes nationaux, tant annuels que trimestriels. À cet égard, la qualité des données sur les entreprises les plus grandes joue un rôle essentiel. L'analyse de cohérence est un outil fort utile pour s'assurer que les données fournies par ces entreprises sont de bonne qualité. Par cohérence, nous entendons que les données provenant de diverses sources concordent et brossent un tableau logique du développement de ces entreprises. Une analyse de cohérence efficace est généralement une tâche ardue qui consiste principalement à recueillir des données de différentes sources afin de les comparer de façon structurée. Au cours des deux dernières années, de grands progrès ont été accomplis à Statistics Sweden en ce qui concerne l'amélioration des routines servant à l'analyse de cohérence. Nous avons construit un outil TI qui recueille les données sur les plus grandes entreprises auprès d'un grand nombre de sources et les présente de manière structurée et logique, et nous avons élaboré une approche systématique d'analyse trimestrielle des données destinée aux comptes nationaux. Le présent article décrit les travaux effectués dans ces deux domaines et donne un aperçu de l'outil TI et des routines retenues.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 12-001-X200900110887
    Description :

    De nombreux organismes statistiques considèrent le taux de réponse comme étant l'indicateur de la qualité à utiliser en ce qui concerne l'effet du biais de non réponse. Ils prennent donc diverses mesures en vue de réduire la non réponse ou de maintenir la réponse à un niveau jugé acceptable. Cependant, à lui seul, le taux de réponse n'est pas un bon indicateur du biais de non réponse. En général, un taux de réponse élevé n'implique pas que le biais dû à la non réponse est faible. On trouve à cet égard de nombreux exemples dans la littérature (par exemple, Groves et Peytcheva 2006 ; Keeter, Miller, Kohut, Groves et Presser 2000 ; Schouten 2004).

    Nous introduisons un certain nombre de concepts et un nouvel indicateur en vue d'évaluer la similarité entre la réponse à une enquête et l'échantillon de cette enquête. Cet indicateur de la qualité, que nous appelons indicateur R, peut servir de complément aux taux de réponse et est destiné principalement à évaluer le biais de non réponse. Il peut faciliter l'analyse de la réponse aux enquêtes en fonction du temps, ou pour diverses stratégies d'enquête sur le terrain ou divers modes de collecte des données. Nous appliquons l'indicateur R à deux exemples pratiques.

    Date de diffusion : 2009-06-22

  • Articles et rapports : 82-003-X200800410703
    Géographie : Canada
    Description :

    Les données recueillies auprès de 16 190 participants à l'Enquête sur la santé dans les collectivités canadiennes - Nutrition réalisé en 2004 ont été utilisées pour estimer la sous déclaration de l'apport alimentaire de la population de 12 ans et plus des 10 provinces.

    Date de diffusion : 2008-10-15

  • Articles et rapports : 82-003-X200800310680
    Géographie : Canada
    Description :

    La présente étude examine la faisabilité de définir des facteurs pour corriger les mesures autodéclarées de l'indice de masse corporelle de façon qu'elles se rapprochent davantage des valeurs mesurées. Les données proviennent de l'Enquête sur la santé dans les collectivités canadiennes de 2005, où les répondants ont été priés de déclarer leur taille et leur poids et ont par la suite été mesurés.

    Date de diffusion : 2008-09-17

  • Articles et rapports : 82-622-X2008001
    Géographie : Canada
    Description :

    La présente étude a pour but d'examiner la validité factorielle de certains modules de l'Enquête canadienne sur l'expérience des soins de santé primaires (ECESSP), afin de savoir s'il est possible de combiner les items de chaque module en indices sommaires représentant des concepts globaux de soins de santé primaires. Les modules examinés sont ceux de l'évaluation des soins pour maladies chroniques par les patients (ESMCP; en anglais, Patient Assessment of Chronic Illness Care ou PACIC), de l'activation des patients (AP), de la gestion de ses propres soins de santé (GPSS) et de la confiance dans le système de soins de santé (CSSS). Des analyses factorielles confirmatoires ont été réalisées sur chaque module afin de déterminer dans quelle mesure de multiples items observés reflètent l'existence de facteurs latents communs. Un modèle à quatre facteurs a été spécifié au départ pour l'échelle ESMCP en s'inspirant d'une théorie a priori et de travaux de recherche, mais son ajustement aux données n'était pas bon. Un modèle révisé à deux facteurs est celui qui s'est avéré le plus approprié. Ces deux facteurs ont été nommés « Soin global de la personne » et « Coordination des soins ». Les autres modules étudiés ici (c. à d. AP, GPSS et CSSS étaient tous bien représentés par des modèles à un seul facteur. Les résultats donnent à penser que la structure factorielle originale du module ESMCP établie dans le cadre d'études portant sur des échantillons cliniques n'est pas applicable aux populations générales, quoique les raisons précises de cette situation ne soient pas claires. D'autres études empiriques seront nécessaires pour jeter de la lumière sur cette divergence. Les deux facteurs cernés ici pour le module ESMCP, ainsi que les facteurs uniques produits pour les modules AP, GPSS et CSSS pourraient servir de fondement à des indices sommaires destinés à être utilisés dans de futures analyses des données de l'ECESSP.

    Date de diffusion : 2008-07-08

  • Articles et rapports : 11-522-X200600110397
    Description :

    En pratique, il arrive souvent que certaines données recueillies comportent une erreur de mesure. Parfois, des covariables (ou facteurs de risque) d'intérêt sont difficiles à observer avec précision en raison de l'emplacement physique ou du coût. D'autres fois, il est impossible de mesurer précisément les covariables à cause de leur nature. Dans d'autres situations, une covariable peut représenter la moyenne d'une certaine grandeur mesurable au cours du temps, et tout moyen pratique de mesurer cette grandeur comporte nécessairement une erreur de mesure. Lorsqu'on procède à des inférences statistiques dans de telles conditions, il est important de tenir compte des effets des covariables mesurées incorrectement; sinon, les résultats risques d'être incorrects, voire même trompeurs. Dans le présent article, nous discutons de plusieurs exemples d'erreur de mesure survenant dans des contextes distincts. Nous accordons une attention particulière aux données sur la survie en présence de covariables sujettes à une erreur de mesure. Nous discutons d'une méthode de simulation extrapolation pour la correction des effets de l'erreur de mesure. Enfin, nous présentons une étude par simulation.

    Date de diffusion : 2008-03-17
Références (78)

Références (78) (40 à 50 de 78 résultats)

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015658
    Description :

    Le radon, qui est un gaz dont la présence est observée naturellement dans la plupart des maisons, est un facteur de risque confirmé pour le cancer du poumon chez les humains. Le National Research Council des États-Unis (1999) vient de terminer une évaluation approfondie du risque pour la santé de l'exposition résidentielle au radon, tout en élaborant des modèles de projection du risque de cancer pulmonaire dû au radon pour l'ensemble de la population. Cette analyse indique que le radon joue possiblement un rôle dans l'étiologie de 10-15 % des cas de cancer du poumon aux États-Unis, bien que ces estimations comportent une part appréciable d'incertitude. Les auteurs présentent une analyse partielle de l'incertidude et de la variabilité des estimations du risque de cancer pulmonaire dû à l'exposition résidentielle au radon, aux États-Unis, à l'aide d'un cadre général d'analyse de l'incertitude et de la variabilité établi antérieurement par ces mêmes auteurs. Plus particulièrement, il est question des estimations de l'excès de risque relatif (EFF) par âge et du risque relatif à vie (RRV), qui varient tous deux considérablement d'une personne à l'autre.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015660
    Description :

    Les situations qui nécessitent le couplage des enregistrements d'un ou de plusieurs fichiers sont très diverses. Dans le cas d'un seul fichier, le but du couplage est de repérer les enregistrements en double. Dans le cas de deux fichiers, il consiste à déceler les unités qui sont les mêmes dans les deux fichiers et donc de créer des paires d'enregistrements correspondants. Souvent, les enregistrements qu'il faut coupler ne contiennent aucun identificateur unique. Le couplage hiérarchique des enregistrements, le couplage probabiliste des enregistrements et l'appariement statistique sont trois méthodes applicables dans ces conditions. Nous décrivons les principales différences entre ces méthodes. Puis, nous discutons du choix des variables d'appariement, de la préparation des fichiers en prévision du couplage et de la façon dont les paires sont reconnues. Nous donnons aussi quelques conseils et quelques trucs utilisés pour coupler des fichiers. Enfin, nous présentons deux exemples : le couplage probabiliste d'enregistrements réalisé dans le cadre de la contre-vérification des données du recensement et le couplage hiérarchique des enregistrements du fichier maître des numéros d'entreprise (NE) à ceux du fichier de l'univers statistique (FUS) d'unités déclarantes non constituées en société (T1).

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015664
    Description :

    La litterature sur la statistique comprend de nombreuses études portant sur les méthodes déterministes, on trouve peu d'information sur ces méthodes. En outre, il semble qu'il n'existe pas d'études qui comparent les résultats obtenus avec les deux méthodes. Or, une telle comparaison serait utile lorsque les seuls indicateurs communs dont on dispose, et à partir desquels les bases de données doivent être couplées, sont des indicateurs indistincts, comme le nom, le sexe et la race. La présente étude compare une méthode de couplage déterministe par étapes avec la méthode probabiliste mise en oeuvre dans AUTOMATCH pour de telles situations. La comparaison porte sur un couplage de données médicales des centres régionaux de soins périnataux intensifs et de données relatives à l'éducation du ministère de l'Éducation de la Floride. Les numéros d'assurance sociale qui figurent dans les deux bases de données ont servi à valider les paires d'enregistrements après le couplage. On compare les taux de correspondance et les taux d'erreur obtenus avec les deux méthodes et on présente une discussion sur les similitudes et les différences entre les méthodes, ainsi que sur les points forts et les points faibles de chacune.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015666
    Description :

    L'échantillon de fusion obtenu par un procédé d'appariement statistique peut être considéré comme un échantillon tiré d'une population artificielle. Nous dérivons la distribution de cette population artificielle. Si la corrélation entre des variables spécifiques est le seul point d'intérêt, l'importance de l'indépendance conditionnelle peut être réduite. Dans une étude de simulation, nous examinons les effets de la non-confirmation de certaines hypothèses formulées pour obtenir la distribution de la population artificielle. Enfin, nous présentons des idées au sujet de l'établissement de la supposée indépendance conditionnelle par l'analyse de classes latentes.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015668
    Description :

    À la suite des problèmes d'estimation du sous-dénombrement qu'a posé le Recensement de l'Angleterre et du Pays de Galles de 1991, on s'est fixé comme objectif pour le Recensement de 2001 de créer une base de données entièrement corrigée pour tenir compte du sous-dénombrement net. Dans la présente communication, on examine l'application d'une méthode d'imputation pondérée par donneur qui se fonde sur des renseignements provenant tant du recensement que de l'Enquête sur la couverture du recensement (ECR). Le US Census Bureau envisage une approche similaire pour le Recensement des États-Unis de l'an 2000 (voir Isaki et coll. 1998). La méthode proposée fait la distinction entre les personnes qui ne sont pas dénombrées lors du recensement parce qu'on a manqué leur ménage et celles qui ne sont pas dénombrées dans les ménages qui ont été recensés. Les données de recensement sont couplées aux données de l'ECR. On utilise la régression logistique multinominale pour estimer la probabilité que des ménages soient omis dans le recensement, ainsi que la probabilité que des personnes ne soient pas dénombrées au sein de ménages recensés. On calcule des poids de couverture pour les ménages et pour les personnes d'après les probabilités estimatives, puis on les inègre à la méthode d'imputation par donneur.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015670
    Description :

    Pour atteindre efficacement leur public cible, les publicistes et les planificateurs des médias ont besoin de savoir quel pourcentage de consommateurs de Coke diète regardent Alerte à Malibu, ou combien de clients d'AT&T ont vu une annonce de Sprint au cours de la dernière semaine. Toutes les données pertinentes pourraient en théorie être recueillies auprès de chacun des répondants. Toutefois, la collecte de données précises et détaillées serait très coûteuse. Elle imposerait en outre un fardeau important aux répondants, compte tenu de la technique de collecte utilisée actuellement. Pour le moment, ces donées sont recueillies dans le cadre d'enquêtes distinctes, en Nouvelle-Zélande et dans nombre d'autres pays. Le niveau d'exposition aux principaux médias est mesuré de façon continue, et les études sur l'utilisation des produits sont répandues. Des techniques d'appariement statistique fournissent une façon de combiner ces sources d'information distinctes. La base de données des cotes d'écoute de la télévision en Nouvelle-Zélande a été combinée à une enquête multi-intérêts portant sur le profit des lecteurs d'imprimés et la consommation de produits, grâce à l'appariement statistique. Le service Panorama qui en résulte répond aux besoins d'information des publicistes et des planificateurs des médias. L'expérience a été reprise depuis en Australie. Le présent document porte sur l'élaboration du cadre d'appariement statistique qui a servi à la combinaison de ces bases de données, ainsi que sur les connaissances heuristiques et les techniques qui ont été utilisées. Celles-ci comprenaient notamment une expérience effectuée au moyen d'un plan de contrôle visant à déterminer les variables d'appariement importantes. Le présent document comprend en outre un résumé des études ayant servi à l'évaluation et à la validation des résultats combinés. Trois critères principaux d'évaluation ont été utilisés, à savoir : la précision des résultats combinés, la stabilité de ces résultats et la préservation des résultats des bases de données originales. On aborde aussi la façon dont les conditions préalables à la combinaison de ces bases de données ont été respectées. Les différences entre les techniques d'analyse utilisées dans les deux bases de données d'origine ont constitué l'obstacle le plus important à cette étape. Enfin, des suggestions pour le de'veloppement de systèmes d'appariement statistique similaires ailleurs sont fournis.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015672
    Description :

    La fusion des données qui est examinée ici consiste à créer un ensemble de données provenant de sources différentes sur des variables que l'on n'observe pas conjointement. Supposons par exemple que l'on dispose d'observations pour (X,Z) sur un ensemble de personnes et pour (Y,Z) sur un autre ensemble de personnes. Chacune des variables X, Y et Z peut être vectorielle. L'objectif principal consiste à obtenir des précisions sur la distribution conjointe de (X,Y) en se servant de Z comme ce que l'on conviendra d'appeler variable d'appariement. Toutefois, on s'efforce d'abord d'extraire des ensembles de données distincts autant de renseignements que possible sur la distribution conjointe de (X,Y,Z). On ne peut procéder à ce genre de fusion que moyennant la précision de certaines propriétés distributionnelles pour les données fusionnées, à savoir l'hypothèse d'indépendance conditionnelle étant donné les variables d'appariement. Classiquement, l'examen des variables fusionnées consiste à déterminer dans quelle mesure cette hypothèse sous-jacente est appropriée. Ici, nous examinons le problème sous un angle différent. La question que nous nous posons est celle de savoir comment il est possible d'estimer des distributions dans des situations où l'on ne dispose que d'observations provenant de certaines distributions marginales. Nous pouvons la résoudre en appliquant le critère d'entropie maximale. Nous montrons notamment qu'il est possible d'interpréter les données créés par fusion de données de sources différentes comme un cas spécial de cette situation. Par conséquent, nous dérivons l'hypothèse nécessaire d'indépendance conditionnelle en tant que conséquence du type de données disponibles.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015674
    Description :

    L'influence de l'environnement sur la santé est un sujet de préoccupation croissante, plus particulièrement les effets de l'émission de polluants industriels dans l'atmosphère, le sol et l'eau. L'évaluation des risques que comporte une source de pollution donnée pour la santé publique est souvent effectuée à l'aide de données démographiques, environementales et relatives à la santé qui sont recueillies couramment par des organismes gouvernementaux. Ces ensembles de données présentent des différences d'échantillonnage notables sur les plans géographique et temporel; ces différences se répercutent sur les analyses épidémiologiques qui utilisent conjointement de tels ensembles. Au Royaumi-Uni, les problèmes de santé sont enregistrés individuellement pour chaque personne. Sont également indiqués le code de cause de maladie, la date du diagnostic ou du décès, et en utilisant le code postal de l'unité comme référence géographique. Par contre, les données démographiques relatives aux petites régions sont enregistrées uniquement lors du recensement décennal et sont diffusés comme données de niveau régional dans des zones qui ne correspondent pas à celles des codes postaux. Des données relatives à l'exposition ambiante sont pourtant disponibles à un autre niveau, selon le type d'exposition et la source des mesures.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015678
    Description :

    Un modèle d'affectation des ressources en matière de soins de santé selon les besoins de la population a été conçu et mis en application, l'âge, le sexe et l'état de santé des habitants ayant été utilisés pour évaluer les besoins de la population ontarienne en matière de soins de santé. Pour élaborer ce modèle, on a combiné les données provinciales sur l'autoévaluation de la santé et de l'utilisation des services de santé, selon l'âge et le sexe, obtenues auprès de 62 413 répondants de l'Enquête sur la santé en Ontario (ESO) de 1990 et les données sur les dépenses provinciales en soins de santé pour l'exercice 1995-1996, selon l'âge et le sexe. Ce modèle ne comprenait que les services visés par l'ESO (omnipraticiens, médecins spécialistes, optométrie, physiothérapie, chiropractie et soins de courte durée). La répartition de l'utilisation et des dépenses entre les diverses catégories d'âge, de sexe et d'état de santé a été utilisée pour établir les proportions appropriées de ressources en matière de soins de santé pour chaque combinaison âge-sexe-état de santé. Ces proportions ont par la suite été appliquées aux populations des régions géographiques, à partir des données sur l'âge, le sexe et l'état de santé provenant de l'ESO, ainsi que des estimations plus récentes de la population, afin de déterminer les affectations pour chaque région. Le total de ces affectations en dollars devait correspondre au montant du budget provincial de 1995-1996. Les affectations ainsi calculées ont été comparées à celles de 1995-1996 pour déterminer dans quelle mesure elles étaient effectivement compatibles avec les besoins relatifs de la population des régions de l'Ontario.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015680
    Description :

    La combinaison de bases de données par des méthodes de couplage d'enregistrements en vue d'augmenter la quantité d'information disponible est un phénomène de plus en plus fréquent. Si l'on ne peut se fonder sur aucun identificateur unique pour procéder à l'appariement des enregistrements, on recourt au couplage probabiliste. On apparie un enregistrement du premier fichier à un enregistrement du deuxième avec une certaine probabilité et on décide ensuite si cette paire d'enregistrements représente ou non un appariement vrai. Habituellement, ce processus nécessite une certaine intervention manuelle qui demande du temps et des ressources humaines. En outre, il aboutit souvent à un couplage complexe. Autrement dit, au lieu d'être systématiquement biunivoque (un à un), le couplage entre les deux bases de données peut être multi-univoque (plusieurs à un), co-univoque (un à plusieurs) ou multivoque (plusieurs à plusieurs).

    Date de diffusion : 2000-03-02
Date de modification :