Assurance de la qualité

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Géographie

2 facets displayed. 0 facets selected.

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (250)

Tout (250) (0 à 10 de 250 résultats)

  • Revues et périodiques : 75F0002M
    Description : Cette série comprend de la documentation détaillée sur revenu, notamment les problèmes de conception, l'évaluation qualitative des données et les recherches préliminaires.
    Date de diffusion : 2024-02-22

  • Enquêtes et programmes statistiques — Documentation : 32-26-0007
    Description : Les données du Recensement de l’agriculture fournissent des renseignements statistiques sur les exploitations et les exploitants agricoles à des niveaux géographiques fins et pour de petites sous–populations. Des activités d’évaluation de la qualité sont essentielles pour s’assurer que les données du recensement sont fiables et qu’elles répondent aux besoins des utilisateurs.

    Ce rapport fournit des renseignements sur la qualité des données relatives au Recensement de l’agriculture, comme les sources d’erreur, la détection des erreurs, les méthodes de contrôle de la divulgation, les indicateurs de la qualité des données, les taux de réponse et les taux de collecte.
    Date de diffusion : 2024-02-06

  • Articles et rapports : 13-604-M2024001
    Description : Cette documentation donne un aperçu de la méthodologie utilisée pour élaborer les comptes économiques répartis pour le secteur des ménages publiés en janvier 2024 pour les années de références de 2010 à 2023. Elle présente le cadre et les étapes de la production de renseignements sur les répartitions qui sont conformes aux Comptes du Bilan National et à d'autres concepts liés aux comptes nationaux. Elle inclut également un rapport sur la qualité des répartitions estimées.
    Date de diffusion : 2024-01-22

  • Articles et rapports : 13-604-M2023001
    Description : Cette documentation donne un aperçu de la méthodologie utilisée pour élaborer les comptes économiques répartis pour le secteur des ménages publiés en mars 2023 pour les années de références de 2010 à 2022. Elle présente le cadre et les étapes de la production de renseignements sur les répartitions qui sont conformes aux Comptes du Bilan National et à d'autres concepts liés aux comptes nationaux. Elle inclut également un rapport sur la qualité des répartitions estimées.
    Date de diffusion : 2023-03-31

  • Articles et rapports : 13-604-M2022002
    Description :

    Cette documentation donne un aperçu de la méthodologie utilisée pour élaborer les comptes économiques répartis pour le secteur des ménages publiés en août 2022 pour les années de références de 2010 à 2021. Elle présente le cadre et les étapes de la production de renseignements sur les répartitions qui sont conformes aux Comptes du Bilan National et à d'autres concepts liés aux comptes nationaux. Elle inclut également un rapport sur la qualité des répartitions estimées.

    Date de diffusion : 2022-08-03

  • 19-22-0009
    Description :

    Joignez-vous à nous pour assister à une présentation du Secrétariat de la qualité de Statistique Canada sur l’importance de la qualité des données. Nous vivons une époque formidable pour les données : les sources sont plus abondantes, elles sont générées de manière innovante et elles sont accessibles plus rapidement que jamais. Cependant, une source de données est non seulement sans valeur si elle ne répond pas aux normes de qualité de base, mais elle peut également être trompeuse, ce qui est pire que de ne pas avoir de données du tout! Le Secrétariat de la qualité de Statistique Canada a pour mandat de promouvoir les bonnes pratiques en matière de qualité au sein de l’organisme, dans l’ensemble du gouvernement du Canada et à l’échelle internationale. La qualité n’existe vraiment que lorsqu’elle est incorporée dans chaque processus (de la conception à l’analyse) et dans le produit lui-même, que ce produit soit un fichier de microdonnées ou des estimations dérivées de celui-ci. Nous aborderons les raisons pour lesquelles la qualité des données est importante et la façon dont on peut l’évaluer en pratique. Nous parlerons de quelques concepts de base de la qualité des données (assurance qualité par rapport au contrôle, métadonnées, etc.), et présenterons la qualité des données comme un concept multidimensionnel. Enfin, nous évaluerons ensemble une source de données. Tous sont les bienvenus, peu importe leurs connaissances en matière de qualité des données. Après tout, tout le monde a un rôle à jouer dans la qualité!

    https://www.statcan.gc.ca/fr/services/webinaires/19220009

    Date de diffusion : 2022-01-26

  • Articles et rapports : 11-522-X202100100015
    Description : Les agences nationales de statistique telles que Statistique Canada se doivent de communiquer la qualité de l’information statistique aux utilisateurs. Les méthodes traditionnellement utilisées pour le faire sont fondées sur des mesures de l’erreur d’échantillonnage. Elles ne sont donc pas adaptées aux estimations produites à partir des données administratives pour lesquelles les sources d’erreur principales sont non dues à l’échantillonnage. Une approche plus adaptée à ce contexte pour rapporter la qualité des estimations présentées dans un tableau multidimensionnel est décrite dans cet article. Des indicateurs de qualité ont été dérivés pour diverses étapes de traitement post-acquisition, comme le couplage, le géocodage et l’imputation, par domaine d’estimation. Un algorithme de partitionnement a ensuite servi à regrouper les domaines présentant des niveaux de qualité similaires pour une estimation donnée. Des cotes visant à informer les utilisateurs sur la qualité relative des estimations d’un domaine à l’autre ont été attribuées aux groupes ainsi formés. Cet indicateur, nommé l’indicateur composite de la qualité (ICQ), a été développé et appliqué de façon expérimentale dans le cadre du Programme de la statistique du logement canadien (PSLC) qui a comme objectif la production de statistiques officielles sur le secteur du logement résidentiel au Canada par l’intégration de multiples sources de données administratives.

    Mots Clés : Apprentissage automatique non supervisé, assurance de la qualité, données administratives, intégration des données, partitionnement.

    Date de diffusion : 2021-10-22

  • Articles et rapports : 11-522-X202100100023
    Description :

    Notre société devient de plus en plus numérique et offre de multiples possibilités de maximiser notre utilisation des données dans l’intérêt du public, par un éventail de sources, de types de données et de technologies pour nous permettre de mieux informer le public sur les questions sociales et économiques et de contribuer à l’élaboration et à l’évaluation efficaces des politiques gouvernementales. Un facteur important pour concrétiser le potentiel d’utilisation des données aux fins de recherche et de statistiques d’intérêt public est la garantie de l’utilisation des données de manière éthiquement appropriée. Au début de l’année, la United Kingdom Statistics Authority a lancé le Centre for Applied Data Ethics afin de fournir des services, des conseils, des formations et des orientations concernant l’éthique des données à la communauté des analystes du Royaume-Uni. Le Centre a développé un cadre et un portefeuille de services pour donner les moyens aux analystes de tenir compte de l’éthique de leur recherche rapidement et facilement, dès la phase de conception de la recherche, promouvant ainsi une culture de l’éthique dès la conception. Le présent article donne un aperçu de ce cadre, des services de soutien aux utilisateurs qui l’accompagnent et de l’incidence de ce travail.

    Mots clés : éthique des données; données; recherche et statistiques

    Date de diffusion : 2021-10-22

  • Articles et rapports : 13-604-M2021001
    Description :

    Cette documentation donne un aperçu de la méthodologie utilisée pour élaborer les comptes économiques répartis pour le secteur des ménages publiés en septembre 2021 pour les années de références de 2010 à 2020. Elle présente le cadre et les étapes de la production de renseignements sur les répartitions qui sont conformes aux Comptes du Bilan National et à d'autres concepts liés aux comptes nationaux. Elle inclut également un rapport sur la qualité des répartitions estimées.

    Date de diffusion : 2021-09-07

  • Stats en bref : 89-20-00062020001
    Description :

    Dans cette vidéo, on vous présentera les fondements de la qualité des données, qui peuvent se résumer en six dimensions, ou six façons différentes de penser à la qualité. Vous apprendrez également comment chaque dimension peut être utilisée pour évaluer la qualité des données.

    Date de diffusion : 2020-09-23
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (171)

Analyses (171) (40 à 50 de 171 résultats)

  • Articles et rapports : 82-003-X201000111066
    Géographie : Canada
    Description :

    Le présent article porte sur quatre procédures essentielles de contrôle de la qualité et de réduction des données qui doivent être appliquées avant que des données sur l'activité physique soient calculées à partir des données d'accélérométrie.

    Date de diffusion : 2010-01-13

  • Articles et rapports : 11-522-X200800010950
    Description :

    Le prochain recensement aura lieu en mai 2011. Cette enquête d'envergure représente un défi particulier pour Statistique Canada et demande beaucoup de temps et de ressources. Une planification serrée a été mise en place afin d'atteindre tous les échéanciers. Plusieurs étapes de mise à l'essai du questionnaire ont été prévues. Ces tests portent sur le contenu du recensement mais abordent aussi la stratégie de communication prévue. Cet article a pour but de présenter un portrait global de la stratégie. De plus, l'emphase sera mise sur l'intégration des études qualitatives à l'étude quantitative faites en 2008 afin de pouvoir analyser les résultats et ainsi obtenir une meilleure évaluation des propositions.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010954
    Description :

    Au cours de la dernière année, Statistique Canada a conçu et mis à l'essai un nouveau moyen d'évaluer le rendement des intervieweurs qui procèdent aux interviews sur place assistées par ordinateur (IPAO). Un processus officiel existe déjà pour la surveillance des interviews téléphoniques centralisées. Les surveillants écoutent les interviews téléphoniques pendant qu'elles ont lieu pour évaluer l'exécution des tâches par l'intervieweur en fonction de critères préétablis et faire des commentaires à ce dernier pour lui indiquer ce qu'il a bien fait et ce qu'il doit améliorer. Pour les programmes d'IPAO, nous avons élaboré et mettons à l'essai une méthode pilote par laquelle des interviews sont enregistrées de façon numérique puis le surveillant écoute ces enregistrements afin d'évaluer le rendement de l'intervieweur sur le terrain et de lui fournir de la rétroaction qui aidera la qualité des données. Dans le présent article, nous donnons un aperçu du projet de surveillance de l'IPAO à Statistique Canada en décrivant la méthodologie de surveillance de l'IPAO et les plans de mise en oeuvre.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010955
    Description :

    Les gestionnaires d'enquête commencent tout juste à découvrir les nombreuses utilités de l'enregistrement audionumérique pour la surveillance et la gestion du personnel sur le terrain. Jusqu'ici, cette technique a surtout permis de garantir l'authenticité des interviews, de déceler la falsification, de fournir des exemples concrets permettant d'évaluer le rendement sur le terrain puis de renseigner les gestionnaires de la collecte des données sur les interviews menées en personne. Par ailleurs, l'interview enregistrée assistée par ordinateur (IEAO) permet d'améliorer certains aspects de la qualité des données d'enquête en corroborant ou en corrigeant les réponses codées par le personnel travaillant sur le terrain. À l'avenir, l'enregistrement sonore pourrait même remplacer ou suppléer la transcription textuelle des réponses libres, sur le terrain, d'autant plus qu'il promet de gagner en efficacité grâce aux logiciels de traduction de la voix en texte.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010956
    Description :

    L'utilisation de l'interview enregistrée assistée par ordinateur (IEAO) comme outil pour déceler la falsification des interviews est de plus en plus fréquente dans les études par sondage (Biemer, 2000, 2003; Thissen, 2007). De même, les spécialistes de la recherche sur les enquêtes commencent à accroître l'utilité de l'IEAO en combinant les enregistrements sonores au codage pour résoudre les problèmes de qualité des données (Herget, 2001; Hansen, 2005; McGee, 2007). La communication porte sur les résultats d'une étude intégrée dans la National Home and Hospice Care Survey (NHHCS) réalisée auprès des établissements de santé par le National Center for Health Statistics, dans laquelle le codage du comportement fondé sur l'IEAO et des paradonnées particulières à l'IEAO ont été utilisés pour 1) repérer et corriger les problèmes de comportement des intervieweurs ou ceux relatifs aux questions au début de la période de collecte des données, avant qu'ils n'aient un effet négatif sur la qualité des données et 2) trouver des moyens de réduire l'erreur de mesure dans les futures exécutions de la NHHCS. Au cours des neuf premières semaines de la période de travail sur le terrain de 30 semaines, l'IEAO a été utilisée pour enregistrer chez tous les intervieweurs l'administration d'un sous-ensemble de questions de l'application de la NHHCS. Les enregistrements ont été reliés à l'application d'interview et aux données de sortie, puis codés selon l'un de deux modes, à savoir le codage par intervieweur ou le codage par question. La méthode de codage par intervieweur a permis d'examiner les problèmes particuliers à un intervieweur, ainsi que les problèmes plus généraux s'appliquant éventuellement à tous les intervieweurs. La méthode de codage par question a produit des données fournissant des éclaircissements sur l'intelligibilité des questions et d'autres problèmes de réponse. Sous ce mode, les codeurs ont codé plusieurs applications de la même question par plusieurs intervieweurs. Grâce à l'approche du codage par question, les chercheurs ont relevé des problèmes ayant trait à trois questions importantes de l'enquête durant les premières semaines de la collecte des données et ont donné aux intervieweurs des directives quant à la façon de traiter ces questions à mesure que la collecte des données s'est poursuivie. Les résultats du codage des enregistrements sonores (qui étaient reliés à l'application d'enquête et aux données de sortie) fourniront des renseignements qui permettront d'améliorer l'énoncé des questions et la formation des intervieweurs en prévision de la prochaine vague de la NHHCS et orienteront les travaux en vue de poursuivre l'amélioration de l'application d'IEAO et du système de codage.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010968
    Description :

    Statistique Canada a lancé un programme destiné à intensifier et à améliorer l'utilisation de la technologie d'imagerie pour le traitement des questionnaires d'enquête imprimés. Le but est d'en faire une méthode efficace, fiable et économique de saisie des données. L'objectif est de continuer de se servir de la reconnaissance optique de caractères (ROC) pour saisir les données des questionnaires, des documents et des télécopies reçus, tout en améliorant l'intégration du processus et l'assurance de la qualité/le contrôle de la qualité (CQ) du processus de saisie des données. Ces améliorations sont exposées dans le présent article.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010969
    Description :

    Dans le cadre d'un projet auquel ont participé plusieurs divisions du Census Bureau des États-Unis, un système hautement perfectionné et novateur a été mis au point pour faire la saisie, le suivi et le balayage optique des données des répondants. Ce système met en oeuvre la reconnaissance intelligente de caractères (RIC), la reconnaissance optique de caractères (ROC), la reconnaissance optique de marques (ROM) et une technologie de saisie clavier fortement axée sur la détection et le contrôle des erreurs. Appelé integrated Computer Assisted Data Entry (iCADE) System, il fournit des images numériques des questionnaires remplis par les répondants qui sont ensuite traitées par une combinaison d'algorithmes d'imagerie, envoyées à l'application de reconnaissance optique de marques (ROM) qui recueille les données sous forme de cases cochées, recueille automatiquement et envoie uniquement les champs à réponse écrite aux clavistes qui procèdent à la saisie des données. Ces capacités ont accru considérablement l'efficacité du processus de saisie des données et abouti à une approche nouvelle et efficace des activités postérieures à la collecte.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010974
    Description :

    L'article porte sur les lignes directrices pour la conception des questionnaires des enquêtes-établissements. Plus précisément, il traite du processus de transition d'un ensemble de lignes directrices rédigées pour un public général de méthodologistes d'enquête à des lignes directrices s'adressant à un public plus restreint de gestionnaires d'enquête et d'analystes travaillant pour un organisme particulier. Ce processus a été le fruit des efforts d'une équipe constituée de divers employés de la Direction des programmes économiques du Census Bureau qui ont travaillé en étroite collaboration. Partant de lignes directrices générales, l'équipe a déterminé ce qu'il convenait d'ajouter, de modifier ou de supprimer, ainsi que la part d'information théorique et expérimentale relevée dans la littérature qu'il convenait d'inclure. Outre le processus, l'article décrit le résultat final : un ensemble de lignes directrices pour la conception de questionnaires s'adressant spécialement à la Direction des programmes économiques.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010975
    Description :

    Un problème important dans le domaine de la statistique officielle est l'accès à des mesures objectives permettant de prendre des décisions fondées sur des données factuelles. Istat a mis en place un système d'information en vue d'évaluer la qualité des enquêtes. Entre autres indicateurs standard de la qualité, les taux de non-réponse sont calculés et sauvegardés systématiquement pour toutes les enquêtes. Cette riche base d'information permet d'effecteur des analyses au cours du temps et des comparaisons entre enquêtes. Le présent article porte sur l'analyse des interdépendances entre le mode de collecte des données, ainsi que d'autres caractéristiques des enquêtes et la non-réponse totale. Une attention particulière est accordée à la mesure dans laquelle la collecte de données multimode améliore les taux de réponse.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010976
    Description :

    Bon nombre d’organismes statistiques considèrent le taux de réponse comme un indicateur de la qualité des données d’enquête. Ils mettent donc en oeuvre diverses mesures pour réduire la non-réponse ou pour maintenir un niveau de réponse acceptable. Toutefois, le taux de réponse ne constitue pas nécessairement un bon indicateur du biais de non-réponse. Un taux de réponse élevé ne suppose pas un faible biais de non-réponse. Ce qui compte, c’est l’écart entre la composition de la réponse et celle de l’ensemble de l’échantillon. Dans le présent exposé, nous décrivons le concept des indicateurs R pour évaluer les écarts possibles entre l’échantillon et la réponse. Ces indicateurs peuvent faciliter l’analyse de la réponse aux enquêtes au fil du temps, quels que soient les stratégies d’enquête sur le terrain ou les modes de collecte des données. Nous présentons des exemples tirés de la pratique.

    Date de diffusion : 2009-12-03
Références (78)

Références (78) (40 à 50 de 78 résultats)

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015658
    Description :

    Le radon, qui est un gaz dont la présence est observée naturellement dans la plupart des maisons, est un facteur de risque confirmé pour le cancer du poumon chez les humains. Le National Research Council des États-Unis (1999) vient de terminer une évaluation approfondie du risque pour la santé de l'exposition résidentielle au radon, tout en élaborant des modèles de projection du risque de cancer pulmonaire dû au radon pour l'ensemble de la population. Cette analyse indique que le radon joue possiblement un rôle dans l'étiologie de 10-15 % des cas de cancer du poumon aux États-Unis, bien que ces estimations comportent une part appréciable d'incertitude. Les auteurs présentent une analyse partielle de l'incertidude et de la variabilité des estimations du risque de cancer pulmonaire dû à l'exposition résidentielle au radon, aux États-Unis, à l'aide d'un cadre général d'analyse de l'incertitude et de la variabilité établi antérieurement par ces mêmes auteurs. Plus particulièrement, il est question des estimations de l'excès de risque relatif (EFF) par âge et du risque relatif à vie (RRV), qui varient tous deux considérablement d'une personne à l'autre.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015660
    Description :

    Les situations qui nécessitent le couplage des enregistrements d'un ou de plusieurs fichiers sont très diverses. Dans le cas d'un seul fichier, le but du couplage est de repérer les enregistrements en double. Dans le cas de deux fichiers, il consiste à déceler les unités qui sont les mêmes dans les deux fichiers et donc de créer des paires d'enregistrements correspondants. Souvent, les enregistrements qu'il faut coupler ne contiennent aucun identificateur unique. Le couplage hiérarchique des enregistrements, le couplage probabiliste des enregistrements et l'appariement statistique sont trois méthodes applicables dans ces conditions. Nous décrivons les principales différences entre ces méthodes. Puis, nous discutons du choix des variables d'appariement, de la préparation des fichiers en prévision du couplage et de la façon dont les paires sont reconnues. Nous donnons aussi quelques conseils et quelques trucs utilisés pour coupler des fichiers. Enfin, nous présentons deux exemples : le couplage probabiliste d'enregistrements réalisé dans le cadre de la contre-vérification des données du recensement et le couplage hiérarchique des enregistrements du fichier maître des numéros d'entreprise (NE) à ceux du fichier de l'univers statistique (FUS) d'unités déclarantes non constituées en société (T1).

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015664
    Description :

    La litterature sur la statistique comprend de nombreuses études portant sur les méthodes déterministes, on trouve peu d'information sur ces méthodes. En outre, il semble qu'il n'existe pas d'études qui comparent les résultats obtenus avec les deux méthodes. Or, une telle comparaison serait utile lorsque les seuls indicateurs communs dont on dispose, et à partir desquels les bases de données doivent être couplées, sont des indicateurs indistincts, comme le nom, le sexe et la race. La présente étude compare une méthode de couplage déterministe par étapes avec la méthode probabiliste mise en oeuvre dans AUTOMATCH pour de telles situations. La comparaison porte sur un couplage de données médicales des centres régionaux de soins périnataux intensifs et de données relatives à l'éducation du ministère de l'Éducation de la Floride. Les numéros d'assurance sociale qui figurent dans les deux bases de données ont servi à valider les paires d'enregistrements après le couplage. On compare les taux de correspondance et les taux d'erreur obtenus avec les deux méthodes et on présente une discussion sur les similitudes et les différences entre les méthodes, ainsi que sur les points forts et les points faibles de chacune.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015666
    Description :

    L'échantillon de fusion obtenu par un procédé d'appariement statistique peut être considéré comme un échantillon tiré d'une population artificielle. Nous dérivons la distribution de cette population artificielle. Si la corrélation entre des variables spécifiques est le seul point d'intérêt, l'importance de l'indépendance conditionnelle peut être réduite. Dans une étude de simulation, nous examinons les effets de la non-confirmation de certaines hypothèses formulées pour obtenir la distribution de la population artificielle. Enfin, nous présentons des idées au sujet de l'établissement de la supposée indépendance conditionnelle par l'analyse de classes latentes.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015668
    Description :

    À la suite des problèmes d'estimation du sous-dénombrement qu'a posé le Recensement de l'Angleterre et du Pays de Galles de 1991, on s'est fixé comme objectif pour le Recensement de 2001 de créer une base de données entièrement corrigée pour tenir compte du sous-dénombrement net. Dans la présente communication, on examine l'application d'une méthode d'imputation pondérée par donneur qui se fonde sur des renseignements provenant tant du recensement que de l'Enquête sur la couverture du recensement (ECR). Le US Census Bureau envisage une approche similaire pour le Recensement des États-Unis de l'an 2000 (voir Isaki et coll. 1998). La méthode proposée fait la distinction entre les personnes qui ne sont pas dénombrées lors du recensement parce qu'on a manqué leur ménage et celles qui ne sont pas dénombrées dans les ménages qui ont été recensés. Les données de recensement sont couplées aux données de l'ECR. On utilise la régression logistique multinominale pour estimer la probabilité que des ménages soient omis dans le recensement, ainsi que la probabilité que des personnes ne soient pas dénombrées au sein de ménages recensés. On calcule des poids de couverture pour les ménages et pour les personnes d'après les probabilités estimatives, puis on les inègre à la méthode d'imputation par donneur.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015670
    Description :

    Pour atteindre efficacement leur public cible, les publicistes et les planificateurs des médias ont besoin de savoir quel pourcentage de consommateurs de Coke diète regardent Alerte à Malibu, ou combien de clients d'AT&T ont vu une annonce de Sprint au cours de la dernière semaine. Toutes les données pertinentes pourraient en théorie être recueillies auprès de chacun des répondants. Toutefois, la collecte de données précises et détaillées serait très coûteuse. Elle imposerait en outre un fardeau important aux répondants, compte tenu de la technique de collecte utilisée actuellement. Pour le moment, ces donées sont recueillies dans le cadre d'enquêtes distinctes, en Nouvelle-Zélande et dans nombre d'autres pays. Le niveau d'exposition aux principaux médias est mesuré de façon continue, et les études sur l'utilisation des produits sont répandues. Des techniques d'appariement statistique fournissent une façon de combiner ces sources d'information distinctes. La base de données des cotes d'écoute de la télévision en Nouvelle-Zélande a été combinée à une enquête multi-intérêts portant sur le profit des lecteurs d'imprimés et la consommation de produits, grâce à l'appariement statistique. Le service Panorama qui en résulte répond aux besoins d'information des publicistes et des planificateurs des médias. L'expérience a été reprise depuis en Australie. Le présent document porte sur l'élaboration du cadre d'appariement statistique qui a servi à la combinaison de ces bases de données, ainsi que sur les connaissances heuristiques et les techniques qui ont été utilisées. Celles-ci comprenaient notamment une expérience effectuée au moyen d'un plan de contrôle visant à déterminer les variables d'appariement importantes. Le présent document comprend en outre un résumé des études ayant servi à l'évaluation et à la validation des résultats combinés. Trois critères principaux d'évaluation ont été utilisés, à savoir : la précision des résultats combinés, la stabilité de ces résultats et la préservation des résultats des bases de données originales. On aborde aussi la façon dont les conditions préalables à la combinaison de ces bases de données ont été respectées. Les différences entre les techniques d'analyse utilisées dans les deux bases de données d'origine ont constitué l'obstacle le plus important à cette étape. Enfin, des suggestions pour le de'veloppement de systèmes d'appariement statistique similaires ailleurs sont fournis.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015672
    Description :

    La fusion des données qui est examinée ici consiste à créer un ensemble de données provenant de sources différentes sur des variables que l'on n'observe pas conjointement. Supposons par exemple que l'on dispose d'observations pour (X,Z) sur un ensemble de personnes et pour (Y,Z) sur un autre ensemble de personnes. Chacune des variables X, Y et Z peut être vectorielle. L'objectif principal consiste à obtenir des précisions sur la distribution conjointe de (X,Y) en se servant de Z comme ce que l'on conviendra d'appeler variable d'appariement. Toutefois, on s'efforce d'abord d'extraire des ensembles de données distincts autant de renseignements que possible sur la distribution conjointe de (X,Y,Z). On ne peut procéder à ce genre de fusion que moyennant la précision de certaines propriétés distributionnelles pour les données fusionnées, à savoir l'hypothèse d'indépendance conditionnelle étant donné les variables d'appariement. Classiquement, l'examen des variables fusionnées consiste à déterminer dans quelle mesure cette hypothèse sous-jacente est appropriée. Ici, nous examinons le problème sous un angle différent. La question que nous nous posons est celle de savoir comment il est possible d'estimer des distributions dans des situations où l'on ne dispose que d'observations provenant de certaines distributions marginales. Nous pouvons la résoudre en appliquant le critère d'entropie maximale. Nous montrons notamment qu'il est possible d'interpréter les données créés par fusion de données de sources différentes comme un cas spécial de cette situation. Par conséquent, nous dérivons l'hypothèse nécessaire d'indépendance conditionnelle en tant que conséquence du type de données disponibles.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015674
    Description :

    L'influence de l'environnement sur la santé est un sujet de préoccupation croissante, plus particulièrement les effets de l'émission de polluants industriels dans l'atmosphère, le sol et l'eau. L'évaluation des risques que comporte une source de pollution donnée pour la santé publique est souvent effectuée à l'aide de données démographiques, environementales et relatives à la santé qui sont recueillies couramment par des organismes gouvernementaux. Ces ensembles de données présentent des différences d'échantillonnage notables sur les plans géographique et temporel; ces différences se répercutent sur les analyses épidémiologiques qui utilisent conjointement de tels ensembles. Au Royaumi-Uni, les problèmes de santé sont enregistrés individuellement pour chaque personne. Sont également indiqués le code de cause de maladie, la date du diagnostic ou du décès, et en utilisant le code postal de l'unité comme référence géographique. Par contre, les données démographiques relatives aux petites régions sont enregistrées uniquement lors du recensement décennal et sont diffusés comme données de niveau régional dans des zones qui ne correspondent pas à celles des codes postaux. Des données relatives à l'exposition ambiante sont pourtant disponibles à un autre niveau, selon le type d'exposition et la source des mesures.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015678
    Description :

    Un modèle d'affectation des ressources en matière de soins de santé selon les besoins de la population a été conçu et mis en application, l'âge, le sexe et l'état de santé des habitants ayant été utilisés pour évaluer les besoins de la population ontarienne en matière de soins de santé. Pour élaborer ce modèle, on a combiné les données provinciales sur l'autoévaluation de la santé et de l'utilisation des services de santé, selon l'âge et le sexe, obtenues auprès de 62 413 répondants de l'Enquête sur la santé en Ontario (ESO) de 1990 et les données sur les dépenses provinciales en soins de santé pour l'exercice 1995-1996, selon l'âge et le sexe. Ce modèle ne comprenait que les services visés par l'ESO (omnipraticiens, médecins spécialistes, optométrie, physiothérapie, chiropractie et soins de courte durée). La répartition de l'utilisation et des dépenses entre les diverses catégories d'âge, de sexe et d'état de santé a été utilisée pour établir les proportions appropriées de ressources en matière de soins de santé pour chaque combinaison âge-sexe-état de santé. Ces proportions ont par la suite été appliquées aux populations des régions géographiques, à partir des données sur l'âge, le sexe et l'état de santé provenant de l'ESO, ainsi que des estimations plus récentes de la population, afin de déterminer les affectations pour chaque région. Le total de ces affectations en dollars devait correspondre au montant du budget provincial de 1995-1996. Les affectations ainsi calculées ont été comparées à celles de 1995-1996 pour déterminer dans quelle mesure elles étaient effectivement compatibles avec les besoins relatifs de la population des régions de l'Ontario.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015680
    Description :

    La combinaison de bases de données par des méthodes de couplage d'enregistrements en vue d'augmenter la quantité d'information disponible est un phénomène de plus en plus fréquent. Si l'on ne peut se fonder sur aucun identificateur unique pour procéder à l'appariement des enregistrements, on recourt au couplage probabiliste. On apparie un enregistrement du premier fichier à un enregistrement du deuxième avec une certaine probabilité et on décide ensuite si cette paire d'enregistrements représente ou non un appariement vrai. Habituellement, ce processus nécessite une certaine intervention manuelle qui demande du temps et des ressources humaines. En outre, il aboutit souvent à un couplage complexe. Autrement dit, au lieu d'être systématiquement biunivoque (un à un), le couplage entre les deux bases de données peut être multi-univoque (plusieurs à un), co-univoque (un à plusieurs) ou multivoque (plusieurs à plusieurs).

    Date de diffusion : 2000-03-02
Date de modification :