Assurance de la qualité

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Géographie

2 facets displayed. 0 facets selected.

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (250)

Tout (250) (240 à 250 de 250 résultats)

  • Enquêtes et programmes statistiques — Documentation : 75F0002M1995007
    Description :

    Dans ce document, on décrit l'incidence de l'interview assistée par ordinateur (IAO) sur la qualité des données de l'Enquête sur la dynamique du travail et du revenu (EDTR) dans trois domaines : l'activité sur le marché du travail, les sources de revenu dont la divulgation pose un problème aux répondants, et les relations au sein du ménage.

    Date de diffusion : 1995-12-30

  • Articles et rapports : 12-001-X199400214420
    Description :

    De nombreuses méthodes de protection du caractère confidentiel des microdonnées sont décrites dans les ouvrages de statistique. Cependant, l’usage qu’en font les organismes statistiques et la compréhension qu’on a de leurs propriétés et de leurs effets sont limités. Afin de favoriser la recherche sur ces méthodes ainsi que leur usage et pour faciliter leur évaluation et l’assurance de la qualité, il est souhaitable de formuler ces méthodes selon une seule approche. Dans cet article, nous présentons une approche appelée masquage de matrice - qui repose sur le calcul matriciel ordinaire - et nous formulons des masques de matrice pour les principales méthodes de protection du caractère confidentiel de microdonnées actuellement en usage, ce qui permettra aux organismes statistiques et aux autres spécialistes du domaine d’avoir une meilleure compréhension de ces méthodes et de les mettre en application.

    Date de diffusion : 1994-12-15

  • Articles et rapports : 12-001-X199300214456
    Description :

    Cette étude est basée sur l’utilisation de modèles de superpopulation pour anticiper la variance d’une mesure par sondage de ratios avant l’enquête. On arrive, en utilisant des modèles simples qu’on voudrait néanmoins assez réalistes, à des expressions plus ou moins complexes qu’on parvient à optimiser, parfois rigoureusement, quelquefois de façon approximative. La solution du dernier des problèmes évoqués fait apparaître un facteur assez peu étudié en matière d’optimisation de plan de sondage : le coût lié à la mobilisation d’une information individuelle.

    Date de diffusion : 1993-12-15

  • Articles et rapports : 75-001-X19890032282
    Géographie : Canada
    Description :

    L'indice de l'offre d'emploi évalue les offres d'emploi en vue d'obtenir une indication de la demande de main-d'oeuvre. L'indice est considéré comme un indicateur avancé des conditions du marché du travail et de l'activité économique en général. L'étude porte sur les variations de l'indice au cours des trois derniers cycles conjoncturels.

    Date de diffusion : 1989-09-30

  • Articles et rapports : 12-001-X198900114573
    Description :

    Aux fins de son programme de la statistique économique, le Census Bureau fait grande utilisation des dossiers administratifs. Le nombre de dossiers traités chaque année est considérable, mais il l’est encore plus durant les années de recensement. Pour assurer la qualité de toutes les données qu’il reçoit, le Census Bureau a mis au point des programmes de contrôle sur gros ordinateur. Toutefois, étant donné le très grand nombre de tableaux de vérification requis, et compte tenu du fait que les ressources nécessaires à la programmation sont limitées et coûteuses, il serait difficile d’adopter un système exhaustif de contrôle exploité entièrement sur gros ordinateur. En outre, vu le caractère confidentiel des données et les conséquences possibles des erreurs, le Census Bureau a conclu qu’il fallait mettre au point un système de contrôle plus « sophistiqué », qui s’appuie sur la technologie des micro-ordinateurs. La division des enquêtes économiques est en train de mettre au point un tel système qui sera utilisé pour traiter les fichiers de données administratives de 1987. Le système intègre la technologie des gros ordinateurs à celle des micro-ordinateurs. Les fichiers de données administratives qui arrivent chaque semaine au Bureau sont d’abord traitées sur gros ordinateur. Les données ainsi traitées sont transférées sur micro-ordinateur et sont formatées pour être exploitées par un tableur. La vérification systématique de la qualité des données (examen de données, détection des erreurs, production de rapports) est faite sur micro-ordinateur, par le tableur. L’utilisation combinée d’un gros ordinateur et de micro-ordinateurs permet d’alléger la charge des programmeurs, de faciliter le travail des analystes (plus de souplesse) et de réduire les coûts du traitement sur gros ordinateur. Enfin, la composante « contrôle-vérification » du système assure une vérification rigoureuse et exhaustive des données.

    Date de diffusion : 1989-06-15

  • Articles et rapports : 12-001-X198900114576
    Description :

    Une des principales tâches des agents sanitaires en poste dans les pays en voie de développement est de vérifier si une population répond à certaines normes, par exemple la proportion d’habitants vaccinés contre une certaine maladie. Comme les populations sont généralement nombreuses et que les ressources et le temps nécessaires à des études sont limités, on doit habituellement procéder par échantillonnage et établir des estimations pour la population toute entière. Selon la proportion de personnes non vaccinées dans l’échantillon, on déterminera si la couverture vaccinale est acceptable ou s’il y a lieu d’accentuer les efforts pour accroître cette couverture. Plusieurs méthodes d’échantillonnage sont actuellement en usage. Parmi celles-ci figure une version modifiée de la méthode d’échantillonnage en grappes, recommandée par le Programme élargi de vaccination (PEV) de l’Organisation mondiale de la Santé. Plus récemment, on a suggéré que l’assurance de la qualité par échantillonnage (AQE), une méthode couramment utilisée dans l’inspection des produits manufacturés, pourrait être utile au suivi des programmes de santé. Dans cet article, nous décrivons la méthode AQE et donnons un exemple d’application.

    Date de diffusion : 1989-06-15

  • Articles et rapports : 12-001-X198800214585
    Description :

    Les méthodes servant à contrôler la qualité des opérations d’enquête à Statistique Canada consistent habituellement en un échantillonnage pour acceptation pour chaque caractéristique, accompagné d’une inspection de redressement, l’une et l’autre opération s’inscrivant dans le cadre plus général du contrôle d’acceptation. Bien que ces méthodes soient considérées comme de bonnes mesures correctives, elles sont peu efficaces pour empêcher une répétition des erreurs. Vu l’importance primordiale de cet aspect de la gestion de la qualité, le Système de gestion de la qualité (SGQ) a été conçu en fonction de plusieurs objectifs dont la prévention des erreurs est un des principaux. C’est pourquoi il sert à produire des rapports de contrôle et des graphiques à l’intention des opérateurs, superviseurs et gestionnaires chargés des diverses opérations. Il sert également à produire des données sur les changements survenus au chapitre de l’inspection et permet ainsi aux méthodologistes de réviser les plans et les méthodes d’inspection en conformité avec les grandes lignes du contrôle d’acceptation. Cet article expose les principales caractéristiques du SGQ au point de vue de l’estimation et de la totalisation des données et montre de quelle façon ce système dessert les principaux programmes de contrôle de la qualité à Statistique Canada. Des fonctions importantes sont également analysées du point de vue méthodologique et systémique.

    Date de diffusion : 1988-12-15

  • Articles et rapports : 12-001-X198400214356
    Description :

    Cette étude décrit l’utilisation de l’appariement de fichiers de données comparables dans l’évaluation de l’erreur non due à l’échantillonnage. Pour illustrer cette technique, on explique comment la qualité des données du recensement de l’agriculture de 1981 au Canada a été évaluée et on présente quelques résultats de cette analyse.

    Date de diffusion : 1984-12-14

  • Articles et rapports : 12-001-X198300114334
    Description :

    Depuis 1921, Statistique Canada, organisme central de regroupement de statistiques au Canada, compile des données sur la mortalité à l’échelle nationale, notamment celles qui touchent la mortalité due au cancer. Il dispose également de données sur l’incidence du cancer qui remontent à 1969.

    On peut évaluer de diverses façons la qualité des données de ces fichiers. Les rapports entre la mortalité due au cancer et l’incidence de cette maladie donnent certaines indications sur les erreurs de représentation. L’appariement des micro-données entre les fichiers « incidence » et « mortalité » donnent un aperçu des erreurs de classification. De même, les inscriptions multiples de l’incidence du cancer posent le problème du double emploi. Par ailleurs, l’intégralité et la disponibilité des données élémentaires revêtent de l’importance dans le cas d’études spéciale.

    Dans cet article, nous étudions la possibilité de nous servir de ces mesures de la qualité des données et les conséquences que peuvent avoir les mesures en question.

    Date de diffusion : 1983-06-15

  • Articles et rapports : 12-001-X198100154933
    Description :

    La coordination est un aspect des enquêtes auquel on n’accorde pas toujours suffisamment d’attention.

    Les auteurs analysent l’envergure et l’importance de la coordination des enquêtes et préconisent une approche méthodologique plus scientifique. Des applications pratiques à diverses étapes des enquêtes sont illustrées par des exemples tirés de l’Enquête sur la population active du Canada.

    Date de diffusion : 1981-06-15
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (171)

Analyses (171) (0 à 10 de 171 résultats)

  • Revues et périodiques : 75F0002M
    Description : Cette série comprend de la documentation détaillée sur revenu, notamment les problèmes de conception, l'évaluation qualitative des données et les recherches préliminaires.
    Date de diffusion : 2024-04-26

  • Articles et rapports : 13-604-M2024001
    Description : Cette documentation donne un aperçu de la méthodologie utilisée pour élaborer les comptes économiques répartis pour le secteur des ménages publiés en janvier 2024 pour les années de références de 2010 à 2023. Elle présente le cadre et les étapes de la production de renseignements sur les répartitions qui sont conformes aux Comptes du Bilan National et à d'autres concepts liés aux comptes nationaux. Elle inclut également un rapport sur la qualité des répartitions estimées.
    Date de diffusion : 2024-01-22

  • Articles et rapports : 13-604-M2023001
    Description : Cette documentation donne un aperçu de la méthodologie utilisée pour élaborer les comptes économiques répartis pour le secteur des ménages publiés en mars 2023 pour les années de références de 2010 à 2022. Elle présente le cadre et les étapes de la production de renseignements sur les répartitions qui sont conformes aux Comptes du Bilan National et à d'autres concepts liés aux comptes nationaux. Elle inclut également un rapport sur la qualité des répartitions estimées.
    Date de diffusion : 2023-03-31

  • Articles et rapports : 13-604-M2022002
    Description :

    Cette documentation donne un aperçu de la méthodologie utilisée pour élaborer les comptes économiques répartis pour le secteur des ménages publiés en août 2022 pour les années de références de 2010 à 2021. Elle présente le cadre et les étapes de la production de renseignements sur les répartitions qui sont conformes aux Comptes du Bilan National et à d'autres concepts liés aux comptes nationaux. Elle inclut également un rapport sur la qualité des répartitions estimées.

    Date de diffusion : 2022-08-03

  • Articles et rapports : 11-522-X202100100015
    Description : Les agences nationales de statistique telles que Statistique Canada se doivent de communiquer la qualité de l’information statistique aux utilisateurs. Les méthodes traditionnellement utilisées pour le faire sont fondées sur des mesures de l’erreur d’échantillonnage. Elles ne sont donc pas adaptées aux estimations produites à partir des données administratives pour lesquelles les sources d’erreur principales sont non dues à l’échantillonnage. Une approche plus adaptée à ce contexte pour rapporter la qualité des estimations présentées dans un tableau multidimensionnel est décrite dans cet article. Des indicateurs de qualité ont été dérivés pour diverses étapes de traitement post-acquisition, comme le couplage, le géocodage et l’imputation, par domaine d’estimation. Un algorithme de partitionnement a ensuite servi à regrouper les domaines présentant des niveaux de qualité similaires pour une estimation donnée. Des cotes visant à informer les utilisateurs sur la qualité relative des estimations d’un domaine à l’autre ont été attribuées aux groupes ainsi formés. Cet indicateur, nommé l’indicateur composite de la qualité (ICQ), a été développé et appliqué de façon expérimentale dans le cadre du Programme de la statistique du logement canadien (PSLC) qui a comme objectif la production de statistiques officielles sur le secteur du logement résidentiel au Canada par l’intégration de multiples sources de données administratives.

    Mots Clés : Apprentissage automatique non supervisé, assurance de la qualité, données administratives, intégration des données, partitionnement.

    Date de diffusion : 2021-10-22

  • Articles et rapports : 11-522-X202100100023
    Description :

    Notre société devient de plus en plus numérique et offre de multiples possibilités de maximiser notre utilisation des données dans l’intérêt du public, par un éventail de sources, de types de données et de technologies pour nous permettre de mieux informer le public sur les questions sociales et économiques et de contribuer à l’élaboration et à l’évaluation efficaces des politiques gouvernementales. Un facteur important pour concrétiser le potentiel d’utilisation des données aux fins de recherche et de statistiques d’intérêt public est la garantie de l’utilisation des données de manière éthiquement appropriée. Au début de l’année, la United Kingdom Statistics Authority a lancé le Centre for Applied Data Ethics afin de fournir des services, des conseils, des formations et des orientations concernant l’éthique des données à la communauté des analystes du Royaume-Uni. Le Centre a développé un cadre et un portefeuille de services pour donner les moyens aux analystes de tenir compte de l’éthique de leur recherche rapidement et facilement, dès la phase de conception de la recherche, promouvant ainsi une culture de l’éthique dès la conception. Le présent article donne un aperçu de ce cadre, des services de soutien aux utilisateurs qui l’accompagnent et de l’incidence de ce travail.

    Mots clés : éthique des données; données; recherche et statistiques

    Date de diffusion : 2021-10-22

  • Articles et rapports : 13-604-M2021001
    Description :

    Cette documentation donne un aperçu de la méthodologie utilisée pour élaborer les comptes économiques répartis pour le secteur des ménages publiés en septembre 2021 pour les années de références de 2010 à 2020. Elle présente le cadre et les étapes de la production de renseignements sur les répartitions qui sont conformes aux Comptes du Bilan National et à d'autres concepts liés aux comptes nationaux. Elle inclut également un rapport sur la qualité des répartitions estimées.

    Date de diffusion : 2021-09-07

  • Stats en bref : 89-20-00062020001
    Description :

    Dans cette vidéo, on vous présentera les fondements de la qualité des données, qui peuvent se résumer en six dimensions, ou six façons différentes de penser à la qualité. Vous apprendrez également comment chaque dimension peut être utilisée pour évaluer la qualité des données.

    Date de diffusion : 2020-09-23

  • Stats en bref : 89-20-00062020008
    Description :

    L’exactitude est l’une des six dimensions de la qualité des données qui sont prises en compte à Statistique Canada. L’exactitude s’entend de la mesure dans laquelle les données rendent compte de la vérité ou de ce qui s’est réellement produit. Dans cette vidéo, nous présenterons des méthodes pour mettre en lumière le concept d’exactitude, sur le plan de la validité et de la précision. Nous discuterons également des méthodes de validation et de vérification de l’exactitude des valeurs de données.

    Date de diffusion : 2020-09-23

  • Articles et rapports : 13-604-M2020002
    Description :

    Cette documentation donne un aperçu de la méthodologie utilisée pour élaborer les comptes économiques répartis pour le secteur des ménages publiés en juin 2020 pour les années de références de 2010 à 2020. Elle présente le cadre et les étapes de la production de renseignements sur les répartitions qui sont conformes aux comptes du bilan national et à d'autres concepts liés aux comptes nationaux. Elle inclut également un rapport sur la qualité des répartitions estimées.

    Date de diffusion : 2020-06-26
Références (78)

Références (78) (30 à 40 de 78 résultats)

  • Enquêtes et programmes statistiques — Documentation : 11-522-X20010016229
    Description :

    Ce document porte sur la démarche adoptée par Statistique Canada pour améliorer la qualité des données des enquêtes-entreprises annuelles en les intégrant dans l'Enquête unifiée auprès des entreprises (EUE). L'objectif principal de l'EUE consiste à mesurer avec exactitude les ventes annuelles finales de biens et services, selon la province, et ce, de manière suffisamment détaillée et ponctuelle.

    Il décrit les méthodes adoptées par l'EUE pour améliorer la qualité des données sur les finances et sur les marchandises selon quatre aspects généraux, soit : l'amélioration de la cohérence des données recueillies aux divers échelons de l'entreprise, l'amélioration de la couverture des secteurs d'activité, l'amélioration de l'ampleur de l'information (c'est-à-dire un contenu plus détaillé et des estimations sur un plus grand nombre de domaines) et l'amélioration de l'uniformité des concepts et des méthodes pour l'ensemble des secteurs d'activité. La démarche axée sur la qualité consistait a) à établir une mesure de base de la qualité du programme d'enquêtes-entreprises avant la mise sur pied de l'EUE; b) à mesurer annuellement la qualité des données de l'EUE; c) à mener des études précises pour mieux comprendre la qualité des données et des méthodes de l'EUE.

    Date de diffusion : 2002-09-12

  • Enquêtes et programmes statistiques — Documentation : 62F0026M2002001
    Description :

    Ce rapport présente les indicateurs de qualité produits pour l'Enquête sur les dépenses des ménages de 2000. On y trouve les indicateurs de qualité habituels qui peuvent aider les utilisateurs à interpréter les données, tels que les coefficients de variation, les taux de non-réponse, les taux de glissement et les taux d'imputation.

    Date de diffusion : 2002-06-28

  • Enquêtes et programmes statistiques — Documentation : 62F0026M2001001
    Description :

    Ce document présente les indicateurs de qualité produits pour l'enquête sur les dépenses des ménages de 1998. On y trouve les indicateurs de qualité usuels utiles aux utilisateurs pour l'interprétation des données tel que les coefficients de variation, les taux de non-réponse, les taux d'imputation et l'impact des données imputées sur les estimations. On y a également ajouté certains indicateurs moins fréquemment utilisés comme les taux de glissement et des mesures de la représentativité de l'échantillon pour certaines caractéristiques qui permettent d'évaluer la méthodologie de l'enquête.

    Date de diffusion : 2001-10-15

  • Enquêtes et programmes statistiques — Documentation : 62F0026M2001002
    Description :

    Ce document présente les indicateurs de qualité produits pour l'enquête sur les dépenses des ménages de 1999. On y trouve les indicateurs de qualité usuels utiles aux utilisateurs pour l'interprétation des données tel que les coefficients de variation, les taux de non-réponse, les taux d'imputation et l'impact des données imputées sur les estimations. On y a également ajouté certains indicateurs moins fréquemment utilisés comme les taux de glissement et des mesures de la représentativité de l'échantillon pour certaines caractéristiques qui permettent d'évaluer la méthodologie de l'enquête.

    Date de diffusion : 2001-10-15

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015638
    Description :

    Le symposium de 1999 porte sur les techniques et les méthodes servant à combiner des données de sources différentes et sur l'analyse des ensembles de données qui en résultent. Dans le cadre de la présente communication, nous montrons qu'il est utile d'adopter une telle approche d'intégration pour s'attaquer à un problème statistique complexe. Le problème en soi se décrit facilement - il s'agit de la façon de se rapprocher le plus possible d'un recensement parfait et surtout de la façon d'obtenir des dénombrements de recensement qui soient complets. De façon générale, le sous-dénombrement est évalué dans le cadre d'une enquête post-censitaire (EPC) menée après le recensement. Au Royaume-Uni en 1991, l'EPC n'a pas réussi à cerner entièrement le sous-dénombrement, ce qui fait que l'on a dû se servir de méthodes démographiques pour évaluer l'étendue du sous-dénombrement. Les problèmes que l'approche conventionnelle de l'EPC a posés en 1991 ont donné lieu à un projet de recherche conjoint entre l'Office for National Statistics et le département de la statistique sociale de l'University of Southampton qui visait à élaborer une méthode qui permette de mener un recensement avec résultats finals au Royaume-Uni en 2001. Autrement dit, le sous-dénombrement sera pris en compte non seulement aux niveaux supérieurs de totalisation, mais aussi aux niveaux inférieurs auxquels les tableaux de recensement sont produits. Ainsi, tous les résultats de recensement seront cohérents à l'interne et leurs totalisations seront cohérentes avec les estimations nationales de la population. Cette méthode s'appuie sur l'intégration de renseignements tirés d'un certain nombre de sources de données en vue de constituer le recensement avec résultats finals.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015640
    Description :

    Les auteurs décrivent comment SN se prépare à entrer dans l'ère nouvelle de la production de statistiques déclenchée par les progès technologiques. Le décloisonnement du traitement des données est une caractéristique fondamentale du virage vers cette ère nouvelle. Les auteurs expliquent comment les nouveaux outils techniques et méthodologiques influenceront les processus et leur organisation. Ils insistent tout spécialement sur la cohérence du contenu des statistiques et de leur présentation aux utilisateurs qui est l'un des avantages les plus importants qu'offrent ces nouveaux outils, mais aussi l'un des plus grands défis à relever.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015644
    Description :

    Une des façons d'enrichir les données d'enquête est de les compléter avec des données recueillies directement auprès des répondants et celles tirées de systèmes administratifs. Cette pratique permet notamment de recueillir des données auxquelles on n'aurait pas accès autrement, d'obtenir des données de meilleure qualité à l'égard de certains éléments que les répondants ne peuvent peut-être pas fournir avec précision (ou ne peuvent pas fournir du tout), de réduire le fardeau pour les répondants et de maximiser l'utilité des données comprises dans les systèmes administratifs. Compte tenu de son lien direct avec les données administratives, l'ensemble de données obtenu au moyen de ces techniques peut constituer un excellent outil de travail pour analyser et évaluer certaines politiques. Toutefois, les méthodes utilisées pour regrouper efficacement les données provenant de diverses sources posent un certain nombre de défis que les partis concernées doivent relever. Il s'agit notamment de la protection des renseignements personnels, du couplage des données, de la qualité des données, de l'estimation et de la diffusion.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015648
    Description :

    On estime les paramètres d'un modèle stochastique des carrières au sein de la population active tenant compte de la répartition des périodes corrélées d'emploi, de chômage (avec et sans recherche d'emploi) et de non appartenance à la population active. Aucune source unique de données n'est complètement satisfaisante si l'on veut que le modèle refléte les tendances infra-annuelles de l'emploi, ainsi que la progression vers l'âge de la retraite. Par contre, on peut calculer une approximation d'après plusieurs sources de données distinctes.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015652
    Description :

    Objectif: Recueillir, coupler, évaluer et diffuser des données sur les professions et la mortalité en vue de crééer un système de dépistage des maladies et lésions professionnelles dans le but ultime de réduire ou de prévenir le risque excédentaire chez les travailleurs et les membres de la population en général.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015656
    Description :

    Les études de séries chronologiques montrent qu'il existe une association entre la concentration des polluants atmosphériques, d'une part, et la morbidité et la mortalité, d'autre part. En général, ces études sont réalisées dans une seule ville, en appliquant diverses méthodes. Les critiques concernant ces études ont trait à la validité des ensembles de données utilisés et aux méthodes statistiques qui leur sont appliquées, ainsi qu'au manque de cohérence des résultats des études menées dans des villes différentes et même des nouvelles analyses indépendantes des données d'une ville particulière. Dans le présent article, nous examinons certaines des méthodes statistiques utilisées pour analyser un sous-ensemble de données nationales sur la pollution atmosphérique, la mortalité et les conditions météorologiques recueillies durant la National Morbidity and Mortality Air Pollution Study (NMMAPS).

    Date de diffusion : 2000-03-02
Date de modification :