Assurance de la qualité

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Géographie

2 facets displayed. 0 facets selected.

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (250)

Tout (250) (60 à 70 de 250 résultats)

  • Articles et rapports : 11-522-X200800010955
    Description :

    Les gestionnaires d'enquête commencent tout juste à découvrir les nombreuses utilités de l'enregistrement audionumérique pour la surveillance et la gestion du personnel sur le terrain. Jusqu'ici, cette technique a surtout permis de garantir l'authenticité des interviews, de déceler la falsification, de fournir des exemples concrets permettant d'évaluer le rendement sur le terrain puis de renseigner les gestionnaires de la collecte des données sur les interviews menées en personne. Par ailleurs, l'interview enregistrée assistée par ordinateur (IEAO) permet d'améliorer certains aspects de la qualité des données d'enquête en corroborant ou en corrigeant les réponses codées par le personnel travaillant sur le terrain. À l'avenir, l'enregistrement sonore pourrait même remplacer ou suppléer la transcription textuelle des réponses libres, sur le terrain, d'autant plus qu'il promet de gagner en efficacité grâce aux logiciels de traduction de la voix en texte.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010956
    Description :

    L'utilisation de l'interview enregistrée assistée par ordinateur (IEAO) comme outil pour déceler la falsification des interviews est de plus en plus fréquente dans les études par sondage (Biemer, 2000, 2003; Thissen, 2007). De même, les spécialistes de la recherche sur les enquêtes commencent à accroître l'utilité de l'IEAO en combinant les enregistrements sonores au codage pour résoudre les problèmes de qualité des données (Herget, 2001; Hansen, 2005; McGee, 2007). La communication porte sur les résultats d'une étude intégrée dans la National Home and Hospice Care Survey (NHHCS) réalisée auprès des établissements de santé par le National Center for Health Statistics, dans laquelle le codage du comportement fondé sur l'IEAO et des paradonnées particulières à l'IEAO ont été utilisés pour 1) repérer et corriger les problèmes de comportement des intervieweurs ou ceux relatifs aux questions au début de la période de collecte des données, avant qu'ils n'aient un effet négatif sur la qualité des données et 2) trouver des moyens de réduire l'erreur de mesure dans les futures exécutions de la NHHCS. Au cours des neuf premières semaines de la période de travail sur le terrain de 30 semaines, l'IEAO a été utilisée pour enregistrer chez tous les intervieweurs l'administration d'un sous-ensemble de questions de l'application de la NHHCS. Les enregistrements ont été reliés à l'application d'interview et aux données de sortie, puis codés selon l'un de deux modes, à savoir le codage par intervieweur ou le codage par question. La méthode de codage par intervieweur a permis d'examiner les problèmes particuliers à un intervieweur, ainsi que les problèmes plus généraux s'appliquant éventuellement à tous les intervieweurs. La méthode de codage par question a produit des données fournissant des éclaircissements sur l'intelligibilité des questions et d'autres problèmes de réponse. Sous ce mode, les codeurs ont codé plusieurs applications de la même question par plusieurs intervieweurs. Grâce à l'approche du codage par question, les chercheurs ont relevé des problèmes ayant trait à trois questions importantes de l'enquête durant les premières semaines de la collecte des données et ont donné aux intervieweurs des directives quant à la façon de traiter ces questions à mesure que la collecte des données s'est poursuivie. Les résultats du codage des enregistrements sonores (qui étaient reliés à l'application d'enquête et aux données de sortie) fourniront des renseignements qui permettront d'améliorer l'énoncé des questions et la formation des intervieweurs en prévision de la prochaine vague de la NHHCS et orienteront les travaux en vue de poursuivre l'amélioration de l'application d'IEAO et du système de codage.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010968
    Description :

    Statistique Canada a lancé un programme destiné à intensifier et à améliorer l'utilisation de la technologie d'imagerie pour le traitement des questionnaires d'enquête imprimés. Le but est d'en faire une méthode efficace, fiable et économique de saisie des données. L'objectif est de continuer de se servir de la reconnaissance optique de caractères (ROC) pour saisir les données des questionnaires, des documents et des télécopies reçus, tout en améliorant l'intégration du processus et l'assurance de la qualité/le contrôle de la qualité (CQ) du processus de saisie des données. Ces améliorations sont exposées dans le présent article.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010969
    Description :

    Dans le cadre d'un projet auquel ont participé plusieurs divisions du Census Bureau des États-Unis, un système hautement perfectionné et novateur a été mis au point pour faire la saisie, le suivi et le balayage optique des données des répondants. Ce système met en oeuvre la reconnaissance intelligente de caractères (RIC), la reconnaissance optique de caractères (ROC), la reconnaissance optique de marques (ROM) et une technologie de saisie clavier fortement axée sur la détection et le contrôle des erreurs. Appelé integrated Computer Assisted Data Entry (iCADE) System, il fournit des images numériques des questionnaires remplis par les répondants qui sont ensuite traitées par une combinaison d'algorithmes d'imagerie, envoyées à l'application de reconnaissance optique de marques (ROM) qui recueille les données sous forme de cases cochées, recueille automatiquement et envoie uniquement les champs à réponse écrite aux clavistes qui procèdent à la saisie des données. Ces capacités ont accru considérablement l'efficacité du processus de saisie des données et abouti à une approche nouvelle et efficace des activités postérieures à la collecte.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010974
    Description :

    L'article porte sur les lignes directrices pour la conception des questionnaires des enquêtes-établissements. Plus précisément, il traite du processus de transition d'un ensemble de lignes directrices rédigées pour un public général de méthodologistes d'enquête à des lignes directrices s'adressant à un public plus restreint de gestionnaires d'enquête et d'analystes travaillant pour un organisme particulier. Ce processus a été le fruit des efforts d'une équipe constituée de divers employés de la Direction des programmes économiques du Census Bureau qui ont travaillé en étroite collaboration. Partant de lignes directrices générales, l'équipe a déterminé ce qu'il convenait d'ajouter, de modifier ou de supprimer, ainsi que la part d'information théorique et expérimentale relevée dans la littérature qu'il convenait d'inclure. Outre le processus, l'article décrit le résultat final : un ensemble de lignes directrices pour la conception de questionnaires s'adressant spécialement à la Direction des programmes économiques.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010975
    Description :

    Un problème important dans le domaine de la statistique officielle est l'accès à des mesures objectives permettant de prendre des décisions fondées sur des données factuelles. Istat a mis en place un système d'information en vue d'évaluer la qualité des enquêtes. Entre autres indicateurs standard de la qualité, les taux de non-réponse sont calculés et sauvegardés systématiquement pour toutes les enquêtes. Cette riche base d'information permet d'effecteur des analyses au cours du temps et des comparaisons entre enquêtes. Le présent article porte sur l'analyse des interdépendances entre le mode de collecte des données, ainsi que d'autres caractéristiques des enquêtes et la non-réponse totale. Une attention particulière est accordée à la mesure dans laquelle la collecte de données multimode améliore les taux de réponse.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010976
    Description :

    Bon nombre d’organismes statistiques considèrent le taux de réponse comme un indicateur de la qualité des données d’enquête. Ils mettent donc en oeuvre diverses mesures pour réduire la non-réponse ou pour maintenir un niveau de réponse acceptable. Toutefois, le taux de réponse ne constitue pas nécessairement un bon indicateur du biais de non-réponse. Un taux de réponse élevé ne suppose pas un faible biais de non-réponse. Ce qui compte, c’est l’écart entre la composition de la réponse et celle de l’ensemble de l’échantillon. Dans le présent exposé, nous décrivons le concept des indicateurs R pour évaluer les écarts possibles entre l’échantillon et la réponse. Ces indicateurs peuvent faciliter l’analyse de la réponse aux enquêtes au fil du temps, quels que soient les stratégies d’enquête sur le terrain ou les modes de collecte des données. Nous présentons des exemples tirés de la pratique.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010985
    Description :

    Au Canada, les entreprises complexes représentent moins de 1 % du nombre total d'entreprises, mais comptent pour plus de 45 % du revenu total. Conscient de la grande importance des données recueillies auprès de ces entreprises, Statistique Canada a adopté plusieurs initiatives afin d'en améliorer la qualité. L'une d'entre elles consiste à évaluer la cohérence des données recueillies auprès des grandes entreprises complexes. Les résultats de ces récentes analyses de la cohérence ont joué un rôle capital dans le repérage des points à améliorer. Une fois réalisées, ces améliorations auraient pour effet d'accroître la qualité des données recueillies auprès des grandes entreprises complexes tout en réduisant le fardeau de réponse qui leur est imposé.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010991
    Description :

    Dans le processus d'évaluation des plans d'enquête prospectifs, les organismes statistiques doivent généralement tenir compte d'un grand nombre de facteurs pouvant avoir une incidence considérable sur le coût de l'enquête et la qualité des données. Or, les compromis entre le coût et la qualité sont souvent compliqués par les limites relatives à la quantité d'information disponible au regard des coûts fixes et des coûts marginaux liés au remaniement des instruments et à leur mise à l'essai sur le terrain, au nombre d'unités d'échantillonnage du premier degré et d'éléments compris dans l'échantillon, à l'affectation de sections d'instrument et aux modes de collecte appropriés pour des éléments d'échantillon précis ainsi qu'au nombre d'interviews et à leur périodicité (dans le cas des enquêtes longitudinales). D'autre part, les concepteurs disposent souvent de renseignements limités sur l'incidence de ces facteurs sur la qualité des données.

    Les auteurs appliquent des méthodes normalisées d'optimisation de la conception pour neutraliser l'incertitude entourant les composantes susmentionnées liées au coût et à la qualité. Une attention particulière est portée au niveau de précision requis des renseignements sur le coût et la qualité pour que ceux-ci soient d'une quelconque utilité dans le processus de conception, à la nature délicate des compromis coût-qualité relativement aux changements dans les hypothèses concernant les formes fonctionnelles ainsi qu'aux répercussions des travaux préliminaires au regard de la collecte de renseignements sur le coût et la qualité. De plus, la communication examine les différences entre le coût et la qualité dans la mise à l'essai sur le terrain et le travail de production, l'intégration des renseignements sur le coût et la qualité sur le plan de la production à l'adaptation de la conception de même que les coûts et les risques opérationnels découlant de la collecte de données détaillées sur le coût et la qualité pendant la phase de production. Les méthodes proposées sont motivées par le travail avec le remaniement cloisonné de l'interview et les composantes liées au journal de la Consumer Expenditure Survey des États-Unis.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800011002
    Description :

    La présente étude s'appuie sur un échantillon représentatif de la population canadienne pour quantifier le biais dû à l'utilisation de données autodéclarées sur la taille, le poids et l'indice de masse corporelle (IMC) au lieu de mesures directes. Nous comparons les associations entre les catégories d'IMC et certains problèmes de santé afin de déterminer si les erreurs de classification résultant de l'utilisation de données autodéclarées modifient les associations entre l'obésité et les problèmes de santé. L'analyse est fondée sur 4 567 répondants à l'Enquête sur la santé dans les collectivités canadiennes (ESCC) de 2005 qui, durant une interview sur place, ont déclaré leur taille et leur poids, puis ont été mesurés et pesés par un intervieweur ayant reçu une formation appropriée. En se basant sur les données autodéclarées, une proportion importante de personnes ayant un excès de poids ont été classées incorrectement dans des catégories d'IMC plus faible. Ces erreurs de classification se sont soldées par des associations plus fortes entre l'excès de poids ou l'obésité et la morbidité.

    Date de diffusion : 2009-12-03
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (171)

Analyses (171) (40 à 50 de 171 résultats)

  • Articles et rapports : 82-003-X201000111066
    Géographie : Canada
    Description :

    Le présent article porte sur quatre procédures essentielles de contrôle de la qualité et de réduction des données qui doivent être appliquées avant que des données sur l'activité physique soient calculées à partir des données d'accélérométrie.

    Date de diffusion : 2010-01-13

  • Articles et rapports : 11-522-X200800010950
    Description :

    Le prochain recensement aura lieu en mai 2011. Cette enquête d'envergure représente un défi particulier pour Statistique Canada et demande beaucoup de temps et de ressources. Une planification serrée a été mise en place afin d'atteindre tous les échéanciers. Plusieurs étapes de mise à l'essai du questionnaire ont été prévues. Ces tests portent sur le contenu du recensement mais abordent aussi la stratégie de communication prévue. Cet article a pour but de présenter un portrait global de la stratégie. De plus, l'emphase sera mise sur l'intégration des études qualitatives à l'étude quantitative faites en 2008 afin de pouvoir analyser les résultats et ainsi obtenir une meilleure évaluation des propositions.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010954
    Description :

    Au cours de la dernière année, Statistique Canada a conçu et mis à l'essai un nouveau moyen d'évaluer le rendement des intervieweurs qui procèdent aux interviews sur place assistées par ordinateur (IPAO). Un processus officiel existe déjà pour la surveillance des interviews téléphoniques centralisées. Les surveillants écoutent les interviews téléphoniques pendant qu'elles ont lieu pour évaluer l'exécution des tâches par l'intervieweur en fonction de critères préétablis et faire des commentaires à ce dernier pour lui indiquer ce qu'il a bien fait et ce qu'il doit améliorer. Pour les programmes d'IPAO, nous avons élaboré et mettons à l'essai une méthode pilote par laquelle des interviews sont enregistrées de façon numérique puis le surveillant écoute ces enregistrements afin d'évaluer le rendement de l'intervieweur sur le terrain et de lui fournir de la rétroaction qui aidera la qualité des données. Dans le présent article, nous donnons un aperçu du projet de surveillance de l'IPAO à Statistique Canada en décrivant la méthodologie de surveillance de l'IPAO et les plans de mise en oeuvre.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010955
    Description :

    Les gestionnaires d'enquête commencent tout juste à découvrir les nombreuses utilités de l'enregistrement audionumérique pour la surveillance et la gestion du personnel sur le terrain. Jusqu'ici, cette technique a surtout permis de garantir l'authenticité des interviews, de déceler la falsification, de fournir des exemples concrets permettant d'évaluer le rendement sur le terrain puis de renseigner les gestionnaires de la collecte des données sur les interviews menées en personne. Par ailleurs, l'interview enregistrée assistée par ordinateur (IEAO) permet d'améliorer certains aspects de la qualité des données d'enquête en corroborant ou en corrigeant les réponses codées par le personnel travaillant sur le terrain. À l'avenir, l'enregistrement sonore pourrait même remplacer ou suppléer la transcription textuelle des réponses libres, sur le terrain, d'autant plus qu'il promet de gagner en efficacité grâce aux logiciels de traduction de la voix en texte.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010956
    Description :

    L'utilisation de l'interview enregistrée assistée par ordinateur (IEAO) comme outil pour déceler la falsification des interviews est de plus en plus fréquente dans les études par sondage (Biemer, 2000, 2003; Thissen, 2007). De même, les spécialistes de la recherche sur les enquêtes commencent à accroître l'utilité de l'IEAO en combinant les enregistrements sonores au codage pour résoudre les problèmes de qualité des données (Herget, 2001; Hansen, 2005; McGee, 2007). La communication porte sur les résultats d'une étude intégrée dans la National Home and Hospice Care Survey (NHHCS) réalisée auprès des établissements de santé par le National Center for Health Statistics, dans laquelle le codage du comportement fondé sur l'IEAO et des paradonnées particulières à l'IEAO ont été utilisés pour 1) repérer et corriger les problèmes de comportement des intervieweurs ou ceux relatifs aux questions au début de la période de collecte des données, avant qu'ils n'aient un effet négatif sur la qualité des données et 2) trouver des moyens de réduire l'erreur de mesure dans les futures exécutions de la NHHCS. Au cours des neuf premières semaines de la période de travail sur le terrain de 30 semaines, l'IEAO a été utilisée pour enregistrer chez tous les intervieweurs l'administration d'un sous-ensemble de questions de l'application de la NHHCS. Les enregistrements ont été reliés à l'application d'interview et aux données de sortie, puis codés selon l'un de deux modes, à savoir le codage par intervieweur ou le codage par question. La méthode de codage par intervieweur a permis d'examiner les problèmes particuliers à un intervieweur, ainsi que les problèmes plus généraux s'appliquant éventuellement à tous les intervieweurs. La méthode de codage par question a produit des données fournissant des éclaircissements sur l'intelligibilité des questions et d'autres problèmes de réponse. Sous ce mode, les codeurs ont codé plusieurs applications de la même question par plusieurs intervieweurs. Grâce à l'approche du codage par question, les chercheurs ont relevé des problèmes ayant trait à trois questions importantes de l'enquête durant les premières semaines de la collecte des données et ont donné aux intervieweurs des directives quant à la façon de traiter ces questions à mesure que la collecte des données s'est poursuivie. Les résultats du codage des enregistrements sonores (qui étaient reliés à l'application d'enquête et aux données de sortie) fourniront des renseignements qui permettront d'améliorer l'énoncé des questions et la formation des intervieweurs en prévision de la prochaine vague de la NHHCS et orienteront les travaux en vue de poursuivre l'amélioration de l'application d'IEAO et du système de codage.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010968
    Description :

    Statistique Canada a lancé un programme destiné à intensifier et à améliorer l'utilisation de la technologie d'imagerie pour le traitement des questionnaires d'enquête imprimés. Le but est d'en faire une méthode efficace, fiable et économique de saisie des données. L'objectif est de continuer de se servir de la reconnaissance optique de caractères (ROC) pour saisir les données des questionnaires, des documents et des télécopies reçus, tout en améliorant l'intégration du processus et l'assurance de la qualité/le contrôle de la qualité (CQ) du processus de saisie des données. Ces améliorations sont exposées dans le présent article.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010969
    Description :

    Dans le cadre d'un projet auquel ont participé plusieurs divisions du Census Bureau des États-Unis, un système hautement perfectionné et novateur a été mis au point pour faire la saisie, le suivi et le balayage optique des données des répondants. Ce système met en oeuvre la reconnaissance intelligente de caractères (RIC), la reconnaissance optique de caractères (ROC), la reconnaissance optique de marques (ROM) et une technologie de saisie clavier fortement axée sur la détection et le contrôle des erreurs. Appelé integrated Computer Assisted Data Entry (iCADE) System, il fournit des images numériques des questionnaires remplis par les répondants qui sont ensuite traitées par une combinaison d'algorithmes d'imagerie, envoyées à l'application de reconnaissance optique de marques (ROM) qui recueille les données sous forme de cases cochées, recueille automatiquement et envoie uniquement les champs à réponse écrite aux clavistes qui procèdent à la saisie des données. Ces capacités ont accru considérablement l'efficacité du processus de saisie des données et abouti à une approche nouvelle et efficace des activités postérieures à la collecte.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010974
    Description :

    L'article porte sur les lignes directrices pour la conception des questionnaires des enquêtes-établissements. Plus précisément, il traite du processus de transition d'un ensemble de lignes directrices rédigées pour un public général de méthodologistes d'enquête à des lignes directrices s'adressant à un public plus restreint de gestionnaires d'enquête et d'analystes travaillant pour un organisme particulier. Ce processus a été le fruit des efforts d'une équipe constituée de divers employés de la Direction des programmes économiques du Census Bureau qui ont travaillé en étroite collaboration. Partant de lignes directrices générales, l'équipe a déterminé ce qu'il convenait d'ajouter, de modifier ou de supprimer, ainsi que la part d'information théorique et expérimentale relevée dans la littérature qu'il convenait d'inclure. Outre le processus, l'article décrit le résultat final : un ensemble de lignes directrices pour la conception de questionnaires s'adressant spécialement à la Direction des programmes économiques.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010975
    Description :

    Un problème important dans le domaine de la statistique officielle est l'accès à des mesures objectives permettant de prendre des décisions fondées sur des données factuelles. Istat a mis en place un système d'information en vue d'évaluer la qualité des enquêtes. Entre autres indicateurs standard de la qualité, les taux de non-réponse sont calculés et sauvegardés systématiquement pour toutes les enquêtes. Cette riche base d'information permet d'effecteur des analyses au cours du temps et des comparaisons entre enquêtes. Le présent article porte sur l'analyse des interdépendances entre le mode de collecte des données, ainsi que d'autres caractéristiques des enquêtes et la non-réponse totale. Une attention particulière est accordée à la mesure dans laquelle la collecte de données multimode améliore les taux de réponse.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010976
    Description :

    Bon nombre d’organismes statistiques considèrent le taux de réponse comme un indicateur de la qualité des données d’enquête. Ils mettent donc en oeuvre diverses mesures pour réduire la non-réponse ou pour maintenir un niveau de réponse acceptable. Toutefois, le taux de réponse ne constitue pas nécessairement un bon indicateur du biais de non-réponse. Un taux de réponse élevé ne suppose pas un faible biais de non-réponse. Ce qui compte, c’est l’écart entre la composition de la réponse et celle de l’ensemble de l’échantillon. Dans le présent exposé, nous décrivons le concept des indicateurs R pour évaluer les écarts possibles entre l’échantillon et la réponse. Ces indicateurs peuvent faciliter l’analyse de la réponse aux enquêtes au fil du temps, quels que soient les stratégies d’enquête sur le terrain ou les modes de collecte des données. Nous présentons des exemples tirés de la pratique.

    Date de diffusion : 2009-12-03
Références (78)

Références (78) (50 à 60 de 78 résultats)

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015682
    Description :

    L'application de la méthode d'estimation à double système (EDS) aux données appariées du recensement et de l'enquête postcensitaire (EPC) afin de déterminer le sous-dénombrement net est bien comprise (Hogan, 1993). Cependant, cette méthode n'a pas été utilisée jusqu'à présent pour évaluer le sous-dénombrement net au Royaume-Uni. On l'appliquera pour la première fois à l'occasion de l'EPC de 2001. Le présent article décrit la méthodologie générale employée pour la conception de l'enquête et pour l'estimation de cette EPC (baptisée Enquête sur la couverture du Recensement de 2001). L'estimation combine l'EDS et un estimateur par quotient ou par régression. Une étude par simulations utilisant les données du Recensement de 1991 de l'Angleterre et du pays de Galles montre que le modèle du quotient est en général plus robuste que le modèle de régression.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015684
    Description :

    Il arrive souvent qu'on recueille, de façon pratiquement simultaée, la même information sur plusieurs enquêtes différentes. En France, cela est institutionnalisé dans les enquêtes auprès des ménages qui comportent un tronc commun de variables portant sur la situation démographique, l'emploi, le logement et les revenus. Ces variables sont des cofacteurs importants des variables d'intérêt de chacune des enquêtes et leur utilisation judicieuse peut permettre un renforcement des estimations dans chacune d'elle. Les techniques de calage sur information incertaine peuvent s'appliquer de façon naturelle dans ce contexte. Cela revient à rechercher le meilleur estimateur sans biais des variables communes et à caler chacune des enquêtes sur cet estimateur. Il se trouve que l'estimateur ainsi obtenu dans chaque enquête est toujours un estimateur linéaire dont les pondérations sont faciles à expliciter, que la variance s'obtient sans problème nouveau de même que l'estimation de variance. Si on veut compléter la panoplie des estimateurs par régression, on peut aussi voir cette technique comme un estimateur par ridge-regression, ou encore comme une estimation par régression bayésienne.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015686
    Description :

    Deux instruments, à savoir les carnets et les interviews sur place, sont utilisés dans le cadre de la U.S. Consumer Expenditure Survey pour recueillir des données sur un grand nombre de catégories de dépenses de consommation. Il importe donc de bien se servir de ces données pour évaluer les dépenses moyennes et les paramètres connexes. On peut procéder de trois façons, à savoir 1) utiliser uniquement les données provenant des carnets, 2) utiliser uniquement les données provenant des interviews et 3)utiliser la méthode généralisée des moindres carrés, ou une méthode connexe, pour combiner les données provenant des carnets et des interviews. Jusqu'à présent, le U.S. Bureau of Labor Statistics s'est concentré sur les options 1) et 2) pour calculer les estimations au niveau des codes à cinq ou à six chiffres du Système de classification universelle. L'évaluation et la mise en oeuvre éventuelle de l'option 3) dépendent de plusieurs facteurs, y compris les biais de mesure qui pourraient entacher les données des carnets et des interviews, la grandeur empirique de ces biais comparativement aux erreurs-types des estimateurs habituels de la moyenne, ainsi que le degré d'homogénéité de ces biais d'une strate et d'une période à l'autre. Le présent article débute par l'examen de certains problèmes posés par les options 1) à 3), qui est suivi par la description d'une méthode généralisée des moindres carrés relativement simple permettant d'appliquer l'option 3) et enfin par une discussion des tests diagnostiques nécessaires pour évaluer la faisabilité et l'efficacité relative de la méthode généralisée des moindres carrés.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015688
    Description :

    Des données de sources multiples sont couplées pour examiner les liens géographique et temporel entre la pollution atmosphérique et l'asthme. Ces sources incluent les dossiers administratifs établis par 59 cabinets de médecins généralistes répartis à travers l'Angleterre et le Pays de Galles au sujet d'un demi million de patients venus à la consultation pour cause d'asthme, ainsi que des renseignements socioéconomiques recueillis dans le cadre d'une enquête par interview. Les codes postaux permettent de coupler ces données à celles sur i) la densité routière calculée pour les routes locales, ii) les émissions estimatives de dioxyde de soufre et d'oxydes d'azote, iii) la concentration de fumée noire, de dioxyde de soufre, de dioxyde d'azote et d'autres polluants mesurée ou interpolée aux emplacements des cabinets de médecins. Parallèlement, on analyse des séries chronologiques de Poisson, en tenant compte des variations entre cabinets de médecins, pour examiner les corrélations quotidiennes dans le cas des cabinets situés près des stations de surveillance de la qualité de l'air. Les analyses préliminaires montrent une association faible, en général non significative, entre les taux de consultations et les marqueurs de pollution. On examine les problèmes méthodologiques que posent la combinaison de données de ce genre et l'interprétation des résultats.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015690
    Description :

    La construction de l'échantillon virtuel est réalisé en deux étapes. La première consiste, en partant d'un panel maître, à effectuer une Analyse des Correspondances Multiples (ACM) sur des variables fondamentales pour l'étude. Puis, on génére aléatoirement des individus muets à partir de la distribution de chaque facteur significatif de l'analyse. Enfin, pour chaque individu, on génére une valeur pour chaque variable fondamentale la plus liée à un des facteurs précédents. Cette méthode assure un tirage indépendant d'ensembles de variables. La seconde étape consiste à greffer un certain nombre d'autres bases de données, dont on donnera les propriétés requises. On génére une variable à rajouter à l'aide de sa distribution estimée, avec un modèle linéaire généralisé en fonction des variables communes et celles qui ont déjà été rajoutées. Le même procédé est alors utilisé pour greffer les autres échantillons. Nous avons appliqué cette méthode pour générer un échantillon virtuel à partir de deux enquêtes. L'échantillon virtuel généré a été validé à l'aide de tests de comparaison d'échantillons. Les résultats obtenus sont positifs et montrent la faisabilité de cette méthode.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015692
    Description :

    Les tarifs d'électricité qui varient selon la période de la journée, appelés aussi tarifs horaires ou tarifs multiples, sont susceptibles d'accroître considérablement l'efficacité économique du marché de l'énergie. Plusieurs services publics d'électricité ont étudié les effets économiques des programmes de tarification selon la période de consommation offerts à leur clientèle résidentielle. On recourt ici à la méta-analyse pour regrouper les résultats de trente-huit programmes distincts en vue d'étudier l'effet des tarifs multiples sur la demande d'électricité. Quatre constations importantes se dégagent de l'analyse. Premièrement, le rapport entre le tarif de période de pointe et le tarif en période creuse doit être élevé pour que l'effet sur la demande de pointe soit important. Deuxièmement, les tarifs de période de pointe ontune incidence relativement plus importante sur la demande en été qu'en hiver. Troisièmement, les tarifs sont relativement plus efficaces s'ils sont sur une base permanente plutôt qu'expérimentale. Quatrièmement, la perception de frais en fonction de la demande concurrence les tarifs multiples ordinaires sur la demande de pointe.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015694
    Description :

    Nous nous servons de données sur 14 populations de saumons coho pour estimer les paramètres essentiels à la gestion des peuplements de poissons. L'estimation de paramètres à partir d'ensembles individuels de données étant inefficace et parfois fortement biaisée, nous recherchons des méthodes permettant de surmonter ces problèmes. La combinaison d'ensembles de données au moyen de modèles non linéaires à effets mixtes donne de meilleurs résultats, mais oblige à étudier les problèmes d'influence et de robustesse. Aux fins de comparaison, nous obtenons des estimations robustes. Nous étudions aussi la robustesse du modèle au moyen d'une famille de formes fonctionnelles de rechange. Les résultats permettent de calculer facilement les limites d'exploitation et pourraient contribuer à prevenir l'épuisement des peuplements de poissons. Des méthodes semblables peuvent être appliquées dans d'autres contextes où l'estimation de paramètres fait partie d'un processus de prise de décision plus général.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 92-370-X
    Description :

    Description de la série

    Cette série comprend cinq produits de référence générale - l'Avant-goût des produits et services; le Catalogue; le Dictionnaire; Le recensement en bref et les Rapports techniques - ainsi que des produits de référence géographique - GéoSuite et les Cartes de référence.

    Description du produit

    Les rapports techniques traitent de la qualité des données du recensement de 1996, une entreprise vaste et complexe. Bien que tous les efforts possibles aient été déployés pour maintenir les normes de qualité élevées à toutes les étapes du recensement, il existe néanmoins un certain degré d'erreur dans les résultats. Chaque rapport examine les opérations de collecte et de traitement et fournit les résultats relatifs à l'évaluation de la qualité des données, de même que des notes relatives à la comparabilité historique des données.

    Les rapports techniques s'adressent aux utilisateurs déjà familiers avec les données du recensement, ainsi qu'aux spécialistes : ils sont cependant rédigés de façon à être utiles à tous les utilisateurs de données du recensement. La plupart des rapports techniques ont été annulés, sauf Âge, sexe, état matrimonial et union libre, Couverture et Échantillonnage et pondération. En plus d'être disponibles comme publications bilingues, vous les retrouverez gratuitement dans Internet, dans les deux langues officielles.

    Ce rapport porte sur les erreurs de couverture, qui sont survenues lorsque des personnes, des ménages, des logements ou des familles ont été omis lors du recensement ou dénombrés par erreur. Les erreurs de couverture constituent l'un des plus importants types d'erreur lors du recensement, étant donné qu'elles touchent non seulement la précision des chiffres des divers univers du recensement mais aussi la précision de toutes les données du recensement portant sur les caractéristiques de ces univers. À l'aide de ces renseignements, les utilisateurs peuvent évaluer les risques entourant des conclusions ou des décisions fondées sur les données du recensement.

    Date de diffusion : 1999-12-14

  • Avis et consultations : 11-522-X19980015010
    Description :

    En 1994, Statistique Canada a implanté une nouvelle enquête longitudinale à caractère social auprès de 23 000 enfants répartis dans 13 500 ménages. L'enquête longitudinale nationale sur les enfants et les jeunes a pour but de mesurer le développement et le bien-être des enfants jusqu'à l'âge adulte. Pour ce faire, l'enquête recueille de l'information au sujet de l'enfant, ses parents, son voisinage, son environnement familial et scolaire. Il s'en suit que les données reçues pour chaque enfant proviennent de plusieurs répondants, tant parents qu'enseignants, ce qui ajoute au risque de divulgation. Pour établir un juste équilibre entre le respect de la confidentialité et la capacité analytique des données diffusées, l'enquête produit trois fichiers de microdonnées ayant un contenu plus ou moins riche. Le fichier le plus complet n'est disponible que par accès à distance. Ainsi les chercheurs n'ont pas directement accès aux données mais envoient leurs demandes d'analyses sous forme de programme informatique qui sont excécutés par des employés de Statistique Canada. Les résultats de ces analyses sont scrutés avant d'être renvoyés aux chercheurs. La présentation porte sur les différents risques de divulgation d'une telle enquête et des moyens de les atténuer.

    Date de diffusion : 1999-10-22

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19980015016
    Description :

    Des modèles d'ajustement des réponses binaires longitudinales sont explorés au moyen d'une étude par panel réalisée sur les intentions de vote. Un modèle logistique à plusieurs niveaux pour mesurer types répétés se révèle inapproprié en raison de la présence d'une proportion substantielle de répondants qui donnent une réponse constante au fil du temps. Un modèle de réponses binaires multidimensionnel se révèle mieux adapté aux données.

    Date de diffusion : 1999-10-22
Date de modification :