Assurance de la qualité

Aide à l'ordre
entrées

Résultats

Tout (239)

Tout (239) (230 à 240 de 239 résultats)

  • Articles et rapports : 12-001-X199400214420
    Description :

    De nombreuses méthodes de protection du caractère confidentiel des microdonnées sont décrites dans les ouvrages de statistique. Cependant, l’usage qu’en font les organismes statistiques et la compréhension qu’on a de leurs propriétés et de leurs effets sont limités. Afin de favoriser la recherche sur ces méthodes ainsi que leur usage et pour faciliter leur évaluation et l’assurance de la qualité, il est souhaitable de formuler ces méthodes selon une seule approche. Dans cet article, nous présentons une approche appelée masquage de matrice - qui repose sur le calcul matriciel ordinaire - et nous formulons des masques de matrice pour les principales méthodes de protection du caractère confidentiel de microdonnées actuellement en usage, ce qui permettra aux organismes statistiques et aux autres spécialistes du domaine d’avoir une meilleure compréhension de ces méthodes et de les mettre en application.

    Date de diffusion : 1994-12-15

  • Articles et rapports : 12-001-X199300214456
    Description :

    Cette étude est basée sur l’utilisation de modèles de superpopulation pour anticiper la variance d’une mesure par sondage de ratios avant l’enquête. On arrive, en utilisant des modèles simples qu’on voudrait néanmoins assez réalistes, à des expressions plus ou moins complexes qu’on parvient à optimiser, parfois rigoureusement, quelquefois de façon approximative. La solution du dernier des problèmes évoqués fait apparaître un facteur assez peu étudié en matière d’optimisation de plan de sondage : le coût lié à la mobilisation d’une information individuelle.

    Date de diffusion : 1993-12-15

  • Articles et rapports : 75-001-X19890032282
    Géographie : Canada
    Description :

    L'indice de l'offre d'emploi évalue les offres d'emploi en vue d'obtenir une indication de la demande de main-d'oeuvre. L'indice est considéré comme un indicateur avancé des conditions du marché du travail et de l'activité économique en général. L'étude porte sur les variations de l'indice au cours des trois derniers cycles conjoncturels.

    Date de diffusion : 1989-09-30

  • Articles et rapports : 12-001-X198900114573
    Description :

    Aux fins de son programme de la statistique économique, le Census Bureau fait grande utilisation des dossiers administratifs. Le nombre de dossiers traités chaque année est considérable, mais il l’est encore plus durant les années de recensement. Pour assurer la qualité de toutes les données qu’il reçoit, le Census Bureau a mis au point des programmes de contrôle sur gros ordinateur. Toutefois, étant donné le très grand nombre de tableaux de vérification requis, et compte tenu du fait que les ressources nécessaires à la programmation sont limitées et coûteuses, il serait difficile d’adopter un système exhaustif de contrôle exploité entièrement sur gros ordinateur. En outre, vu le caractère confidentiel des données et les conséquences possibles des erreurs, le Census Bureau a conclu qu’il fallait mettre au point un système de contrôle plus « sophistiqué », qui s’appuie sur la technologie des micro-ordinateurs. La division des enquêtes économiques est en train de mettre au point un tel système qui sera utilisé pour traiter les fichiers de données administratives de 1987. Le système intègre la technologie des gros ordinateurs à celle des micro-ordinateurs. Les fichiers de données administratives qui arrivent chaque semaine au Bureau sont d’abord traitées sur gros ordinateur. Les données ainsi traitées sont transférées sur micro-ordinateur et sont formatées pour être exploitées par un tableur. La vérification systématique de la qualité des données (examen de données, détection des erreurs, production de rapports) est faite sur micro-ordinateur, par le tableur. L’utilisation combinée d’un gros ordinateur et de micro-ordinateurs permet d’alléger la charge des programmeurs, de faciliter le travail des analystes (plus de souplesse) et de réduire les coûts du traitement sur gros ordinateur. Enfin, la composante « contrôle-vérification » du système assure une vérification rigoureuse et exhaustive des données.

    Date de diffusion : 1989-06-15

  • Articles et rapports : 12-001-X198900114576
    Description :

    Une des principales tâches des agents sanitaires en poste dans les pays en voie de développement est de vérifier si une population répond à certaines normes, par exemple la proportion d’habitants vaccinés contre une certaine maladie. Comme les populations sont généralement nombreuses et que les ressources et le temps nécessaires à des études sont limités, on doit habituellement procéder par échantillonnage et établir des estimations pour la population toute entière. Selon la proportion de personnes non vaccinées dans l’échantillon, on déterminera si la couverture vaccinale est acceptable ou s’il y a lieu d’accentuer les efforts pour accroître cette couverture. Plusieurs méthodes d’échantillonnage sont actuellement en usage. Parmi celles-ci figure une version modifiée de la méthode d’échantillonnage en grappes, recommandée par le Programme élargi de vaccination (PEV) de l’Organisation mondiale de la Santé. Plus récemment, on a suggéré que l’assurance de la qualité par échantillonnage (AQE), une méthode couramment utilisée dans l’inspection des produits manufacturés, pourrait être utile au suivi des programmes de santé. Dans cet article, nous décrivons la méthode AQE et donnons un exemple d’application.

    Date de diffusion : 1989-06-15

  • Articles et rapports : 12-001-X198800214585
    Description :

    Les méthodes servant à contrôler la qualité des opérations d’enquête à Statistique Canada consistent habituellement en un échantillonnage pour acceptation pour chaque caractéristique, accompagné d’une inspection de redressement, l’une et l’autre opération s’inscrivant dans le cadre plus général du contrôle d’acceptation. Bien que ces méthodes soient considérées comme de bonnes mesures correctives, elles sont peu efficaces pour empêcher une répétition des erreurs. Vu l’importance primordiale de cet aspect de la gestion de la qualité, le Système de gestion de la qualité (SGQ) a été conçu en fonction de plusieurs objectifs dont la prévention des erreurs est un des principaux. C’est pourquoi il sert à produire des rapports de contrôle et des graphiques à l’intention des opérateurs, superviseurs et gestionnaires chargés des diverses opérations. Il sert également à produire des données sur les changements survenus au chapitre de l’inspection et permet ainsi aux méthodologistes de réviser les plans et les méthodes d’inspection en conformité avec les grandes lignes du contrôle d’acceptation. Cet article expose les principales caractéristiques du SGQ au point de vue de l’estimation et de la totalisation des données et montre de quelle façon ce système dessert les principaux programmes de contrôle de la qualité à Statistique Canada. Des fonctions importantes sont également analysées du point de vue méthodologique et systémique.

    Date de diffusion : 1988-12-15

  • Articles et rapports : 12-001-X198400214356
    Description :

    Cette étude décrit l’utilisation de l’appariement de fichiers de données comparables dans l’évaluation de l’erreur non due à l’échantillonnage. Pour illustrer cette technique, on explique comment la qualité des données du recensement de l’agriculture de 1981 au Canada a été évaluée et on présente quelques résultats de cette analyse.

    Date de diffusion : 1984-12-14

  • Articles et rapports : 12-001-X198300114334
    Description :

    Depuis 1921, Statistique Canada, organisme central de regroupement de statistiques au Canada, compile des données sur la mortalité à l’échelle nationale, notamment celles qui touchent la mortalité due au cancer. Il dispose également de données sur l’incidence du cancer qui remontent à 1969.

    On peut évaluer de diverses façons la qualité des données de ces fichiers. Les rapports entre la mortalité due au cancer et l’incidence de cette maladie donnent certaines indications sur les erreurs de représentation. L’appariement des micro-données entre les fichiers « incidence » et « mortalité » donnent un aperçu des erreurs de classification. De même, les inscriptions multiples de l’incidence du cancer posent le problème du double emploi. Par ailleurs, l’intégralité et la disponibilité des données élémentaires revêtent de l’importance dans le cas d’études spéciale.

    Dans cet article, nous étudions la possibilité de nous servir de ces mesures de la qualité des données et les conséquences que peuvent avoir les mesures en question.

    Date de diffusion : 1983-06-15

  • Articles et rapports : 12-001-X198100154933
    Description :

    La coordination est un aspect des enquêtes auquel on n’accorde pas toujours suffisamment d’attention.

    Les auteurs analysent l’envergure et l’importance de la coordination des enquêtes et préconisent une approche méthodologique plus scientifique. Des applications pratiques à diverses étapes des enquêtes sont illustrées par des exemples tirés de l’Enquête sur la population active du Canada.

    Date de diffusion : 1981-06-15
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (161)

Analyses (161) (40 à 50 de 161 résultats)

  • Articles et rapports : 11-522-X200800010985
    Description :

    Au Canada, les entreprises complexes représentent moins de 1 % du nombre total d'entreprises, mais comptent pour plus de 45 % du revenu total. Conscient de la grande importance des données recueillies auprès de ces entreprises, Statistique Canada a adopté plusieurs initiatives afin d'en améliorer la qualité. L'une d'entre elles consiste à évaluer la cohérence des données recueillies auprès des grandes entreprises complexes. Les résultats de ces récentes analyses de la cohérence ont joué un rôle capital dans le repérage des points à améliorer. Une fois réalisées, ces améliorations auraient pour effet d'accroître la qualité des données recueillies auprès des grandes entreprises complexes tout en réduisant le fardeau de réponse qui leur est imposé.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800010991
    Description :

    Dans le processus d'évaluation des plans d'enquête prospectifs, les organismes statistiques doivent généralement tenir compte d'un grand nombre de facteurs pouvant avoir une incidence considérable sur le coût de l'enquête et la qualité des données. Or, les compromis entre le coût et la qualité sont souvent compliqués par les limites relatives à la quantité d'information disponible au regard des coûts fixes et des coûts marginaux liés au remaniement des instruments et à leur mise à l'essai sur le terrain, au nombre d'unités d'échantillonnage du premier degré et d'éléments compris dans l'échantillon, à l'affectation de sections d'instrument et aux modes de collecte appropriés pour des éléments d'échantillon précis ainsi qu'au nombre d'interviews et à leur périodicité (dans le cas des enquêtes longitudinales). D'autre part, les concepteurs disposent souvent de renseignements limités sur l'incidence de ces facteurs sur la qualité des données.

    Les auteurs appliquent des méthodes normalisées d'optimisation de la conception pour neutraliser l'incertitude entourant les composantes susmentionnées liées au coût et à la qualité. Une attention particulière est portée au niveau de précision requis des renseignements sur le coût et la qualité pour que ceux-ci soient d'une quelconque utilité dans le processus de conception, à la nature délicate des compromis coût-qualité relativement aux changements dans les hypothèses concernant les formes fonctionnelles ainsi qu'aux répercussions des travaux préliminaires au regard de la collecte de renseignements sur le coût et la qualité. De plus, la communication examine les différences entre le coût et la qualité dans la mise à l'essai sur le terrain et le travail de production, l'intégration des renseignements sur le coût et la qualité sur le plan de la production à l'adaptation de la conception de même que les coûts et les risques opérationnels découlant de la collecte de données détaillées sur le coût et la qualité pendant la phase de production. Les méthodes proposées sont motivées par le travail avec le remaniement cloisonné de l'interview et les composantes liées au journal de la Consumer Expenditure Survey des États-Unis.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800011002
    Description :

    La présente étude s'appuie sur un échantillon représentatif de la population canadienne pour quantifier le biais dû à l'utilisation de données autodéclarées sur la taille, le poids et l'indice de masse corporelle (IMC) au lieu de mesures directes. Nous comparons les associations entre les catégories d'IMC et certains problèmes de santé afin de déterminer si les erreurs de classification résultant de l'utilisation de données autodéclarées modifient les associations entre l'obésité et les problèmes de santé. L'analyse est fondée sur 4 567 répondants à l'Enquête sur la santé dans les collectivités canadiennes (ESCC) de 2005 qui, durant une interview sur place, ont déclaré leur taille et leur poids, puis ont été mesurés et pesés par un intervieweur ayant reçu une formation appropriée. En se basant sur les données autodéclarées, une proportion importante de personnes ayant un excès de poids ont été classées incorrectement dans des catégories d'IMC plus faible. Ces erreurs de classification se sont soldées par des associations plus fortes entre l'excès de poids ou l'obésité et la morbidité.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800011007
    Description :

    Le Centre de ressources en conception de questionnaires (CRCQ) est le point de convergence du savoir-faire de Statistique Canada en matière de conception et d'évaluation de questionnaires. À l'heure actuelle, les interviews cognitives en vue de mettre le questionnaire à l'essai ont le plus souvent lieu vers la fin du processus d'élaboration de ce dernier. S'il intervenait plus tôt dans ce processus, le CRCQ pourrait tester de nouveaux sujets d'enquête en utilisant des méthodes cognitives mieux adaptées à chaque étape de l'élaboration du questionnaire. Le nombre de participants à chaque phase de mise à l'essai serait moins élevé, ce qui réduirait le coût et les difficultés de recrutement.

    Fondé sur une revue de la littérature et sur les projets d'évaluation des questionnaires existants de Statistique Canada, le présent article décrit comment le CRCQ pourrait aider ses clients à apporter en temps voulu les modifications appropriées à leurs questionnaires.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X200800011014
    Description :

    Dans de nombreux pays, l'amélioration des statistiques économiques est au nombre des grandes priorités du 21e siècle. L'accent est mis, d'abord et avant tout, sur la qualité des comptes nationaux, tant annuels que trimestriels. À cet égard, la qualité des données sur les entreprises les plus grandes joue un rôle essentiel. L'analyse de cohérence est un outil fort utile pour s'assurer que les données fournies par ces entreprises sont de bonne qualité. Par cohérence, nous entendons que les données provenant de diverses sources concordent et brossent un tableau logique du développement de ces entreprises. Une analyse de cohérence efficace est généralement une tâche ardue qui consiste principalement à recueillir des données de différentes sources afin de les comparer de façon structurée. Au cours des deux dernières années, de grands progrès ont été accomplis à Statistics Sweden en ce qui concerne l'amélioration des routines servant à l'analyse de cohérence. Nous avons construit un outil TI qui recueille les données sur les plus grandes entreprises auprès d'un grand nombre de sources et les présente de manière structurée et logique, et nous avons élaboré une approche systématique d'analyse trimestrielle des données destinée aux comptes nationaux. Le présent article décrit les travaux effectués dans ces deux domaines et donne un aperçu de l'outil TI et des routines retenues.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 12-001-X200900110887
    Description :

    De nombreux organismes statistiques considèrent le taux de réponse comme étant l'indicateur de la qualité à utiliser en ce qui concerne l'effet du biais de non réponse. Ils prennent donc diverses mesures en vue de réduire la non réponse ou de maintenir la réponse à un niveau jugé acceptable. Cependant, à lui seul, le taux de réponse n'est pas un bon indicateur du biais de non réponse. En général, un taux de réponse élevé n'implique pas que le biais dû à la non réponse est faible. On trouve à cet égard de nombreux exemples dans la littérature (par exemple, Groves et Peytcheva 2006 ; Keeter, Miller, Kohut, Groves et Presser 2000 ; Schouten 2004).

    Nous introduisons un certain nombre de concepts et un nouvel indicateur en vue d'évaluer la similarité entre la réponse à une enquête et l'échantillon de cette enquête. Cet indicateur de la qualité, que nous appelons indicateur R, peut servir de complément aux taux de réponse et est destiné principalement à évaluer le biais de non réponse. Il peut faciliter l'analyse de la réponse aux enquêtes en fonction du temps, ou pour diverses stratégies d'enquête sur le terrain ou divers modes de collecte des données. Nous appliquons l'indicateur R à deux exemples pratiques.

    Date de diffusion : 2009-06-22

  • Articles et rapports : 82-003-X200800410703
    Géographie : Canada
    Description :

    Les données recueillies auprès de 16 190 participants à l'Enquête sur la santé dans les collectivités canadiennes - Nutrition réalisé en 2004 ont été utilisées pour estimer la sous déclaration de l'apport alimentaire de la population de 12 ans et plus des 10 provinces.

    Date de diffusion : 2008-10-15

  • Articles et rapports : 82-003-X200800310680
    Géographie : Canada
    Description :

    La présente étude examine la faisabilité de définir des facteurs pour corriger les mesures autodéclarées de l'indice de masse corporelle de façon qu'elles se rapprochent davantage des valeurs mesurées. Les données proviennent de l'Enquête sur la santé dans les collectivités canadiennes de 2005, où les répondants ont été priés de déclarer leur taille et leur poids et ont par la suite été mesurés.

    Date de diffusion : 2008-09-17

  • Articles et rapports : 82-622-X2008001
    Géographie : Canada
    Description :

    La présente étude a pour but d'examiner la validité factorielle de certains modules de l'Enquête canadienne sur l'expérience des soins de santé primaires (ECESSP), afin de savoir s'il est possible de combiner les items de chaque module en indices sommaires représentant des concepts globaux de soins de santé primaires. Les modules examinés sont ceux de l'évaluation des soins pour maladies chroniques par les patients (ESMCP; en anglais, Patient Assessment of Chronic Illness Care ou PACIC), de l'activation des patients (AP), de la gestion de ses propres soins de santé (GPSS) et de la confiance dans le système de soins de santé (CSSS). Des analyses factorielles confirmatoires ont été réalisées sur chaque module afin de déterminer dans quelle mesure de multiples items observés reflètent l'existence de facteurs latents communs. Un modèle à quatre facteurs a été spécifié au départ pour l'échelle ESMCP en s'inspirant d'une théorie a priori et de travaux de recherche, mais son ajustement aux données n'était pas bon. Un modèle révisé à deux facteurs est celui qui s'est avéré le plus approprié. Ces deux facteurs ont été nommés « Soin global de la personne » et « Coordination des soins ». Les autres modules étudiés ici (c. à d. AP, GPSS et CSSS étaient tous bien représentés par des modèles à un seul facteur. Les résultats donnent à penser que la structure factorielle originale du module ESMCP établie dans le cadre d'études portant sur des échantillons cliniques n'est pas applicable aux populations générales, quoique les raisons précises de cette situation ne soient pas claires. D'autres études empiriques seront nécessaires pour jeter de la lumière sur cette divergence. Les deux facteurs cernés ici pour le module ESMCP, ainsi que les facteurs uniques produits pour les modules AP, GPSS et CSSS pourraient servir de fondement à des indices sommaires destinés à être utilisés dans de futures analyses des données de l'ECESSP.

    Date de diffusion : 2008-07-08

  • Articles et rapports : 11-522-X200600110397
    Description :

    En pratique, il arrive souvent que certaines données recueillies comportent une erreur de mesure. Parfois, des covariables (ou facteurs de risque) d'intérêt sont difficiles à observer avec précision en raison de l'emplacement physique ou du coût. D'autres fois, il est impossible de mesurer précisément les covariables à cause de leur nature. Dans d'autres situations, une covariable peut représenter la moyenne d'une certaine grandeur mesurable au cours du temps, et tout moyen pratique de mesurer cette grandeur comporte nécessairement une erreur de mesure. Lorsqu'on procède à des inférences statistiques dans de telles conditions, il est important de tenir compte des effets des covariables mesurées incorrectement; sinon, les résultats risques d'être incorrects, voire même trompeurs. Dans le présent article, nous discutons de plusieurs exemples d'erreur de mesure survenant dans des contextes distincts. Nous accordons une attention particulière aux données sur la survie en présence de covariables sujettes à une erreur de mesure. Nous discutons d'une méthode de simulation extrapolation pour la correction des effets de l'erreur de mesure. Enfin, nous présentons une étude par simulation.

    Date de diffusion : 2008-03-17
Références (80)

Références (80) (60 à 70 de 80 résultats)

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19980015018
    Description :

    Dans la présente communication, nous décrivons une méthode pour le traitement de données longitudinales concernant des personnes qui font partie de plus d'une unité, à un niveau supérieur, et au sujet desquelles il manque des renseignements pour l'identification des unités auxquelles appartiennent ces personnes. Dans le domaine de l'éducation, par exemple, un élève peut être classé comme appartenant tour à tour à une école primaire et à une école secondaire en particulier, mais dans le cas de certains élèves, il se peut qu'on ne connaisse ni le nom de l'école primaire, ni celui de l'école secondaire. De manière analogue, dans le cadre d'une étude longitudinale, des élèves peuvent changer d'école ou de classe entre deux périodes et appartenir ainsi à plus d'une unité de niveau supérieur. La méthode utilisée pour modéliser ces structures est une généralisation d'un modèle à effets aléatoires et à niveaux multiples de recoupement.

    Date de diffusion : 1999-10-22

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19980015020
    Description :

    Fin 1993, Eurostat a pris la décision de lancer un panel communautaire de ménages. La première vague, réalisée en 1994 dans les douze pays de l'Union, a touché en France environ 7.300 ménages, comportant un peu plus de 14.000 adultes de 17 ans ou plus. Chaque individu devait alors être suivi et interrogé chaque année, même en cas de déménagement. Les individus disparaissant de l'échantillon présentent un profil particulier. Dans une première partie, nous présentons le schéma d'évolution de notre échantillon ainsi qu'une analyse des caractéristiques principales des non-répondants. Nous proposons ensuite deux modèles de correction de la non-réponse par catégories homogènes. Nous décrivons ensuite les distributions des poids longitudinaux obtenus selon les deux modèles, et des poids transversaux dérivés, calculés selon la méthode de partage des poids. Nous comparons enfin les valeurs de quelques indicateurs estimés à l'aide de l'un ou l'autre jeu de pondérations.

    Date de diffusion : 1999-10-22

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19980015021
    Description :

    Le U.S. Bureau of the Census a apporté des modifications importantes au plan de sondage de la Survey of Income and Program Participation (SIPP). Ces modifications importantes ont commencé à être appliquées au panel qui a débuté en 1996. Comme le plan de sondage révisé met l'accent sur les applications longitudinales plutôt que transversales, le Census Bureau s'est efforcé de comprendre et de résoudre le problème de biais dû à la lisière, qui est courant dans le cas des enquêtes longitudinales. Parallèlement au remaniement fondamental et administratif de l'enquête, le Census Bureau est en train d'améliorer les méthodes de traitement des données servant à produire les fichiers de microdonnées à grande diffusion. Les produits de données de chaque vague sont soumis à des vérifications et à des imputations longitudinales plutôt que transversales, avec transfert de données d'une vague précédente pour remplacer celles qui manquent dans la vague courante. Les produits de données longitudinales seront améliorés tant par le remaniement de l'enquête que par les nouvelles méthodes de traitement. Les méthodes simples d'imputation des données au cours du temps seront remplacées par des méthodes plus raffinées qui tendent à atténuer le problème du biais dû à la lisière. L'échantillon longitudinal sera agrandi de façon à inclure plus d'observations sur des personnes qui étaient des non-répondants durant une ou plusieurs vagues. On appliquera des poids longitudinaux aux fichiers pour soutenir l'analyse longitudinale axée sur les personnes pour les années civiles ou pour de plus longues périodes (jusqu'à quatre ans).

    Date de diffusion : 1999-10-22

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19980015022
    Description :

    La présente communication élargit et développe la méthode proposée par Pfeffermann, Skinner et Humphreys (1998) pour l'estimation de mouvements bruts en présence d'erreurs de classification. L'élément principal de la méthode en question est l'utilisation de renseignements complémentaires au niveau des individus, ce qui permet d'éviter de recourir à des données de validation pour l'estimation des taux d'erreur de classification. Les développements contenus dans la présente communication sont l'établissement de conditions permettant l'identification de modèles, une étude des caracéristiques de la qualité de l'ajustement d'un modèle et des modifications à la vraisemblance de l'échantillon afin de tenir compte des données manquantes et de l'échantillonnage informatif. Ces développements sont illustrés par une petite simulation fondée sur la méthode de Monte Carlo.

    Date de diffusion : 1999-10-22

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19980015023
    Description :

    L'étude de la mobilité sociale, par exemple entre situations sur le marché du travail ou entre niveaux de revenus, s'appuie souvent sur l'analyse de matrices de mobilité. Lorsqu'on compare ces matrices de transition, en vue d'évaluer les changements de comportements, on oublie souvent que les données sont issues d'une enquête par sondage, et qu'elles sont par conséquent affectées d'une variance d'échantillonnage. De même, on postule que les réponses collectées correspondent à la vraie valeur.

    Date de diffusion : 1999-10-22

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19980015024
    Description :

    Une étude longitudinale d'une cohorte d'élèves de l'école secondaire est menée dans une région de l'Italie depuis 1986 afin d'étudier la transition entre l'école et le marché du travail. Les renseignements ont été collectés à chaque étape au moyen d'un questionnaire envoyé par la poste et, à l'étape finale, au moyen d'une interview en salle de classe au cours de laquelle on a posé des questions rétrospectives portant sur l'ensemble de la période d'observation. Les flux bruts entre différents états discrets - toujours dans le système scolaire, sur le marché du travail mais inactif, sur le marché du travail et actif - peuvent ensuite être estimés à la fois à partir de donées prospectives et rétrospectives, et l'effet de mémoire peut être évalué. De plus, les conditions observées au moyen des deux techniques différentes peuvent être considérées comme deux indicateurs de la condition réelle non observable, ce qui nous amène à la spécification et à l'estimation d'un modèle de catégorie latente. Dans ce cadre de référence, une hypothèse de chaïne markovienne peut être introduite et évaluée de maniére à estimer les probabilités de transition entre les états, une fois ceux-ci corrigés ou les erreurs de classification. Puisque les renseignements collectés par la poste présentent une proportion importante de données manquantes sous forme de non-réponse d'unités, nous introduisons aussi la catégorie manquante dans le modèle applicable aux données prospectives.

    Date de diffusion : 1999-10-22

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19980015026
    Description :

    Le but de la présente étude est d'utiliser les données de panel de la Current Population Survey (CPS) pour examiner les effets de la non-réponse des unités. Étant donné que la plupart des non-répondants à la CPS sont des répondants durant au moins un mois de présence dans l'échantillon, on peut se servir des données relatives aux autres mois pour comparer les caractéristiques des personnes qui participent entièrement au panel avec les caractéristiques des non-répondants, ainsi que pour évaluer les méthodes de correction pour tenir compte de la non-réponse. Dans la présente communication, nous présentons des analyses fondées sur les données de panel de la CPS pour illustrer les effets de la non-réponse des unités. Après avoir apporté les corrections nécessaires pour tenir compte de l'absence de réponse, nous effectuons également des comparaisons visantà évaluer l'incidence de ces corrections. En outre, nous analysons la signification des constatations et les propositions de recherche ultérieure.

    Date de diffusion : 1999-10-22

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19980015027
    Description :

    La diffusion des résultats des enquêtes annuelles d'entreprise comporte immanquablement des statistiques en évolution. Comme l'univers économique est de plus en plus mouvant, une simple différence d'agrégats entre n-l et n ne suffit plus à décrire synthétiquement ce qui s'est passé. Le module de calcul d'évolution de la nouvelle génération d'EAE divise l'évolution en diverses composantes (naissances, cessations, changements de secteur), et détermine une évolution à champ constant en accordant une importance particulière aux restructurations. Les difficultés essentielles résident dans la détermination des sous-échantillons, la repondération, le recalage sur des évolutions calculables, et la prise en compte des restructurations.

    Date de diffusion : 1999-10-22

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19980015028
    Description :

    Nous abordons le problème de l'estimation des statistiques sur la dynamique du revenu calculées d'après les données d'enquêtes longitudinales complexes. En outre, nous comparons deux estimateurs (fondés sur le plan d'échantillonnage) de proportions longitudinales et de taux de transition, du point de vue de la variabilité, dans le cas de taux d'érosion élevé. Un des estimateurs est fondé sur des échantillons transversaux pour l'estimation des bornes de catégories de revenu à chaque période, ainsi que sur un échantillon longitudinal pour l'estimation des dénombrements longitudinaux. L'autre estimateur est entièrement fondé sur l'échantillon longitudinal pour l'estimation des bornes de catégories et pour les dénombrements longitudinaux. Nous établissons des estimateurs de variance par la linéarisation de Taylor, tant pour l'estimateur longitudinal que pour l'estimateur mixte, dans le cas où l'on présume qu'il n'y a aucun changement dans la population, et pour l'estimateur mixte, dans le cas où la population subit des changements.

    Date de diffusion : 1999-10-22

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19980015029
    Description :

    Dans le cas des enquêtes longitudinales, les sujets qui font partie de l'échantillon sont observés pendant plusieurs périodes. En général, cette caractéristique produit des observations dépendantes sur le même sujet, plus des corrélations ordinaires entre sujets résultant du plan d'échantillonnage. Nombre des travaux décrits dans la littérature portent surtout sur la modélisation de la moyenne marginale d'une réponse en fonction de covariables. Liang et Zeger (1986) se sont servis d'équations d'estimation généralisées nécessitant uniquement la spécification correcte de la moyenne marginale et ont obtenu les erreurs-types des estimations des paramètres de régression et les critères connexes du test de Wald, en supposant que les mesures répétées effectuées sur un sujet de l'échantillon présentent une structure de corrélation provisoire. Rotnitzky et Jewell (1990) ont développé des tests de quasi-résultat et des corrections de Rao-Scott aux tests de quasi-résultat provisoire dans le cadre de modèles marginaux. Ces méthodes sont asymptotiquement robustes en regard de la spécification erronée de la structure des corrélations propre à un sujet, mais supposent que les sujets de l'échantillon sont indépendants, ce qui n'est pas toujours vrai dans le cas de donneées d'enquêtes longitudinales complexes fondées sur un échantillonnage stratifié à plusieurs degrés. Nous proposons des tests de Wald et des tests de quasi-score asymptotiquement valides pour les données d'enquêtes longitudinales, fondés sur la méthode de linéarisation de Taylor et sur la méthode jackknife. Nous élaborons aussi d'autres tests, fondés sur les corrections apportées par Rao-Scott à des tests naïfs qui ne tiennent pas compte des caractéristiques du plan de sondage et sur les t de Bonferroni. Ces tests sont particulièrement utiles quand le nombre réel de degrés de liberté, ordinairement considéré comme égal au nombre total d'unités primaires dans l'échantillon (grappes) moins le nombre de strates, est petit.

    Date de diffusion : 1999-10-22
Date de modification :