Recherche par mot-clé

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Enquête ou programme statistique

80 facets displayed. 0 facets selected.

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (523)

Tout (523) (60 à 70 de 523 résultats)

  • Avis et consultations : 11-017-X
    Description :

    Le Bulletin d'information de Statistique Canada pour les petites et moyennes entreprises offre des renseignements sur les données et les services de Statistique Canada à l'intention des personnes travaillant dans le secteur des affaires. Le bulletin d'information contient aussi des liens vers les communiqués du recensement et de l'Enquête nationale auprès des ménages, les vidéos, les didacticiels interactifs, les avis aux médias, les séances d'apprentissage et les présentations.

    Date de diffusion : 2014-11-20

  • Articles et rapports : 12-001-X201400111886
    Description :

    L'estimateur bayésien linéaire en population finie est obtenu en partant d'un modèle de régression à deux degrés spécifié uniquement par les moyennes et les variances de certains paramètres du modèle associés à chaque degré de la hiérarchie. Nombre d'estimateurs fondés sur le plan de sondage usuels décrits dans la littérature peuvent être obtenus en tant que cas particuliers. Un nouvel estimateur par le ratio est également proposé pour la situation pratique où de l'information auxiliaire est disponible. L'application de la même approche bayésienne linéaire est proposée pour estimer des proportions pour des données catégoriques multiples associées aux unités de la population finie, ce qui constitue la principale contribution des présents travaux, et est illustrée au moyen d'un exemple numérique.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201400114000
    Description :

    Nous avons mis en œuvre la technique de linéarisation généralisée reposant sur le concept de fonction d’influence tout comme l’a fait Osier (2009) pour estimer la variance de statistiques complexes telles que les indices de Laeken. Des simulations réalisées avec le langage R montrent que, pour les cas où l’on a recours à une estimation par noyau gaussien de la fonction de densité des revenus considérés, on obtient un fort biais pour la valeur estimée de la variance. On propose deux autres méthodes pour estimer la densité qui diminuent fortement le biais constaté. L’une de ces méthodes a déjà été esquissée par Deville (2000). Les résultats publiés ici permettront une amélioration substantielle de la qualité des informations sur la précision de certains indices de Laeken diffusées et comparées internationalement.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201400114001
    Description :

    Le présent article traite de l’effet de différentes méthodes d’échantillonnage sur la qualité de l’échantillon réalisé. On s’attendait à ce que cet effet dépende de la mesure dans laquelle les intervieweurs ont la liberté d’interviewer des personnes avec lesquelles il leur est facile de prendre contact ou dont il leur est facile d’obtenir la coopération (donc d’effectuer des substitutions). L’analyse a été menée dans un contexte transculturel en utilisant des données provenant des quatre premières vagues de l’Enquête sociale européenne (ESS, pour European Social Survey). Les substitutions sont mesurées par les écarts par rapport au ratio hommes-femmes de 50/50 dans des sous-échantillons constitués de couples hétérosexuels. Des écarts importants ont été observés dans de nombreux pays qui participent à l’ESS. Ces écarts se sont également avérés les plus faibles lorsque des registres officiels de résidents avaient servi de base de sondage pour le tirage des échantillons (échantillonnage à partir de registres de personnes) dans le cas où l’un des conjoints était plus difficile à joindre que l’autre. Cette portée des substitutions ne variait pas d’une vague à l’autre de l’ESS et était faiblement corrélée au mode de rémunération et aux procédures de contrôle des intervieweurs. Les résultats permettent de conclure que les échantillons tirés de registres de personnes sont de plus haute qualité.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201400114002
    Description :

    Nous proposons une approche d’imputation multiple des réponses manquant aléatoirement dans les enquêtes à grande échelle qui ne portent que sur des variables catégoriques présentant des zéros structurels. Notre approche consiste à utiliser des mélanges de lois multinomiales comme outils d’imputation et à tenir compte des zéros structurels en concevant les données observées comme un échantillon tronqué issu d’une population hypothétique ne contenant pas de zéros structurels. Cette approche possède plusieurs caractéristiques intéressantes : les imputations sont générées à partir de modèles bayésiens conjoints cohérents qui tiennent compte automatiquement des dépendances complexes et s’adaptent facilement à de grands nombres de variables. Nous décrivons un algorithme d’échantillonnage de Gibbs pour mettre en œuvre l’approche et illustrons son potentiel au moyen d’une étude par échantillonnage répété en utilisant des microdonnées de recensement à grande diffusion provenant de l’État de New York, aux États Unis.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201400114003
    Description :

    Dans la littérature n’ayant pas trait aux sondages, il est fréquent de supposer que l’échantillonnage est effectué selon un processus aléatoire simple qui produit des échantillons indépendants et identiquement distribués (IID). De nombreuses méthodes statistiques sont élaborées en grande partie dans cet univers IID. Or, l’application de ces méthodes aux données provenant de sondages complexes en omettant de tenir compte des caractéristiques du plan de sondage peut donner lieu à des inférences erronées. Donc, beaucoup de temps et d’effort ont été consacrés à l’élaboration de méthodes statistiques permettant d’analyser les données d’enquêtes complexes en tenant compte du plan de sondage. Ce problème est particulièrement important lorsqu’on génère des populations synthétiques en faisant appel à l’inférence bayésienne en population finie, comme cela se fait souvent dans un contexte de données manquantes ou de risque de divulgation, ou lorsqu’on combine des données provenant de plusieurs enquêtes. En étendant les travaux antérieurs décrits dans la littérature sur le bootstrap bayésien en population finie, nous proposons une méthode pour produire des populations synthétiques à partir d’une loi prédictive a posteriori d’une façon qui inverse les caractéristiques du plan de sondage complexe et génère des échantillons aléatoires simples dans une optique de superpopulation, en ajustant les données complexes afin qu’elles puissent être analysées comme des échantillons aléatoires simples. Nous considérons une étude par simulation sous un plan de sondage en grappes stratifié avec probabilités inégales de sélection, et nous appliquons la méthode non paramétrique proposée pour produire des populations synthétiques pour la National Health Interview Survey (NHIS) et la Medical Expenditure Panel Survey (MEPS) de 2006, qui sont des enquêtes à plan de sondage en grappes stratifié avec probabilités inégales de sélection.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201400114004
    Description :

    En 2009, deux enquêtes importantes réalisées par la division des administrations publiques du U.S. Census Bureau ont été remaniées afin de réduire la taille de l’échantillon, d’économiser des ressources et d’améliorer la précision des estimations (Cheng, Corcoran, Barth et Hogue 2009). Sous le nouveau plan de sondage, chaque strate habituelle, définie par l’État et le type d’administration publique, qui contient un nombre suffisant d’unités (administrations publiques) est divisée en deux sous strates en fonction de la masse salariale totale de chaque unité afin de tirer un plus petit échantillon de la sous strate des unités de petite taille. L’approche assistée par modèle est adoptée pour estimer les totaux de population. Des estimateurs par la régression utilisant des variables auxiliaires sont obtenus soit pour chaque sous strate ainsi créée soit pour la strate originale en regroupant des deux sous strates. Cheng, Slud et Hogue (2010) ont proposé une méthode fondée sur un test de décision qui consiste à appliquer un test d’hypothèse pour décider quel estimateur par la régression sera utilisé pour chaque strate originale. La convergence et la normalité asymptotique de ces estimateurs assistés par modèle sont établies ici sous un cadre asymptotique fondé sur le plan de sondage ou assisté par modèle. Nos résultats asymptotiques suggèrent aussi deux types d’estimateurs de variance convergents, l’un obtenu par substitution des quantités inconnues dans les variances asymptotiques et l’autre en appliquant la méthode du bootstrap. La performance de tous les estimateurs des totaux et des estimateurs de leur variance est examinée au moyen d’études empiriques. L’Annual Survey of Public Employment and Payroll (ASPEP) des États Unis est utilisé pour motiver et illustrer notre étude.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201400114029
    Description :

    Fay et Train (1995) présentent une méthode qu’ils nomment successive difference replication, c.-à-d. répliques des différences successives, qui peut être utilisée pour estimer la variance d’un total estimé au moyen d’un échantillon aléatoire systématique tiré d’une liste ordonnée. L’estimateur prend la forme générale d’un estimateur de variance par rééchantillonnage, où les facteurs de rééchantillonnage sont construits de manière à imiter l’estimateur par différences successives. Cet estimateur est une modification de celui présenté dans Wolter (1985). Le présent article étend la méthodologie en expliquant l’effet de l’attribution des lignes de matrice sur l’estimateur de variance, en montrant comment un jeu réduit de répliques mène à un estimateur raisonnable et en établissant les conditions pour que la méthode des répliques des différences successives soit équivalente à l’estimateur par différences successives.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201400114030
    Description :

    L’article décrit les résultats d’une étude par simulation Monte Carlo réalisée en vue de comparer l’efficacité de quatre modèles hiérarchiques bayésiens d’estimation sur petits domaines pour estimer des proportions au niveau de l’État au moyen de données provenant d’échantillons aléatoires simples stratifiés tirés d’une population finie fixe. Deux des modèles reposent sur les hypothèses fréquentes selon lesquelles, pour chaque petit domaine échantillonné, la proportion pondérée par les poids de sondage estimée suit une loi normale et sa variance d’échantillonnage est connue. L’un de ces modèles comprend un modèle de lien linéaire et l’autre, un modèle de lien logistique. Les deux autres modèles utilisent tous deux un modèle de lien logistique et reposent sur l’hypothèse que la variance d’échantillonnage est inconnue. L’un de ces deux modèles suppose que le modèle d’échantillonnage obéit à une loi normale et l’autre, qu’il obéit à une loi bêta. L’étude montre que, pour chacun des quatre modèles, la couverture sous le plan de sondage de l’intervalle de crédibilité des proportions au niveau de l’État en population finie s’écarte considérablement du niveau nominal de 95 % utilisé pour construire les intervalles.

    Date de diffusion : 2014-06-27

  • Enquêtes et programmes statistiques — Documentation : 89-653-X2013002
    Description :

    L'Enquête auprès des peuples autochtones (EAPA) est une enquête nationale sur les conditions sociales et économiques des Premières Nations vivant hors réserve, des Métis et des Inuit âgés de six ans et plus. L'EAPA de 2012, qui représente le quatrième cycle de l'enquête, porte sur l'éducation, l'emploi et la santé.

    Le Guide des concepts et méthodes de l'EAPA de 2012 a été conçu pour aider les utilisateurs des données en leur fournissant des renseignements importants sur le contenu et les concepts de l'enquête, le plan d'échantillonnage, les méthodes de collecte, le traitement des données, la qualité des données et les produits offerts. Le chapitre 1 explique le contexte et les objectifs de l'enquête; le chapitre 2 fournit d'importantes définitions et décrit les thèmes de l'enquête; les chapitres 3 à 5 expliquent la conception de l'enquête et décrivent les étapes de collecte et de traitement des données; le chapitre 6 décrit la méthode de pondération utilisée; les chapitres 7 et 8 portent sur la qualité des données et la comparabilité des données de l'EAPA de 2012 avec des données d'autres sources; le chapitre 9 présente la liste les produits d'enquête offerts, dont des articles analytiques, des tableaux de données et des documents de référence. Enfin, les annexes fournissent des définitions additionnelles et des liens vers d'autres documents pertinents.

    Date de diffusion : 2014-02-20
Données (39)

Données (39) (40 à 50 de 39 résultats)

Aucun contenu disponible actuellement

Analyses (388)

Analyses (388) (40 à 50 de 388 résultats)

  • Articles et rapports : 12-001-X201300111825
    Description :

    Une limite importante des méthodes actuelles de vérification automatique des données tient au fait que toutes les vérifications sont traitées comme des contraintes fermes. Autrement dit, un rejet à la vérification suppose systématiquement une erreur dans les données. Par contre, dans le cas de la vérification manuelle, les spécialistes du domaine recourent aussi à de très nombreuses vérifications avec avertissement, c'est-à-dire des contraintes destinées à repérer les valeurs et combinaisons de valeurs qui sont suspectes mais pas forcément incorrectes. L'incapacité des méthodes de vérification automatique à traiter les vérifications avec avertissement explique partiellement pourquoi, en pratique, de nombreuses différences sont constatées entre les données vérifiées manuellement et celles vérifiées automatiquement. L'objet du présent article est de présenter une nouvelle formulation du problème de localisation des erreurs qui permet de faire la distinction entre les vérifications avec rejet (hard edits) et les vérifications avec avertissement (soft edits). En outre, il montre comment ce problème peut être résolu grâce à une extension de l'algorithme de localisation des erreurs de De Waal et Quere (2003).

    Date de diffusion : 2013-06-28

  • Articles et rapports : 12-001-X201300111826
    Description :

    Il est courant que les organismes d'enquête fournissent des poids de rééchantillonnage dans les fichiers de données d'enquête. Ces poids de rééchantillonnage servent à produire de manière simple et systématique des estimations valides et efficaces de la variance pour divers estimateurs. Cependant, la plupart des méthodes existantes de construction de poids de rééchantillonnage ne sont valides que pour des plans d'échantillonnage particuliers et nécessitent habituellement un très grand nombre de répliques. Dans le présent article, nous montrons d'abord comment produire les poids de rééchantillonnage en se basant sur la méthode décrite dans Fay (1984) de manière que l'estimateur de la variance par rééchantillonnage résultant soit algébriquement équivalent à l'estimateur de la variance par linéarisation entièrement efficace pour tout plan d'échantillonnage donné. Puis, nous proposons une nouvelle méthode de calage des poids afin que l'estimation soit simultanément efficace et parcimonieuse au sens où un petit nombre de jeux de poids de rééchantillonnage peuvent produire des estimateurs de la variance par rééchantillonnage valides et efficaces pour les paramètres de population importants. La méthode que nous proposons peut être conjuguée aux méthodes de rééchantillonnage existantes pour les enquêtes complexes à grande échelle. Nous discutons également de la validité des méthodes proposées et de leur extension à certains plans d'échantillonnage équilibrés. Les résultats de simulations montrent que les estimateurs de variance que nous proposons suivent très bien les probabilités de couverture des intervalles de confiance. Les stratégies que nous proposons auront vraisemblablement des répercussions sur la façon de produire les fichiers de données d'enquête à grande diffusion et d'analyser ces ensembles de données.

    Date de diffusion : 2013-06-28

  • Articles et rapports : 12-001-X201300111827
    Description :

    L'enquête SILC (Statistics on Income and Living Conditions) est une enquête européenne annuelle visant à mesurer la répartition des revenus, la pauvreté et les conditions de vie de la population. Elle est réalisée en Suisse depuis 2007 selon un schéma rotatif de quatre panels qui permet de produire à la fois des estimations transversales et des estimations longitudinales. Dans cet article, nous abordons le problème de l'estimation de la variance des indicateurs transversaux sur la pauvreté et l'exclusion sociale retenus par Eurostat. Nos calculs tiennent compte de la non-linéarité des estimateurs, de la non-réponse totale à différentes phases d'enquête, du sondage indirect et du calage. Nous adaptons la méthode d'estimation de variance en cas de non-réponse après un partage des poids proposée par Lavallée (2002) et obtenons un estimateur de variance asymptotiquement sans biais et très simple à programmer.

    Date de diffusion : 2013-06-28

  • Articles et rapports : 12-001-X201300111828
    Description :

    Une question fréquente concernant les enquêtes longitudinales est celle de savoir comment combiner les différentes cohortes. Dans le présent article, nous présentons une nouvelle méthode qui permet de combiner différentes cohortes et d'utiliser toutes les données à notre disposition dans une enquête longitudinale pour estimer les paramètres d'un modèle semi-paramétrique qui relie la variable réponse à un jeu de covariables. La procédure s'appuie sur la méthode des équations d'estimation généralisées pondérées pour traiter les données manquantes pour certaines vagues dans les enquêtes longitudinales. Notre méthode s'appuie, pour l'estimation des paramètres du modèle, sur un cadre de randomisation conjointe qui tient compte à la fois du modèle de superpopulation et de la sélection aléatoire selon le plan de sondage. Nous proposons aussi une méthode d'estimation de la variance sous le plan et sous randomisation conjointe. Pour illustrer la méthode, nous l'appliquons à l'enquête Survey of Doctorate Recipients réalisée par la National Science Foundation des États-Unis.

    Date de diffusion : 2013-06-28

  • Articles et rapports : 12-001-X201300111829
    Description :

    On recourt au sondage indirect quand la base de sondage ne coïncide pas avec la population cible, mais est reliée à celle-ci. L'estimation se fait alors par la Méthode généralisée du partage des poids (MGPP) qui est une procédure sans biais (voir Lavallée 2002, 2007). Dans le cas des enquêtes économiques, le sondage indirect s'applique comme suit : la base de sondage comprend les établissements, tandis que la population cible comprend les entreprises. Les entreprises sont sélectionnées au travers de leurs établissements. Cela permet de procéder à une stratification en fonction des caractéristiques des établissements au lieu de celles des entreprises. Comme les distributions des variables d'intérêt des établissements sont généralement très asymétriques (une faible proportion des établissements couvre la majeure partie de l'économie), la MGPP produit des estimations sans biais, mais dont la variance peut être importante. L'objectif du présent article est de proposer certaines corrections des poids en vue de réduire la variance des estimations dans le contexte des populations asymétriques, tout en maintenant l'absence de biais de la méthode. Après un court aperçu du sondage indirect et de la MGPP, nous décrivons les corrections qu'il faut apporter à cette dernière. Nous comparons les estimations obtenues en appliquant ces corrections à celles que donne la MGPP originale en nous servant d'un petit exemple numérique et de données réelles tirées du Registre des entreprises de Statistique Canada.

    Date de diffusion : 2013-06-28

  • Articles et rapports : 12-001-X201300111830
    Description :

    Nous considérons deux méthodes distinctes d'autocalage pour l'estimation des moyennes de petit domaine fondée sur le modèle au niveau du domaine de Fay-Herriot (FH), à savoir la méthode de You et Rao (2002) appliquée au modèle FH et la méthode de Wang, Fuller et Qu (2008) basée sur des modèles augmentés. Nous établissons un estimateur de l'erreur quadratique moyenne de prédiction (EQMP) de l'estimateur de You-Rao (YR) d'une moyenne de petit domaine qui, sous le modèle vrai, est correct jusqu'aux termes de deuxième ordre. Nous présentons les résultats d'une étude en simulation du biais relatif de l'estimateur de l'EQMP de l'estimateur YR et de l'estimateur de l'EQMP de l'estimateur de Wang, Fuller et Qu (WFQ) obtenu sous un modèle augmenté. Nous étudions aussi l'EQMP et les estimateurs de l'EQMP des estimateurs YR et WFQ obtenus sous un modèle mal spécifié.

    Date de diffusion : 2013-06-28

  • Articles et rapports : 12-001-X201300111831
    Description :

    Nous considérons une estimation prudente de la variance pour l'estimateur de Horvitz-Thompson d'un total de population sous des plans d'échantillonnage avec probabilités d'inclusion par paire nulles, appelés plans « non mesurables ». Nous décomposons l'estimateur de variance de Horvitz-Thompson classique sous ce genre de plan et caractérisons le biais de manière précise. Nous élaborons une correction du biais qui est garantie d'être faiblement prudente (non biaisée négativement) quelle que soit la nature de la non-mesurabilité. L'analyse jette de la lumière sur les conditions sous lesquelles l'estimateur de variance de Horvitz-Thompson classique donne de bons résultats malgré la non-mesurabilité et où la correction du biais prudente peut être meilleure que les approximations utilisées habituellement.

    Date de diffusion : 2013-06-28

  • Articles et rapports : 82-003-X201300511792
    Géographie : Canada
    Description :

    Le présent document décrit la mise en oeuvre de la composante sur l'air intérieur de l'Enquête canadienne sur les mesures de la santé et présente de l'information sur les taux de réponse et les résultats des échantillons de contrôle de la qualité sur le terrain.

    Date de diffusion : 2013-05-15

  • Articles et rapports : 89-648-X2013001
    Géographie : Canada
    Description :

    À l'automne 2008, Statistique Canada, en collaboration avec Ressources humaines et Développement social Canada (RHDSC) et le milieu universitaire canadien, a réalisé, sur le terrain, l'Enquête pilote par panel auprès des ménages canadiens (EPMC pilote). Le présent document décrit l'historique du projet, les mesures prises pour élaborer l'enquête pilote et les résultats d'une série d'analyses des données recueillies.

    Date de diffusion : 2013-01-24

  • Articles et rapports : 12-001-X201200211751
    Description :

    La qualité des enquêtes est un concept multidimensionnel issu de deux démarches de développement distinctes. La première démarche suit le paradigme de l'erreur d'enquête totale, qui repose sur quatre piliers dont émanent les principes qui guident la conception de l'enquête, sa mise en oeuvre, son évaluation et l'analyse des données. Nous devons concevoir les enquêtes de façon que l'erreur quadratique moyenne d'une estimation soit minimisée compte tenu du budget et d'autres contraintes. Il est important de tenir compte de toutes les sources connues d'erreur, de surveiller les principales d'entre elles durant la mise en oeuvre, d'évaluer périodiquement les principales sources d'erreur et les combinaisons de ces sources après l'achèvement de l'enquête, et d'étudier les effets des erreurs sur l'analyse des données. Dans ce contexte, on peut mesurer la qualité d'une enquête par l'erreur quadratique moyenne, la contrôler par des observations faites durant la mise en oeuvre et l'améliorer par des études d'évaluation. Le paradigme possède des points forts et des points faibles. L'un des points forts tient au fait que la recherche peut être définie en fonction des sources d'erreur et l'un des points faibles, au fait que la plupart des évaluations de l'erreur d'enquête totale sont incomplètes, en ce sens qu'il est impossible d'inclure les effets de toutes les sources. La deuxième démarche est influencée par des idées empruntées aux sciences de la gestion de la qualité. Ces sciences ont pour objet de permettre aux entreprises d'exceller dans la fourniture de produits et de services en se concentrant sur leurs clients et sur la concurrence. Ces idées ont eu une très grande influence sur de nombreux organismes statistiques. Elles ont notamment amené les fournisseurs de données à reconnaître qu'un produit de qualité ne peut pas être obtenu si la qualité des processus sous-jacents n'est pas suffisante et que des processus de qualité suffisante ne peuvent pas être obtenus sans une bonne qualité organisationnelle. Ces divers niveaux peuvent être contrôlés et évalués au moyen d'ententes sur le niveau de service, de sondages auprès des clients, d'analyses des paradonnées en recourant au contrôle statistique des processus et d'évaluations organisationnelles en se servant de modèles d'excellence opérationnelle ou d'autres ensembles de critères. À tous les niveaux, on peut rehausser la qualité en lançant des projets d'amélioration choisis selon des fonctions de priorité. L'objectif ultime de ces projets d'amélioration est que les processus concernés s'approchent progressivement d'un état où ils sont exempts d'erreur. Naturellement, il pourrait s'agir d'un objectif impossible à atteindre, mais auquel il faut tenter de parvenir. Il n'est pas raisonnable d'espérer obtenir des mesures continues de l'erreur d'enquête totale en se servant de l'erreur quadratique moyenne. Au lieu de cela, on peut espérer qu'une amélioration continue de la qualité par l'application des idées des sciences de la gestion ainsi que des méthodes statistiques permettra de minimiser les biais et d'autres problèmes que posent les processus d'enquête, afin que la variance devienne une approximation de l'erreur quadratique moyenne. Si nous y arrivons, nous aurons fait coïncider approximativement les deux démarches de développement.

    Date de diffusion : 2012-12-19
Références (93)

Références (93) (0 à 10 de 93 résultats)

  • Enquêtes et programmes statistiques — Documentation : 89-653-X2024002
    Description : Ce guide vise à fournir un compte rendu détaillé des approches spécialisées et méthodologiques de l’EAPA et l’EAPA–SIN de 2022. Conçu pour les utilisateurs de données de l’EAPA et l’EAPA–SIN, ce guide décrit les concepts et les mesures de l’enquête, tout en abordant les détails techniques de la conception, les travaux sur le terrain et le traitement des données. Ce guide a pour objectif de fournir aux utilisateurs des renseignements utiles sur la façon d’utiliser et d’interpréter les résultats de l’enquête. De plus, une analyse de la qualité des données permet aux utilisateurs d’examiner les forces et les limites des données en fonction de leurs besoins particuliers.

    La section 1 du présent guide donne un aperçu de l’EAPA et de l’EAPA–SIN de 2022. Le contexte et les objectifs de l’enquête y sont également abordés. La section 2 traite des thèmes de l’EAPA et explique les principaux concepts et définitions utilisés dans le cadre de l’enquête. Les sections 3 à 6 portent sur des aspects importants de la méthodologie d’enquête, du plan d’échantillonnage, de la collecte des données et du traitement des données. Dans les sections 7 et 8, il est question des problèmes liés à la qualité des données et l’on met en garde les utilisateurs en ce qui a trait à la comparaison des données de l’EAPA ou de l’EAPA–SIN de 2022 avec celles issues d’autres sources. La section 9 présente les produits de l’enquête qui sont offerts au public, y compris les tableaux de données, les articles analytiques et les documents de référence. Les annexes fournissent une liste exhaustive des indicateurs de l’enquête, des catégories supplémentaires de codage et des classifications types utilisées dans le cadre de l’EAPA et l’EAPA–SIN. Enfin, on y trouve également un glossaire des termes relatifs à l’enquête ainsi que de l’information sur les intervalles de confiance.
    Date de diffusion : 2024-08-14

  • Enquêtes et programmes statistiques — Documentation : 73-506-G
    Description : Le Guide des statistiques de l’assurance-emploi (SAE) résume la méthodologie de l’enquête et contient un dictionnaire des concepts et définitions utilisées par le programme.
    Date de diffusion : 2024-07-18

  • Enquêtes et programmes statistiques — Documentation : 75-514-G
    Description : Le Guide de l'Enquête sur les postes vacants et les salaires contient un dictionnaire des concepts et définitions et traite de sujets tels que la méthodologie de l'enquête, la collecte et le traitement des données et la qualité des données. Le guide porte sur les deux volets de l'enquête, soit le volet sur les postes vacants, dont la fréquence est trimestrielle, et le volet sur les salaires, dont la fréquence est annuelle.
    Date de diffusion : 2024-06-18

  • Enquêtes et programmes statistiques — Documentation : 75-514-G2024001
    Description : Le Guide de l'Enquête sur les postes vacants et les salaires contient un dictionnaire des concepts et définitions et traite de sujets tels que la méthodologie de l'enquête, la collecte et le traitement des données et la qualité des données.
    Date de diffusion : 2024-06-18

  • Enquêtes et programmes statistiques — Documentation : 72-203-G
    Description : Le Guide de l'Enquête sur l'emploi, la rémunération et les heures de travail contient un dictionnaire des concepts et définitions et traite de sujets tels que la méthodologie de l'enquête, la collecte et le traitement des données et la qualité des données. Il contient également une description des produits et services d'information de même que le questionnaire de l'enquête.
    Date de diffusion : 2024-03-28

  • Enquêtes et programmes statistiques — Documentation : 84-538-X
    Géographie : Canada
    Description : Cette publication électronique présente la méthodologie sous-jacente à la production des tables de mortalité pour le Canada, les provinces et les territoires.
    Date de diffusion : 2023-08-28

  • Enquêtes et programmes statistiques — Documentation : 75-514-G2023001
    Description : Le Guide de l'Enquête sur les postes vacants et les salaires contient un dictionnaire des concepts et définitions et traite de sujets tels que la méthodologie de l'enquête, la collecte et le traitement des données et la qualité des données.
    Date de diffusion : 2023-05-25

  • Enquêtes et programmes statistiques — Documentation : 75-514-G2020001
    Description :

    Le Guide de l’Enquête sur les postes vacants et les salaires contient un dictionnaire de concepts et de définitions et traite de sujets tels que la méthodologie de l’enquête, la collecte et le traitement des données et la qualité des données.

    Date de diffusion : 2020-12-15

  • Enquêtes et programmes statistiques — Documentation : 71-543-G
    Description :

    Le Guide de l'Enquête sur la population active contient un dictionnaire des concepts et définitions et traite de sujets tels que la méthodologie de l'enquête, la collecte et le traitement des données, la qualité des données et les produits et services d'information. Il contient également une description géographique des régions infraprovinciales de même que le questionnaire de l'enquête.

    Date de diffusion : 2020-04-09

  • Enquêtes et programmes statistiques — Documentation : 12-539-X
    Description :

    Ce document réunit des lignes directrices et des listes de contrôles liées à de nombreuses questions dont on doit tenir compte dans la poursuite des objectifs de qualité que sous-tend l'exécution des activités statistiques. Le document s'attarde principalement à la façon d'assurer la qualité grâce à la conception ou à la restructuration efficace et adéquate d'un projet ou d'un programme statistique, des débuts jusqu'à l'évaluation, la diffusion et la documentation des données. Ces lignes directrices sont fondées sur les connaissances et l'expérience collective d'un grand nombre d'employés de Statistique Canada. On espère que les Lignes directrices concernant la qualité seront utiles au personnel chargé de la planification et de la conception des enquêtes et d'autres projets statistiques, ainsi qu'à ceux qui évaluent et analysent les résultats de ces projets.

    Date de diffusion : 2019-12-04
Date de modification :