Recherche par mot-clé

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Enquête ou programme statistique

80 facets displayed. 0 facets selected.

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (523)

Tout (523) (50 à 60 de 523 résultats)

  • Articles et rapports : 12-001-X201500114150
    Description :

    Une approche basée sur un modèle au niveau du domaine pour combiner des données provenant de plusieurs sources est examinée dans le contexte de l’estimation sur petits domaines. Pour chaque petit domaine, plusieurs estimations sont calculées et reliées au moyen d’un système de modèles d’erreur structurels. Le meilleur prédicteur linéaire sans biais du paramètre de petit domaine peut être calculé par la méthode des moindres carrés généralisés. Les paramètres des modèles d’erreur structurels sont estimés en s’appuyant sur la théorie des modèles d’erreur de mesure. L’estimation des erreurs quadratiques moyennes est également discutée. La méthode proposée est appliquée au problème réel des enquêtes sur la population active en Corée.

    Date de diffusion : 2015-06-29

  • Articles et rapports : 12-001-X201500114161
    Description :

    Le modèle de Fay Herriot est un modèle au niveau du domaine d’usage très répandu pour l’estimation des moyennes de petit domaine. Ce modèle contient des effets aléatoires en dehors de la régression linéaire (fixe) basée sur les covariables au niveau du domaine. Les meilleurs prédicteurs linéaires sans biais empiriques des moyennes de petit domaine s’obtiennent en estimant les effets aléatoires de domaine, et ils peuvent être exprimés sous forme d’une moyenne pondérée des estimateurs directs propres aux domaines et d’estimateurs synthétiques de type régression. Dans certains cas, les données observées n’appuient pas l’inclusion des effets aléatoires de domaine dans le modèle. L’exclusion de ces effets de domaine aboutit à l’estimateur synthétique de type régression, autrement dit un poids nul est appliqué à l’estimateur direct. L’étude porte sur un estimateur à test préliminaire d’une moyenne de petit domaine obtenu après l’exécution d’un test pour déceler la présence d’effets aléatoires de domaine. Parallèlement, elle porte sur les meilleurs prédicteurs linéaires sans biais empiriques des moyennes de petit domaine qui donnent toujours des poids non nuls aux estimateurs directs dans tous les domaines, ainsi que certains estimateurs de rechange basés sur le test préliminaire. La procédure de test préliminaire est également utilisée pour définir de nouveaux estimateurs de l’erreur quadratique moyenne des estimateurs ponctuels des moyennes de petit domaine. Les résultats d’une étude par simulation limitée montrent que, si le nombre de domaines est petit, la procédure d’essai préliminaire mène à des estimateurs de l’erreur quadratique moyenne présentant un biais relatif absolu moyen considérablement plus faible que les estimateurs de l’erreur quadratique moyenne usuels, surtout quand la variance des effets aléatoires est faible comparativement aux variances d’échantillonnage.

    Date de diffusion : 2015-06-29

  • Articles et rapports : 12-001-X201500114162
    Description :

    La mise en œuvre des opérations du Recensement de la population et du logement du Portugal est gérée par une structure hiérarchique dans laquelle Statistique Portugal se situe au sommet et les institutions gouvernementales locales, à la base. Quand le recensement a lieu, tous les 10 ans, Statistique Portugal demande aux administrations locales de collaborer avec lui à l’exécution et à la surveillance des opérations sur le terrain au niveau local. À l’étape de l’essai pilote du Recensement de 2011, on a demandé aux administrations locales une collaboration supplémentaire, à savoir répondre à un sondage sur la perception du risque, qui avait pour objectif de recueillir des renseignements en vue de concevoir un instrument d’assurance de la qualité pour surveiller les opérations du recensement. Le taux de réponse espéré au sondage était de 100 %, mais à l’échéance de la collecte des données, près du quart des administrations locales n’avaient pas répondu et il a donc été décidé de procéder à un suivi par la poste. Dans le présent article, nous examinons si nous aurions pu tirer les mêmes conclusions sans le suivi qu’avec celui-ci, et nous évaluons son influence sur la conception de l’instrument d’assurance de la qualité. La comparaison des réponses pour un ensemble de variables de perception a révélé que les réponses des administrations locales avant ou après le suivi ne différaient pas. Cependant, la configuration de l’instrument d’assurance de la qualité a changé lorsque l’on a inclus les réponses au suivi.

    Date de diffusion : 2015-06-29

  • Articles et rapports : 12-001-X201500114193
    Description :

    Les microdonnées imputées contiennent fréquemment des renseignements contradictoires. La situation peut découler, par exemple, d’une imputation partielle faisant qu’une partie de l’enregistrement imputé est constituée des valeurs observées de l’enregistrement original et l’autre, des valeurs imputées. Les règles de vérification qui portent sur des variables provenant des deux parties de l’enregistrement sont alors souvent enfreintes. L’incohérence peut aussi résulter d’un ajustement pour corriger des erreurs dans les données observées, aussi appelé imputation dans la vérification (imputation in editing). Sous l’hypothèse que l’incohérence persistante n’est pas due à des erreurs systématiques, nous proposons d’apporter des ajustements aux microdonnées de manière que toutes les contraintes soient satisfaites simultanément et que les ajustements soient minimaux selon une mesure de distance choisie. Nous examinons différentes approches de la mesure de distance, ainsi que plusieurs extensions de la situation de base, dont le traitement des données catégoriques, l’imputation totale et l’étalonnage à un macroniveau. Nous illustrons les propriétés et les interprétations des méthodes proposées au moyen de données économiques des entreprises.

    Date de diffusion : 2015-06-29

  • Articles et rapports : 82-003-X201500514170
    Description :

    Tous les participants à l’Enquête nationale sur la santé de la population âgés de 18 ans et plus ont été appelés à répondre à une question concernant les mauvais traitements physiques durant l’enfance aux cycles 1 (1994-1995), 7 (2006-2007) et 8 (2008-2009). On a évalué la fiabilité de cette question sur ces périodes. On a examiné les associations entre les modèles de réponse à la question sur les mauvais traitements et les problèmes de santé liés aux mauvais traitements physiques durant l’enfance.

    Date de diffusion : 2015-05-20

  • Enquêtes et programmes statistiques — Documentation : 75-005-M2015001
    Description :

    À partir de l'Enquête expérimentale sur le milieu du travail de 2011 ce document technique fait un résumé des principaux résultats de l'enquête et évalue la qualité des données.

    Date de diffusion : 2015-04-28

  • Avis et consultations : 12-002-X
    Description :

    Le Bulletin technique et d'information (BTI) des Centres de données de recherche (CDR) est un forum où les analystes de Statistique Canada et les personnes travaillant dans le milieu de la recherche peuvent communiquer entre eux au sujet de l'utilisation des données d'enquête et des techniques méthodologiques. Les articles du BTI seront axés sur l'analyse et la modélisation de données, la gestion des données ainsi que les pratiques exemplaires ou inefficaces sur le plan statistique, informatique et scientifique. De plus, les thèmes du BTI comprendront des articles portant sur le contenu des données, les répercussions de la formulation des questionnaires, la comparaison d'ensembles de données, les études traitant des méthodologies et de leur application, les particularités des données, les données problématiques et les solutions proposées et enfin la présentation d'outils novateurs utilisant les données des CDR et des logiciels appropriés. Tous ces articles permettront d'offrir des conseils et des exemples détaillés de commandes, d'habitudes, d'astuces et de stratégies pouvant aider les utilisateurs des CDR à résoudre des problèmes.

    Les principaux objectifs du BTI sont les suivants :

    - l'avancement et la diffusion des connaissances relatives aux données de Statistique Canada;- l'échange d'idées entre les utilisateurs des CDR;- l'aide aux nouveaux utilisateurs;- la collaboration avec les spécialistes et les divisions spécialisées de Statistique Canada.

    Le BTI vise la publication d'articles de qualité, dignes d'être diffusés dans le milieu de la recherche et susceptibles d'accroître la qualité des travaux effectués dans les CDR de Statistique Canada.

    Date de diffusion : 2015-03-25

  • Microdonnées à grande diffusion : 56M0001X
    Description :

    Le Centre de ressources Stentor Inc. a demandé à Statistique Canada de mener une enquête qui permette de surveiller le taux de pénétration du service téléphonique au Canada. L'enquête sert à déterminer si les répondants ont ou non une ligne téléphonique dans leur résidence et, si non, les raisons pour lesquelles ils n'en ont pas. Les caractéristiques sur le revenu des ménages interviewés sont également consignées.

    La gestion de l'enquête est passée de Stentor à Bell Canada à l'automne 1998.

    La capacité supplémentaire de l'Enquête sur la population active (EPA) est utilisée pour mener cette enquête semestrielle. On contacte un échantillon d'environ 44 000 répondants dans cette enquête (cinq des six groupes de renouvellement). Les données de l'enquête sont recueillies à l'aide de la méthode d'interview assistée par ordinateur (IAO). La première collecte des données a eu lieu au cours de la semaine de l'EPA de novembre 1996.

    Ce fichier de microdonnées est mis à jour deux fois par année et contient les variables de l'enquête en plus de variables géographiques de l'EPA (province, région métropolitaine de recensement, répartition urbaine et rurale). Aucune autre variable de l'EPA n'est ajoutée au fichier.

    Date de diffusion : 2014-12-12

  • Avis et consultations : 75-513-X2014001
    Description :

    Depuis l’année de référence 2012, des données annuelles sur le revenu des particuliers et des familles sont produites par l’Enquête canadienne sur le revenu (ECR). L’ECR est une enquête transversale visant à fournir des renseignements sur le revenu et les sources de revenu des Canadiens, de même que sur leurs caractéristiques personnelles et celles de leur ménage. L’ECR produit, dans une large mesure, les mêmes statistiques que l’Enquête sur la dynamique du travail et du revenu (EDTR), dont les dernières données sur le revenu portaient sur l’année de référence 2011. La présente note vise à décrire la méthodologie de l’ECR, ainsi que les principales différences dans les objectifs, la méthodologie et les questionnaires de l’ECR et de l’EDTR.

    Date de diffusion : 2014-12-10

  • Avis et consultations : 11-016-X
    Description :

    Le Bulletin d'information de Statistique Canada pour les collectivités offre des renseignements sur les données et les services de Statistique Canada à l'intention des personnes qui travaillent dans les organisations municipales et communautaires. Le bulletin d'information contient aussi des liens vers les communiqués du recensement et de l'Enquête nationale auprès des ménages, les vidéos, les didacticiels interactifs, les avis aux médias, les séances d'apprentissage et les présentations.

    Date de diffusion : 2014-11-20
Données (39)

Données (39) (40 à 50 de 39 résultats)

Aucun contenu disponible actuellement

Analyses (388)

Analyses (388) (30 à 40 de 388 résultats)

  • Articles et rapports : 12-001-X201400114000
    Description :

    Nous avons mis en œuvre la technique de linéarisation généralisée reposant sur le concept de fonction d’influence tout comme l’a fait Osier (2009) pour estimer la variance de statistiques complexes telles que les indices de Laeken. Des simulations réalisées avec le langage R montrent que, pour les cas où l’on a recours à une estimation par noyau gaussien de la fonction de densité des revenus considérés, on obtient un fort biais pour la valeur estimée de la variance. On propose deux autres méthodes pour estimer la densité qui diminuent fortement le biais constaté. L’une de ces méthodes a déjà été esquissée par Deville (2000). Les résultats publiés ici permettront une amélioration substantielle de la qualité des informations sur la précision de certains indices de Laeken diffusées et comparées internationalement.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201400114001
    Description :

    Le présent article traite de l’effet de différentes méthodes d’échantillonnage sur la qualité de l’échantillon réalisé. On s’attendait à ce que cet effet dépende de la mesure dans laquelle les intervieweurs ont la liberté d’interviewer des personnes avec lesquelles il leur est facile de prendre contact ou dont il leur est facile d’obtenir la coopération (donc d’effectuer des substitutions). L’analyse a été menée dans un contexte transculturel en utilisant des données provenant des quatre premières vagues de l’Enquête sociale européenne (ESS, pour European Social Survey). Les substitutions sont mesurées par les écarts par rapport au ratio hommes-femmes de 50/50 dans des sous-échantillons constitués de couples hétérosexuels. Des écarts importants ont été observés dans de nombreux pays qui participent à l’ESS. Ces écarts se sont également avérés les plus faibles lorsque des registres officiels de résidents avaient servi de base de sondage pour le tirage des échantillons (échantillonnage à partir de registres de personnes) dans le cas où l’un des conjoints était plus difficile à joindre que l’autre. Cette portée des substitutions ne variait pas d’une vague à l’autre de l’ESS et était faiblement corrélée au mode de rémunération et aux procédures de contrôle des intervieweurs. Les résultats permettent de conclure que les échantillons tirés de registres de personnes sont de plus haute qualité.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201400114002
    Description :

    Nous proposons une approche d’imputation multiple des réponses manquant aléatoirement dans les enquêtes à grande échelle qui ne portent que sur des variables catégoriques présentant des zéros structurels. Notre approche consiste à utiliser des mélanges de lois multinomiales comme outils d’imputation et à tenir compte des zéros structurels en concevant les données observées comme un échantillon tronqué issu d’une population hypothétique ne contenant pas de zéros structurels. Cette approche possède plusieurs caractéristiques intéressantes : les imputations sont générées à partir de modèles bayésiens conjoints cohérents qui tiennent compte automatiquement des dépendances complexes et s’adaptent facilement à de grands nombres de variables. Nous décrivons un algorithme d’échantillonnage de Gibbs pour mettre en œuvre l’approche et illustrons son potentiel au moyen d’une étude par échantillonnage répété en utilisant des microdonnées de recensement à grande diffusion provenant de l’État de New York, aux États Unis.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201400114003
    Description :

    Dans la littérature n’ayant pas trait aux sondages, il est fréquent de supposer que l’échantillonnage est effectué selon un processus aléatoire simple qui produit des échantillons indépendants et identiquement distribués (IID). De nombreuses méthodes statistiques sont élaborées en grande partie dans cet univers IID. Or, l’application de ces méthodes aux données provenant de sondages complexes en omettant de tenir compte des caractéristiques du plan de sondage peut donner lieu à des inférences erronées. Donc, beaucoup de temps et d’effort ont été consacrés à l’élaboration de méthodes statistiques permettant d’analyser les données d’enquêtes complexes en tenant compte du plan de sondage. Ce problème est particulièrement important lorsqu’on génère des populations synthétiques en faisant appel à l’inférence bayésienne en population finie, comme cela se fait souvent dans un contexte de données manquantes ou de risque de divulgation, ou lorsqu’on combine des données provenant de plusieurs enquêtes. En étendant les travaux antérieurs décrits dans la littérature sur le bootstrap bayésien en population finie, nous proposons une méthode pour produire des populations synthétiques à partir d’une loi prédictive a posteriori d’une façon qui inverse les caractéristiques du plan de sondage complexe et génère des échantillons aléatoires simples dans une optique de superpopulation, en ajustant les données complexes afin qu’elles puissent être analysées comme des échantillons aléatoires simples. Nous considérons une étude par simulation sous un plan de sondage en grappes stratifié avec probabilités inégales de sélection, et nous appliquons la méthode non paramétrique proposée pour produire des populations synthétiques pour la National Health Interview Survey (NHIS) et la Medical Expenditure Panel Survey (MEPS) de 2006, qui sont des enquêtes à plan de sondage en grappes stratifié avec probabilités inégales de sélection.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201400114004
    Description :

    En 2009, deux enquêtes importantes réalisées par la division des administrations publiques du U.S. Census Bureau ont été remaniées afin de réduire la taille de l’échantillon, d’économiser des ressources et d’améliorer la précision des estimations (Cheng, Corcoran, Barth et Hogue 2009). Sous le nouveau plan de sondage, chaque strate habituelle, définie par l’État et le type d’administration publique, qui contient un nombre suffisant d’unités (administrations publiques) est divisée en deux sous strates en fonction de la masse salariale totale de chaque unité afin de tirer un plus petit échantillon de la sous strate des unités de petite taille. L’approche assistée par modèle est adoptée pour estimer les totaux de population. Des estimateurs par la régression utilisant des variables auxiliaires sont obtenus soit pour chaque sous strate ainsi créée soit pour la strate originale en regroupant des deux sous strates. Cheng, Slud et Hogue (2010) ont proposé une méthode fondée sur un test de décision qui consiste à appliquer un test d’hypothèse pour décider quel estimateur par la régression sera utilisé pour chaque strate originale. La convergence et la normalité asymptotique de ces estimateurs assistés par modèle sont établies ici sous un cadre asymptotique fondé sur le plan de sondage ou assisté par modèle. Nos résultats asymptotiques suggèrent aussi deux types d’estimateurs de variance convergents, l’un obtenu par substitution des quantités inconnues dans les variances asymptotiques et l’autre en appliquant la méthode du bootstrap. La performance de tous les estimateurs des totaux et des estimateurs de leur variance est examinée au moyen d’études empiriques. L’Annual Survey of Public Employment and Payroll (ASPEP) des États Unis est utilisé pour motiver et illustrer notre étude.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201400114029
    Description :

    Fay et Train (1995) présentent une méthode qu’ils nomment successive difference replication, c.-à-d. répliques des différences successives, qui peut être utilisée pour estimer la variance d’un total estimé au moyen d’un échantillon aléatoire systématique tiré d’une liste ordonnée. L’estimateur prend la forme générale d’un estimateur de variance par rééchantillonnage, où les facteurs de rééchantillonnage sont construits de manière à imiter l’estimateur par différences successives. Cet estimateur est une modification de celui présenté dans Wolter (1985). Le présent article étend la méthodologie en expliquant l’effet de l’attribution des lignes de matrice sur l’estimateur de variance, en montrant comment un jeu réduit de répliques mène à un estimateur raisonnable et en établissant les conditions pour que la méthode des répliques des différences successives soit équivalente à l’estimateur par différences successives.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201400114030
    Description :

    L’article décrit les résultats d’une étude par simulation Monte Carlo réalisée en vue de comparer l’efficacité de quatre modèles hiérarchiques bayésiens d’estimation sur petits domaines pour estimer des proportions au niveau de l’État au moyen de données provenant d’échantillons aléatoires simples stratifiés tirés d’une population finie fixe. Deux des modèles reposent sur les hypothèses fréquentes selon lesquelles, pour chaque petit domaine échantillonné, la proportion pondérée par les poids de sondage estimée suit une loi normale et sa variance d’échantillonnage est connue. L’un de ces modèles comprend un modèle de lien linéaire et l’autre, un modèle de lien logistique. Les deux autres modèles utilisent tous deux un modèle de lien logistique et reposent sur l’hypothèse que la variance d’échantillonnage est inconnue. L’un de ces deux modèles suppose que le modèle d’échantillonnage obéit à une loi normale et l’autre, qu’il obéit à une loi bêta. L’étude montre que, pour chacun des quatre modèles, la couverture sous le plan de sondage de l’intervalle de crédibilité des proportions au niveau de l’État en population finie s’écarte considérablement du niveau nominal de 95 % utilisé pour construire les intervalles.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201300211884
    Description :

    Le présent article offre une solution au problème de la détermination de la stratification optimale de la base de sondage de la population disponible en vue de minimiser le coût de l'échantillon requis pour satisfaire aux contraintes de précision sur un ensemble d'estimations cibles différentes. La solution est recherchée en explorant l'univers de toutes les stratifications qu'il est possible d'obtenir par classification croisée des variables auxiliaires catégoriques disponibles dans la base de sondage (les variables auxiliaires continues peuvent être transformées en variables catégoriques par des méthodes appropriées). Par conséquent, l'approche suivie est multivariée en ce qui concerne les variables cibles ainsi que les variables auxiliaires. L'algorithme proposé est fondé sur une approche évolutionniste non déterministe qui fait appel au paradigme de l'algorithme génétique. La caractéristique principale de l'algorithme est que l'on considère chaque stratification possible comme un individu susceptible d'évoluer dont l'adaptation est mesurée par le coût de l'échantillon associé requis pour satisfaire à un ensemble de contraintes de précision, ce coût étant calculé en appliquant l'algorithme de Bethel pour une répartition multivariée. Cet algorithme de stratification optimale, implémenté dans un module (ou package) R (SamplingStrata), a été appliqué jusqu'à présent à un certain nombre d'enquêtes courantes à l'Institut national de statistique de l'Italie : les résultats montrent systématiquement une amélioration importante de l'efficacité des échantillons obtenus comparativement aux stratifications adoptées antérieurement.

    Date de diffusion : 2014-01-15

  • Articles et rapports : 12-001-X201300111823
    Description :

    Bien que l'utilisation de pondérations soit très répandue dans l'échantillonnage, leur justification ultime dans la perspective du plan de sondage pose souvent problème. Ici, nous argumentons en faveur d'une justification bayésienne séquentielle des pondérations qui ne dépend pas explicitement du plan de sondage. Cette approche s'appuie sur le type classique d'information présent dans les variables auxiliaires, mais ne suppose pas qu'un modèle relie les variables auxiliaires aux caractéristiques d'intérêt. La pondération résultante d'une unité de l'échantillon peut être interprétée de la manière habituelle comme étant le nombre d'unités de la population que cette unité représente.

    Date de diffusion : 2013-06-28

  • Articles et rapports : 12-001-X201300111824
    Description :

    Dans la plupart des enquêtes, le même traitement est réservé à toutes les unités échantillonnées et les mêmes caractéristiques de plan de collecte des données s'appliquent à toutes les personnes et à tous les ménages sélectionnés. Le présent article explique comment les plans de collecte des données peuvent être adaptés en vue d'optimiser la qualité, étant donné des contraintes de coûts. Ces types de plans sont appelés plans de collecte adaptatifs. Les éléments fondamentaux de ce genre de plans sont présentés, discutés et illustrés au moyen de divers exemples.

    Date de diffusion : 2013-06-28
Références (93)

Références (93) (0 à 10 de 93 résultats)

  • Enquêtes et programmes statistiques — Documentation : 89-653-X2024002
    Description : Ce guide vise à fournir un compte rendu détaillé des approches spécialisées et méthodologiques de l’EAPA et l’EAPA–SIN de 2022. Conçu pour les utilisateurs de données de l’EAPA et l’EAPA–SIN, ce guide décrit les concepts et les mesures de l’enquête, tout en abordant les détails techniques de la conception, les travaux sur le terrain et le traitement des données. Ce guide a pour objectif de fournir aux utilisateurs des renseignements utiles sur la façon d’utiliser et d’interpréter les résultats de l’enquête. De plus, une analyse de la qualité des données permet aux utilisateurs d’examiner les forces et les limites des données en fonction de leurs besoins particuliers.

    La section 1 du présent guide donne un aperçu de l’EAPA et de l’EAPA–SIN de 2022. Le contexte et les objectifs de l’enquête y sont également abordés. La section 2 traite des thèmes de l’EAPA et explique les principaux concepts et définitions utilisés dans le cadre de l’enquête. Les sections 3 à 6 portent sur des aspects importants de la méthodologie d’enquête, du plan d’échantillonnage, de la collecte des données et du traitement des données. Dans les sections 7 et 8, il est question des problèmes liés à la qualité des données et l’on met en garde les utilisateurs en ce qui a trait à la comparaison des données de l’EAPA ou de l’EAPA–SIN de 2022 avec celles issues d’autres sources. La section 9 présente les produits de l’enquête qui sont offerts au public, y compris les tableaux de données, les articles analytiques et les documents de référence. Les annexes fournissent une liste exhaustive des indicateurs de l’enquête, des catégories supplémentaires de codage et des classifications types utilisées dans le cadre de l’EAPA et l’EAPA–SIN. Enfin, on y trouve également un glossaire des termes relatifs à l’enquête ainsi que de l’information sur les intervalles de confiance.
    Date de diffusion : 2024-08-14

  • Enquêtes et programmes statistiques — Documentation : 73-506-G
    Description : Le Guide des statistiques de l’assurance-emploi (SAE) résume la méthodologie de l’enquête et contient un dictionnaire des concepts et définitions utilisées par le programme.
    Date de diffusion : 2024-07-18

  • Enquêtes et programmes statistiques — Documentation : 75-514-G
    Description : Le Guide de l'Enquête sur les postes vacants et les salaires contient un dictionnaire des concepts et définitions et traite de sujets tels que la méthodologie de l'enquête, la collecte et le traitement des données et la qualité des données. Le guide porte sur les deux volets de l'enquête, soit le volet sur les postes vacants, dont la fréquence est trimestrielle, et le volet sur les salaires, dont la fréquence est annuelle.
    Date de diffusion : 2024-06-18

  • Enquêtes et programmes statistiques — Documentation : 75-514-G2024001
    Description : Le Guide de l'Enquête sur les postes vacants et les salaires contient un dictionnaire des concepts et définitions et traite de sujets tels que la méthodologie de l'enquête, la collecte et le traitement des données et la qualité des données.
    Date de diffusion : 2024-06-18

  • Enquêtes et programmes statistiques — Documentation : 72-203-G
    Description : Le Guide de l'Enquête sur l'emploi, la rémunération et les heures de travail contient un dictionnaire des concepts et définitions et traite de sujets tels que la méthodologie de l'enquête, la collecte et le traitement des données et la qualité des données. Il contient également une description des produits et services d'information de même que le questionnaire de l'enquête.
    Date de diffusion : 2024-03-28

  • Enquêtes et programmes statistiques — Documentation : 84-538-X
    Géographie : Canada
    Description : Cette publication électronique présente la méthodologie sous-jacente à la production des tables de mortalité pour le Canada, les provinces et les territoires.
    Date de diffusion : 2023-08-28

  • Enquêtes et programmes statistiques — Documentation : 75-514-G2023001
    Description : Le Guide de l'Enquête sur les postes vacants et les salaires contient un dictionnaire des concepts et définitions et traite de sujets tels que la méthodologie de l'enquête, la collecte et le traitement des données et la qualité des données.
    Date de diffusion : 2023-05-25

  • Enquêtes et programmes statistiques — Documentation : 75-514-G2020001
    Description :

    Le Guide de l’Enquête sur les postes vacants et les salaires contient un dictionnaire de concepts et de définitions et traite de sujets tels que la méthodologie de l’enquête, la collecte et le traitement des données et la qualité des données.

    Date de diffusion : 2020-12-15

  • Enquêtes et programmes statistiques — Documentation : 71-543-G
    Description :

    Le Guide de l'Enquête sur la population active contient un dictionnaire des concepts et définitions et traite de sujets tels que la méthodologie de l'enquête, la collecte et le traitement des données, la qualité des données et les produits et services d'information. Il contient également une description géographique des régions infraprovinciales de même que le questionnaire de l'enquête.

    Date de diffusion : 2020-04-09

  • Enquêtes et programmes statistiques — Documentation : 12-539-X
    Description :

    Ce document réunit des lignes directrices et des listes de contrôles liées à de nombreuses questions dont on doit tenir compte dans la poursuite des objectifs de qualité que sous-tend l'exécution des activités statistiques. Le document s'attarde principalement à la façon d'assurer la qualité grâce à la conception ou à la restructuration efficace et adéquate d'un projet ou d'un programme statistique, des débuts jusqu'à l'évaluation, la diffusion et la documentation des données. Ces lignes directrices sont fondées sur les connaissances et l'expérience collective d'un grand nombre d'employés de Statistique Canada. On espère que les Lignes directrices concernant la qualité seront utiles au personnel chargé de la planification et de la conception des enquêtes et d'autres projets statistiques, ainsi qu'à ceux qui évaluent et analysent les résultats de ces projets.

    Date de diffusion : 2019-12-04
Date de modification :