Recherche par mot-clé
Filtrer les résultats par
Aide à la rechercheMot(s)-clé(s)
Sujet
- Sélectionné: Méthodes statistiques (88)
- Analyse des données (10)
- Assurance de la qualité (5)
- Bases de sondage et couverture (2)
- Collecte et questionnaires (21)
- Contrôle de la divulgation et diffusion de données (1)
- Données administratives (11)
- Histoire et contexte (5)
- Inférence et fondements (6)
- Plan de sondage (10)
- Pondération et estimation (19)
- Réponse et non-réponse (4)
- Séries chronologiques (1)
- Simulations (3)
- Techniques statistiques (5)
- Vérification et imputation (7)
- Autre contenu lié aux Méthodes statistiques (6)
Type
Enquête ou programme statistique
- Enquête canadienne sur les mesures de la santé (2)
- Registre canadien du cancer (1)
- Enquête auprès des peuples autochtones (1)
- Enquête sur les dépenses des ménages (1)
- Enquête sociale générale - Identité sociale (1)
- Enquête nationale auprès des ménages (1)
- Statistiques de finances publiques canadiennes (1)
Résultats
Tout (88)
Tout (88) (0 à 10 de 88 résultats)
- Articles et rapports : 12-001-X201400214089Description :
Le présent document décrit l’utilisation de l’imputation multiple pour combiner l’information de plusieurs enquêtes de la même population sous-jacente. Nous utilisons une nouvelle méthode pour générer des populations synthétiques de façon non paramétrique à partir d’un bootstrap bayésien fondé sur une population finie qui tient systématiquement compte des plans d’échantillonnage complexes. Nous analysons ensuite chaque population synthétique au moyen d’un logiciel standard de données complètes pour les échantillons aléatoires simples et obtenons une inférence valide en combinant les estimations ponctuelles et de variance au moyen des extensions de règles de combinaison existantes pour les données synthétiques. Nous illustrons l’approche en combinant les données de la National Health Interview Survey (NHIS) de 2006 et de la Medical Expenditure Panel Survey (MEPS) de 2006.
Date de diffusion : 2014-12-19 - 2. Méthodes d'estimation sur bases de sondage multiples dans le cadre de plans de sondage à deux degrés ArchivéArticles et rapports : 12-001-X201400214090Description :
Lorsqu'on s'intéresse à une population finie, il arrive qu'il soit nécessaire de tirer des échantillons dans plusieurs bases de sondage pour représenter l'ensemble des individus. Nous nous intéressons ici au cas de deux échantillons sélectionnés selon un plan à deux degrés, avec un premier degré de tirage commun. Nous appliquons les méthodes de Hartley (1962), Bankier (1986), et Kalton et Anderson (1986), et nous montrons que ces méthodes peuvent être appliquées conditionnellement au premier degré de tirage. Nous comparons également la performance de plusieurs estimateurs dans le cadre d'une étude par simulations. Nos résultats suggèrent que le choix d'un estimateur en présence de bases de sondage multiples se fasse de façon prudente, et qu'un estimateur simple est parfois préférable même s'il n'utilise qu'une partie de l'information collectée.
Date de diffusion : 2014-12-19 - Articles et rapports : 12-001-X201400214091Description :
L’imputation fractionnaire paramétrique (IFP) proposée par Kim (2011) est un outil d’estimation des paramètres à usage général en cas de données manquantes. Nous proposons une imputation fractionnaire hot deck (IFHD), qui est plus robuste que l’IFP ou l’imputation multiple. Selon la méthode proposée, les valeurs imputées sont choisies parmi l’ensemble des répondants, et des pondérations fractionnaires appropriées leur sont assignées. Les pondérations sont ensuite ajustées pour répondre à certaines conditions de calage, ce qui garantit l’efficacité de l’estimateur IFHD résultant. Deux études de simulation sont présentées afin de comparer la méthode proposée aux méthodes existantes.
Date de diffusion : 2014-12-19 - Articles et rapports : 12-001-X201400214092Description :
Les méthodologistes d’enquête étudient depuis longtemps les effets des intervieweurs sur la variance des estimations d’enquête. Les modèles statistiques tenant compte des effets aléatoires des intervieweurs sont souvent intégrés à ce genre d’études, et l’intérêt de la recherche repose sur l’ampleur de la composante de la variance de l’intervieweur. Une question peut se poser au cours d’une étude méthodologique : différents groupes d’intervieweurs (p. ex. ceux ayant de l’expérience relative à une enquête donnée par rapport aux nouvelles recrues, ou les intervieweurs IPAO par rapport aux intervieweurs ITAO) ont-ils des composantes de variance considérablement différentes dans ces modèles? Des écarts importants peuvent indiquer un besoin de formation supplémentaire pour certains sous-groupes, les propriétés moins optimales de différents modes ou styles d’interview pour certaines questions d’enquête (en ce qui concerne l’erreur quadratique moyenne globale des estimations d’enquête). Les chercheurs d’enquête désirant des réponses à ces types de questions disposent de différents outils statistiques. Le présent article cherche à fournir un aperçu des approches fréquentiste et bayésienne de rechange de la comparaison des composantes de la variance dans différents groupes d’intervieweurs d’enquête, au moyen d’un cadre de modélisation linéaire généralisée hiérarchique qui tient compte de différents types de variables d’enquête. Nous considérons d’abord les avantages et les limites de chaque approche, en comparant les méthodes utilisées pour l’estimation et l’inférence. Nous présentons ensuite une étude de simulation, en évaluant de façon empirique la capacité de chaque approche d’estimer efficacement les différences entre les composantes de la variance. Nous appliquons alors les deux approches à une analyse des données d’enquête réelles recueillies dans le cadre de la National Survey of Family Growth (NSFG) aux États-Unis. Nous concluons que les deux approches ont tendance à donner des inférences très semblables et nous présentons des suggestions à mettre en pratique, compte tenu des différences subtiles observées.
Date de diffusion : 2014-12-19 - Articles et rapports : 12-001-X201400214096Description :
Afin d’obtenir une meilleure couverture de la population d’intérêt et de réduire les coûts, un certain nombre d’enquêtes s’appuient sur un plan à base de sondage double, suivant lequel des échantillons indépendants sont tirés de deux bases de sondage chevauchantes. La présente étude porte sur les tests du khi-carré dans les enquêtes à base de sondage double en présence de données catégoriques. Nous étendons le test de Wald généralisé (Wald 1943), ainsi que les tests avec correction d’ordre un et correction d’ordre deux de Rao-Scott (Rao et Scott 1981) pour passer d’une enquête à base de sondage unique à une enquête à base de sondage double, et nous déterminons les distributions asymptotiques. Des simulations montrent que les deux tests avec correction de type Rao-Scott donnent de bons résultats, et il est donc recommandé de les utiliser dans les enquêtes à base de sondage double. Un exemple sert à illustrer l’utilisation des tests élaborés.
Date de diffusion : 2014-12-19 - Articles et rapports : 12-001-X201400214097Description :
Lorsque les enquêtes mensuelles auprès des entreprises ne sont pas entièrement chevauchantes, il existe deux estimateurs différents du taux de croissance mensuelle du chiffre d’affaires, i) l’un fondé sur les totaux de population estimés mensuellement et ii) l’autre fondé purement sur les entreprises observées aux deux occasions dans la partie chevauchante des enquêtes correspondantes. Les estimations et les variances résultantes pourraient être assez différentes. Le présent article a pour but de proposer un estimateur composite optimal du taux de croissance, ainsi que des totaux de population.
Date de diffusion : 2014-12-19 - Articles et rapports : 12-001-X201400214110Description :
Quand nous élaborons le plan de sondage d’une enquête, nous essayons de produire un bon plan compte tenu du budget disponible. L’information sur les coûts peut être utilisée pour établir des plans de sondage qui minimisent la variance d’échantillonnage d’un estimateur du total pour un coût fixe. Les progrès dans le domaine des systèmes de gestion d’enquête signifient qu’aujourd’hui, il est parfois possible d’estimer le coût d’inclusion de chaque unité dans l’échantillon. Le présent article décrit l’élaboration d’approches relativement simples pour déterminer si les avantages pouvant découler de l’utilisation de cette information sur les coûts au niveau de l’unité sont susceptibles d’avoir une utilité pratique. Nous montrons que le facteur important est le ratio du coefficient de variation du coût sur le coefficient de variation de l’erreur relative des coefficients de coût estimés.
Date de diffusion : 2014-12-19 - Articles et rapports : 12-001-X201400214113Description :
Les enquêtes par panel à renouvellement servent à calculer des estimations des flux bruts entre deux périodes consécutives de mesure. Le présent article examine une procédure générale pour estimer les flux bruts lorsque l’enquête par panel à renouvellement a été générée à partir d’un plan de sondage complexe avec non-réponse aléatoire. Une approche à pseudo-maximum de vraisemblance est envisagée dans le contexte d’un modèle à deux degrés de chaînes de Markov pour le classement des personnes dans les catégories de l’enquête et pour la modélisation de la non-réponse.
Date de diffusion : 2014-12-19 - Articles et rapports : 12-001-X201400214118Description :
L’agrégation bootstrap est une puissante méthode de calcul utilisée pour améliorer la performance des estimateurs inefficaces. Le présent article est le premier à explorer l’utilisation de l’agrégation bootstrap dans l’estimation par sondage. Nous y examinons les effets de l’agrégation bootstrap sur les estimateurs d’enquête non différenciables, y compris les fonctions de répartition de l’échantillon et les quantiles. Les propriétés théoriques des estimateurs d’enquête agrégés par bootstrap sont examinées sous le régime fondé sur le plan de sondage et le régime fondé sur le modèle. En particulier, nous montrons la convergence par rapport au plan des estimateurs agrégés par bootstrap et obtenons la normalité asymptotique des estimateurs dans un contexte fondé sur le modèle. L’article explique comment la mise en oeuvre de l’agrégation bootstrap des estimateurs d’enquête peut tirer parti des répliques produites pour l’estimation par sondage de la variance, facilitant l’application de l’agrégation bootstrap dans les enquêtes existantes. Un autre défi important dans la mise en oeuvre de l’agrégation bootstrap en contexte d’enquête est l’estimation de la variance pour les estimateurs agrégés par bootstrap eux-mêmes, et nous examinons deux façons possibles d’estimer la variance. Les expériences par simulation révèlent une amélioration de l’estimateur par agrégation bootstrap proposé par rapport à l’estimateur original et comparent les deux approches d’estimation de la variance.
Date de diffusion : 2014-12-19 - 10. Solutions optimales dans les problèmes de sélection contrôlée avec stratification à deux dimensions ArchivéArticles et rapports : 12-001-X201400214119Description :
Lorsqu’on envisage la stratification d’un échantillon en fonction de plusieurs variables, on se trouve souvent dans la situation où le nombre prévu d’unités de l’échantillon qui doivent être sélectionnées dans chaque strate est très petit et où le nombre total d’unités à sélectionner est plus petit que le nombre total de strates. Ces plans de sondage stratifiés sont représentés spécifiquement par des tableaux contenant des nombres réels, appelés problèmes de sélection contrôlée, et ne peuvent pas être résolus par les méthodes classiques de répartition. Depuis une soixantaine d’années, de nombreux algorithmes ont été examinés pour résoudre ces problèmes, à commencer par celui de Goodman et Kish (1950). Ceux qui ont été élaborés plus récemment sont particulièrement exigeants du point de vue informatique et trouvent toujours les solutions. Cependant, la question qui demeure sans réponse est celle de savoir dans quel sens les solutions d’un problème de sélection contrôlée obtenues au moyen de ces algorithmes sont optimales. Nous introduisons le concept général des solutions optimales, et nous proposons un nouvel algorithme de sélection contrôlée fondé sur des fonctions de distance type pour obtenir ces solutions. Cet algorithme peut être exécuté facilement par un nouveau logiciel basé sur SAS. La présente étude porte sur les plans de sondage avec stratification à deux dimensions. Les solutions de sélection contrôlée issues du nouvel algorithme sont comparées à celles obtenues au moyen des algorithmes existants, en se fondant sur plusieurs exemples. Le nouvel algorithme arrive à fournir des solutions robustes aux problèmes de sélection contrôlée à deux dimensions qui satisfont aux critères d’optimalité.
Date de diffusion : 2014-12-19
- Précédent Go to previous page of Tout results
- 1 (actuel) Aller à la page 1 des résultats «!tag»
- 2 Aller à la page 2 des résultats «!tag»
- 3 Aller à la page 3 des résultats «!tag»
- 4 Aller à la page 4 des résultats «!tag»
- 5 Aller à la page 5 des résultats «!tag»
- 6 Aller à la page 6 des résultats «!tag»
- 7 Aller à la page 7 des résultats «!tag»
- 8 Aller à la page 8 des résultats «!tag»
- 9 Aller à la page 9 des résultats «!tag»
- Suivant Go to next page of Tout results
Données (0)
Données (0) (0 résultat)
Aucun contenu disponible actuellement
Analyses (72)
Analyses (72) (0 à 10 de 72 résultats)
- Articles et rapports : 12-001-X201400214089Description :
Le présent document décrit l’utilisation de l’imputation multiple pour combiner l’information de plusieurs enquêtes de la même population sous-jacente. Nous utilisons une nouvelle méthode pour générer des populations synthétiques de façon non paramétrique à partir d’un bootstrap bayésien fondé sur une population finie qui tient systématiquement compte des plans d’échantillonnage complexes. Nous analysons ensuite chaque population synthétique au moyen d’un logiciel standard de données complètes pour les échantillons aléatoires simples et obtenons une inférence valide en combinant les estimations ponctuelles et de variance au moyen des extensions de règles de combinaison existantes pour les données synthétiques. Nous illustrons l’approche en combinant les données de la National Health Interview Survey (NHIS) de 2006 et de la Medical Expenditure Panel Survey (MEPS) de 2006.
Date de diffusion : 2014-12-19 - 2. Méthodes d'estimation sur bases de sondage multiples dans le cadre de plans de sondage à deux degrés ArchivéArticles et rapports : 12-001-X201400214090Description :
Lorsqu'on s'intéresse à une population finie, il arrive qu'il soit nécessaire de tirer des échantillons dans plusieurs bases de sondage pour représenter l'ensemble des individus. Nous nous intéressons ici au cas de deux échantillons sélectionnés selon un plan à deux degrés, avec un premier degré de tirage commun. Nous appliquons les méthodes de Hartley (1962), Bankier (1986), et Kalton et Anderson (1986), et nous montrons que ces méthodes peuvent être appliquées conditionnellement au premier degré de tirage. Nous comparons également la performance de plusieurs estimateurs dans le cadre d'une étude par simulations. Nos résultats suggèrent que le choix d'un estimateur en présence de bases de sondage multiples se fasse de façon prudente, et qu'un estimateur simple est parfois préférable même s'il n'utilise qu'une partie de l'information collectée.
Date de diffusion : 2014-12-19 - Articles et rapports : 12-001-X201400214091Description :
L’imputation fractionnaire paramétrique (IFP) proposée par Kim (2011) est un outil d’estimation des paramètres à usage général en cas de données manquantes. Nous proposons une imputation fractionnaire hot deck (IFHD), qui est plus robuste que l’IFP ou l’imputation multiple. Selon la méthode proposée, les valeurs imputées sont choisies parmi l’ensemble des répondants, et des pondérations fractionnaires appropriées leur sont assignées. Les pondérations sont ensuite ajustées pour répondre à certaines conditions de calage, ce qui garantit l’efficacité de l’estimateur IFHD résultant. Deux études de simulation sont présentées afin de comparer la méthode proposée aux méthodes existantes.
Date de diffusion : 2014-12-19 - Articles et rapports : 12-001-X201400214092Description :
Les méthodologistes d’enquête étudient depuis longtemps les effets des intervieweurs sur la variance des estimations d’enquête. Les modèles statistiques tenant compte des effets aléatoires des intervieweurs sont souvent intégrés à ce genre d’études, et l’intérêt de la recherche repose sur l’ampleur de la composante de la variance de l’intervieweur. Une question peut se poser au cours d’une étude méthodologique : différents groupes d’intervieweurs (p. ex. ceux ayant de l’expérience relative à une enquête donnée par rapport aux nouvelles recrues, ou les intervieweurs IPAO par rapport aux intervieweurs ITAO) ont-ils des composantes de variance considérablement différentes dans ces modèles? Des écarts importants peuvent indiquer un besoin de formation supplémentaire pour certains sous-groupes, les propriétés moins optimales de différents modes ou styles d’interview pour certaines questions d’enquête (en ce qui concerne l’erreur quadratique moyenne globale des estimations d’enquête). Les chercheurs d’enquête désirant des réponses à ces types de questions disposent de différents outils statistiques. Le présent article cherche à fournir un aperçu des approches fréquentiste et bayésienne de rechange de la comparaison des composantes de la variance dans différents groupes d’intervieweurs d’enquête, au moyen d’un cadre de modélisation linéaire généralisée hiérarchique qui tient compte de différents types de variables d’enquête. Nous considérons d’abord les avantages et les limites de chaque approche, en comparant les méthodes utilisées pour l’estimation et l’inférence. Nous présentons ensuite une étude de simulation, en évaluant de façon empirique la capacité de chaque approche d’estimer efficacement les différences entre les composantes de la variance. Nous appliquons alors les deux approches à une analyse des données d’enquête réelles recueillies dans le cadre de la National Survey of Family Growth (NSFG) aux États-Unis. Nous concluons que les deux approches ont tendance à donner des inférences très semblables et nous présentons des suggestions à mettre en pratique, compte tenu des différences subtiles observées.
Date de diffusion : 2014-12-19 - Articles et rapports : 12-001-X201400214096Description :
Afin d’obtenir une meilleure couverture de la population d’intérêt et de réduire les coûts, un certain nombre d’enquêtes s’appuient sur un plan à base de sondage double, suivant lequel des échantillons indépendants sont tirés de deux bases de sondage chevauchantes. La présente étude porte sur les tests du khi-carré dans les enquêtes à base de sondage double en présence de données catégoriques. Nous étendons le test de Wald généralisé (Wald 1943), ainsi que les tests avec correction d’ordre un et correction d’ordre deux de Rao-Scott (Rao et Scott 1981) pour passer d’une enquête à base de sondage unique à une enquête à base de sondage double, et nous déterminons les distributions asymptotiques. Des simulations montrent que les deux tests avec correction de type Rao-Scott donnent de bons résultats, et il est donc recommandé de les utiliser dans les enquêtes à base de sondage double. Un exemple sert à illustrer l’utilisation des tests élaborés.
Date de diffusion : 2014-12-19 - Articles et rapports : 12-001-X201400214097Description :
Lorsque les enquêtes mensuelles auprès des entreprises ne sont pas entièrement chevauchantes, il existe deux estimateurs différents du taux de croissance mensuelle du chiffre d’affaires, i) l’un fondé sur les totaux de population estimés mensuellement et ii) l’autre fondé purement sur les entreprises observées aux deux occasions dans la partie chevauchante des enquêtes correspondantes. Les estimations et les variances résultantes pourraient être assez différentes. Le présent article a pour but de proposer un estimateur composite optimal du taux de croissance, ainsi que des totaux de population.
Date de diffusion : 2014-12-19 - Articles et rapports : 12-001-X201400214110Description :
Quand nous élaborons le plan de sondage d’une enquête, nous essayons de produire un bon plan compte tenu du budget disponible. L’information sur les coûts peut être utilisée pour établir des plans de sondage qui minimisent la variance d’échantillonnage d’un estimateur du total pour un coût fixe. Les progrès dans le domaine des systèmes de gestion d’enquête signifient qu’aujourd’hui, il est parfois possible d’estimer le coût d’inclusion de chaque unité dans l’échantillon. Le présent article décrit l’élaboration d’approches relativement simples pour déterminer si les avantages pouvant découler de l’utilisation de cette information sur les coûts au niveau de l’unité sont susceptibles d’avoir une utilité pratique. Nous montrons que le facteur important est le ratio du coefficient de variation du coût sur le coefficient de variation de l’erreur relative des coefficients de coût estimés.
Date de diffusion : 2014-12-19 - Articles et rapports : 12-001-X201400214113Description :
Les enquêtes par panel à renouvellement servent à calculer des estimations des flux bruts entre deux périodes consécutives de mesure. Le présent article examine une procédure générale pour estimer les flux bruts lorsque l’enquête par panel à renouvellement a été générée à partir d’un plan de sondage complexe avec non-réponse aléatoire. Une approche à pseudo-maximum de vraisemblance est envisagée dans le contexte d’un modèle à deux degrés de chaînes de Markov pour le classement des personnes dans les catégories de l’enquête et pour la modélisation de la non-réponse.
Date de diffusion : 2014-12-19 - Articles et rapports : 12-001-X201400214118Description :
L’agrégation bootstrap est une puissante méthode de calcul utilisée pour améliorer la performance des estimateurs inefficaces. Le présent article est le premier à explorer l’utilisation de l’agrégation bootstrap dans l’estimation par sondage. Nous y examinons les effets de l’agrégation bootstrap sur les estimateurs d’enquête non différenciables, y compris les fonctions de répartition de l’échantillon et les quantiles. Les propriétés théoriques des estimateurs d’enquête agrégés par bootstrap sont examinées sous le régime fondé sur le plan de sondage et le régime fondé sur le modèle. En particulier, nous montrons la convergence par rapport au plan des estimateurs agrégés par bootstrap et obtenons la normalité asymptotique des estimateurs dans un contexte fondé sur le modèle. L’article explique comment la mise en oeuvre de l’agrégation bootstrap des estimateurs d’enquête peut tirer parti des répliques produites pour l’estimation par sondage de la variance, facilitant l’application de l’agrégation bootstrap dans les enquêtes existantes. Un autre défi important dans la mise en oeuvre de l’agrégation bootstrap en contexte d’enquête est l’estimation de la variance pour les estimateurs agrégés par bootstrap eux-mêmes, et nous examinons deux façons possibles d’estimer la variance. Les expériences par simulation révèlent une amélioration de l’estimateur par agrégation bootstrap proposé par rapport à l’estimateur original et comparent les deux approches d’estimation de la variance.
Date de diffusion : 2014-12-19 - 10. Solutions optimales dans les problèmes de sélection contrôlée avec stratification à deux dimensions ArchivéArticles et rapports : 12-001-X201400214119Description :
Lorsqu’on envisage la stratification d’un échantillon en fonction de plusieurs variables, on se trouve souvent dans la situation où le nombre prévu d’unités de l’échantillon qui doivent être sélectionnées dans chaque strate est très petit et où le nombre total d’unités à sélectionner est plus petit que le nombre total de strates. Ces plans de sondage stratifiés sont représentés spécifiquement par des tableaux contenant des nombres réels, appelés problèmes de sélection contrôlée, et ne peuvent pas être résolus par les méthodes classiques de répartition. Depuis une soixantaine d’années, de nombreux algorithmes ont été examinés pour résoudre ces problèmes, à commencer par celui de Goodman et Kish (1950). Ceux qui ont été élaborés plus récemment sont particulièrement exigeants du point de vue informatique et trouvent toujours les solutions. Cependant, la question qui demeure sans réponse est celle de savoir dans quel sens les solutions d’un problème de sélection contrôlée obtenues au moyen de ces algorithmes sont optimales. Nous introduisons le concept général des solutions optimales, et nous proposons un nouvel algorithme de sélection contrôlée fondé sur des fonctions de distance type pour obtenir ces solutions. Cet algorithme peut être exécuté facilement par un nouveau logiciel basé sur SAS. La présente étude porte sur les plans de sondage avec stratification à deux dimensions. Les solutions de sélection contrôlée issues du nouvel algorithme sont comparées à celles obtenues au moyen des algorithmes existants, en se fondant sur plusieurs exemples. Le nouvel algorithme arrive à fournir des solutions robustes aux problèmes de sélection contrôlée à deux dimensions qui satisfont aux critères d’optimalité.
Date de diffusion : 2014-12-19
- Précédent Go to previous page of Analyses results
- 1 (actuel) Aller à la page 1 des résultats «!tag»
- 2 Aller à la page 2 des résultats «!tag»
- 3 Aller à la page 3 des résultats «!tag»
- 4 Aller à la page 4 des résultats «!tag»
- 5 Aller à la page 5 des résultats «!tag»
- 6 Aller à la page 6 des résultats «!tag»
- 7 Aller à la page 7 des résultats «!tag»
- 8 Aller à la page 8 des résultats «!tag»
- Suivant Go to next page of Analyses results
Références (16)
Références (16) (0 à 10 de 16 résultats)
- Avis et consultations : 75-513-X2014001Description :
Depuis l’année de référence 2012, des données annuelles sur le revenu des particuliers et des familles sont produites par l’Enquête canadienne sur le revenu (ECR). L’ECR est une enquête transversale visant à fournir des renseignements sur le revenu et les sources de revenu des Canadiens, de même que sur leurs caractéristiques personnelles et celles de leur ménage. L’ECR produit, dans une large mesure, les mêmes statistiques que l’Enquête sur la dynamique du travail et du revenu (EDTR), dont les dernières données sur le revenu portaient sur l’année de référence 2011. La présente note vise à décrire la méthodologie de l’ECR, ainsi que les principales différences dans les objectifs, la méthodologie et les questionnaires de l’ECR et de l’EDTR.
Date de diffusion : 2014-12-10 - Avis et consultations : 11-016-XDescription :
Le Bulletin d'information de Statistique Canada pour les collectivités offre des renseignements sur les données et les services de Statistique Canada à l'intention des personnes qui travaillent dans les organisations municipales et communautaires. Le bulletin d'information contient aussi des liens vers les communiqués du recensement et de l'Enquête nationale auprès des ménages, les vidéos, les didacticiels interactifs, les avis aux médias, les séances d'apprentissage et les présentations.
Date de diffusion : 2014-11-20 - Avis et consultations : 11-017-XDescription :
Le Bulletin d'information de Statistique Canada pour les petites et moyennes entreprises offre des renseignements sur les données et les services de Statistique Canada à l'intention des personnes travaillant dans le secteur des affaires. Le bulletin d'information contient aussi des liens vers les communiqués du recensement et de l'Enquête nationale auprès des ménages, les vidéos, les didacticiels interactifs, les avis aux médias, les séances d'apprentissage et les présentations.
Date de diffusion : 2014-11-20 - Enquêtes et programmes statistiques — Documentation : 13-605-X201400514088Description :
Un aperçu du cadre des statistiques de finances publiques (SFP) canadiennes et de la manière dont il est associé aux autres statistiques sur les administrations publiques comme celles du Système canadien des comptes macroéconomiques et des comptes publics, et les nouveaux produits de données des SFP offerts aux utilisateurs.
Date de diffusion : 2014-11-07 - Avis et consultations : 13-605-X201400414107Description :
À compter de novembre 2014, Statistique Canada publiera les données sur le commerce international des biens sur la base de la balance des paiements (BDP) pour donner plus de détails sur chaque pays partenaire. Dans la publication de ces données, les exportations selon la BDP vers 27 pays et les importations selon la BDP en provenance de 27 pays, appelés les principaux partenaires commerciaux (PPC) du Canada, seront mises en lumière pour la première fois. En réponse à une demande importante d’information sur ces pays depuis quelques années, les données de la BDP sur le commerce des biens seront disponibles pour des pays comme la Chine et le Mexique, le Brésil et l’Inde, la Corée du Sud et nos plus grands partenaires commerciaux de l’Union européenne. En outre, les données de la BDP sur le commerce des biens pour ces pays seront disponibles avec les données désormais trimestrielles sur le commerce des services et les données annuelles sur les investissements directs étrangers pour un grand nombre de ces principaux partenaires commerciaux. Cela facilitera l’analyse, à l’aide de données totalement comparables, du commerce et des investissements internationaux au niveau des pays. L’objectif de cet article est de présenter ces nouvelles mesures . Cette note commencera par présenter aux utilisateurs les concepts clés de la BDP, et surtout le concept du changement de propriété. Cela servira à familiariser les analystes avec le cadre de la BDP pour l’analyse des données au niveau des pays, par contraste avec les données douanières sur le commerce. Ensuite, elle présentera une certaine analyse préliminaire pour illustrer les concepts, où l’exemple principal sera le commerce basé sur la BDP avec la Chine. Enfin, elle tracera les grandes lignes de l’expansion des données trimestrielles sur le commerce des services pour dégager de nouvelles estimations du commerce pour les PPC et discuter des travaux à venir dans les statistiques du commerce.
Date de diffusion : 2014-11-04 - Enquêtes et programmes statistiques — Documentation : 11-522-X201300014258Description :
L’Enquête sur la consommation de carburant (ECC) a été créée en 2013 et est une enquête nationale trimestrielle qui est conçue pour analyser la distance parcourue et la consommation d’essence des véhicules de passagers et d’autres véhicules pesant moins de 4 500 kilogrammes. La base de sondage est constituée de véhicules extraits des fichiers d’immatriculation de véhicules qui sont conservés par les ministères provinciaux. L’ECC utilise des puces de voiture comme mode de collecte pour une partie des unités échantillonnées, afin de recueillir des données sur les déplacements et l’essence consommée. L’utilisation de cette nouvelle technologie comporte de nombreux avantages, par exemple, la réduction du fardeau de réponse, des coûts de collecte et des effets sur la qualité des données. Pour les trimestres de 2013, 95 % des unités échantillonnées ont reçu des questionnaires papier, et 5 %, des puces de voiture, et au T1 de 2014, les données de 40 % des unités échantillonnées ont été recueillies au moyen de puces de voiture. Cette étude décrit la méthodologie du processus d’enquête, examine les avantages et les défis du traitement et de l’imputation pour les deux modes de collecte, présente certains résultats initiaux et conclut avec un sommaire des leçons apprises.
Date de diffusion : 2014-10-31 - Enquêtes et programmes statistiques — Documentation : 11-522-X201300014259Description :
Dans l’optique de réduire le fardeau de réponse des exploitants agricoles, Statistique Canada étudie d’autres approches que les enquêtes par téléphone pour produire des estimations des grandes cultures. Une option consiste à publier des estimations de la superficie récoltée et du rendement en septembre, comme cela se fait actuellement, mais de les calculer au moyen de modèles fondés sur des données par satellite et des données météorologiques, ainsi que les données de l’enquête téléphonique de juillet. Toutefois, avant d’adopter une telle approche, on doit trouver une méthode pour produire des estimations comportant un niveau d’exactitude suffisant. Des recherches sont en cours pour examiner différentes possibilités. Les résultats de la recherche initiale et les enjeux à prendre en compte sont abordés dans ce document.
Date de diffusion : 2014-10-31 - Enquêtes et programmes statistiques — Documentation : 11-522-X201300014260Description :
L’Enquête sur l’emploi, la rémunération et les heures de travail (EERH) permet de produire des estimations mensuelles du niveau et des tendances de l’emploi, de la rémunération et des heures de travail et ce, pour des niveaux détaillés de la classification industrielle pour le Canada, les provinces et les territoires. Afin d’améliorer l’efficacité des activités de collecte pour cette enquête, un questionnaire électronique (QE) a été introduit à l’automne 2012. Compte tenu de l’échéance pour cette transition, ainsi que du calendrier de production de l’enquête, une stratégie de conversion a été établie pour l’intégration de ce nouveau mode de collecte. L’objectif de la stratégie était d’assurer une bonne adaptation de l’environnement de collecte, ainsi que de permettre la mise en oeuvre d’un plan d’analyse permettant d’évaluer l’effet de ce changement sur les résultats de l’enquête. Le présent article donne un aperçu de la stratégie de conversion, des différents ajustements qui ont été effectués pendant la période de transition et des résultats des diverses évaluations qui ont été menées. Par exemple, on décrit l’effet de l’intégration du QE sur le processus de collecte, le taux de réponse et le taux de suivi. En outre, on discute de l’effet de ce nouveau mode de collecte sur les estimations de l’enquête. Plus précisément, on présente les résultats d’une expérience randomisée réalisée afin de déceler la présence éventuelle d’un effet de mode.
Date de diffusion : 2014-10-31 - Enquêtes et programmes statistiques — Documentation : 11-522-X201300014269Description :
L’Étude sur le surdénombrement du recensement (ESR) est une étude essentielle de mesure postcensitaire de la couverture. Son principal objectif est de produire des estimations du nombre de personnes dénombrées de façon erronée, selon la province et le territoire, et d’examiner les caractéristiques des personnes dénombrées plus d’une fois, afin de déterminer les raisons possibles de ces erreurs. L’ESR est fondée sur l’échantillonnage et l’examen manuel de groupes d’enregistrements reliés, qui sont le résultat d’un couplage de la base de données des réponses du recensement et d’une base administrative. Dans cette communication, nous décrivons la nouvelle méthodologie de l’ESR de 2011. De nombreuses améliorations ont été apportées à cette méthodologie, y compris une plus grande utilisation du couplage d’enregistrements probabiliste, l’estimation de paramètres de couplage au moyen d’un algorithme espérance-maximisation (EM), et l’utilisation efficace de données sur les ménages pour déceler davantage de cas de surdénombrement.
Date de diffusion : 2014-10-31 - 10. Mise à l’essai des stratégies de collecte pour les enquêtes en ligne fondées sur l’autodéclaration ArchivéEnquêtes et programmes statistiques — Documentation : 11-522-X201300014278Description :
En janvier et février 2014, Statistique Canada a réalisé un essai en vue de mesurer l’efficacité des diverses stratégies de collecte au moyen d’une enquête en ligne fondée sur l’autodéclaration. On a communiqué avec les unités échantillonnées en leur envoyant des lettres de présentation par la poste et on leur a demandé de répondre à l’enquête en ligne, sans contact avec un intervieweur. L’essai visait à mesurer les taux de participation à une enquête en ligne, ainsi que les profils des répondants et des non-répondants. On a mis à l’essai différents échantillons et lettres, afin de déterminer l’efficacité relative des diverses méthodes. Les résultats du projet serviront à renseigner les responsables de diverses enquêtes sociales qui se préparent à ajouter à leurs enquêtes la possibilité d’y répondre par Internet. Le document présentera la méthode générale de l’essai, ainsi que les résultats observés pendant la collecte et l’analyse des profils.
Date de diffusion : 2014-10-31
- Date de modification :