Recherche par mot-clé

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Année de publication

1 facets displayed. 1 facets selected.

Géographie

2 facets displayed. 0 facets selected.

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (88)

Tout (88) (30 à 40 de 88 résultats)

  • Articles et rapports : 11-522-X201300014264
    Description :

    Bien que les milieux humides occupent seulement 6,4% de la superficie de notre planète, ils sont primordiaux à la survie des espèces terrestres. Ces écosystèmes requièrent une attention toute particulière au Canada puisque près de 25% de leur superficie mondiale se retrouve en sol canadien. Environnement Canada (EC) possède des méga-bases de données où sont rassemblées toutes sortes d’informations sur les milieux humides provenant de diverses sources. Avant que les informations contenues dans ces bases de données ne puissent être utilisées pour soutenir quelque initiative environnementale que ce soit, elles se devaient d’abord d’être répertoriées puis évaluées quant à leur qualité. Dans cet exposé, nous présentons un aperçu du projet pilote mené conjointement par EC et Statistique Canada afin d’évaluer la qualité des informations contenues dans ces bases de données, elles qui présentent à la fois certains des attributs propres aux données volumineuses (« Big Data »), aux données administratives et aux données d’enquête.

    Date de diffusion : 2014-10-31

  • Articles et rapports : 11-522-X201300014265
    Description :

    Le couplage d’enregistrements exact est un outil essentiel à l’exploitation des fichiers administratifs, surtout quand on étudie les relations entre de nombreuses variables qui ne sont pas toutes contenues dans un fichier administratif unique. L’objectif est de trouver des paires d’enregistrements associées à une même personne ou entité. Le résultat est un fichier couplé qui peut être utilisé pour estimer les paramètres de population, y compris les totaux et les ratios. Malheureusement, le processus de couplage est complexe et sujet à erreurs parce qu’il s’appuie habituellement sur des variables d’appariement qui ne sont pas uniques et qui peuvent être consignées avec des erreurs. Par conséquent, le fichier couplé contient des erreurs d’appariement, y compris des appariements incorrects d’enregistrements non apparentés et des appariements manquants d’enregistrements apparentés. Ces erreurs peuvent donner lieu à des estimateurs biaisés s’il n’en est pas tenu compte dans le processus d’estimation. Dans le cadre de travaux antérieurs dans ce domaine, ces erreurs ont été prises en considération au moyen d’hypothèses au sujet de leur distribution. En général, la distribution supposée est en fait une approximation très grossière de la distribution réelle, en raison de la complexité intrinsèque du processus de couplage. Donc, les estimateurs résultants peuvent présenter un biais. Un nouveau cadre méthodologique, fondé sur la théorie classique des sondages, est proposé pour obtenir des estimateurs fondés sur le plan de sondage à partir de fichiers administratifs d’enregistrements couplés. Il comprend trois étapes. Pour commencer, on tire un échantillon probabiliste de paires d’enregistrements. Ensuite, on procède à un examen manuel de toutes les paires échantillonnées. Enfin, on calcule des estimateurs fondés sur le plan de sondage en fonction des résultats de l’examen. Cette méthodologie mène à des estimateurs dont l’erreur d’échantillonnage est fondée sur le plan de sondage, même si le processus repose uniquement sur deux fichiers administratifs. Elle s’écarte des travaux antérieurs s’appuyant sur un modèle et fournit des estimateurs plus robustes. Ce résultat est obtenu en plaçant les examens manuels au coeur du processus d’estimation. Le recours aux examens manuels est essentiel, parce qu’il s’agit de fait d’une norme de référence en ce qui a trait à la qualité des décisions au sujet des appariements. Le cadre proposé peut également être appliqué à l’estimation au moyen de données administratives et de données d’enquête couplées.

    Date de diffusion : 2014-10-31

  • Articles et rapports : 11-522-X201300014266
    Description :

    L’utilisation de moniteurs et l’autodéclaration sont deux méthodes de mesure de l’énergie dépensée durant l’activité physique, la variance de l’erreur étant habituellement beaucoup plus faible dans le cas des moniteurs que dans celui de l’autodéclaration. La Physical Activity Measurement Survey a été conçue pour comparer les deux procédures en utilisant des observations répétées sur une même personne. Ces observations répétées permettent de calibrer la mesure par autodéclaration sur la mesure par moniteur, ce qui rend possible l’estimation des composantes des variances des erreurs de mesure. Les estimations des composantes de la variance de l’erreur de mesure de la dépense d’énergie selon le moniteur et selon l’autodéclaration sont présentées pour les femmes qui ont participé à la Physical Activity Measurement Survey.

    Date de diffusion : 2014-10-31

  • Articles et rapports : 11-522-X201300014267
    Description :

    Comme de nombreux autres instituts nationaux de statistique, le Bureau de la statistique de la Suède a une longue tradition de qualité. Plus récemment, l’organisme a décidé de commencer à utiliser un certain nombre de cadres pour résoudre les questions de qualité organisationnelle, de qualité des processus et de qualité des produits. Il est important de prendre en compte ces trois niveaux, car nous savons que la façon dont nous faisons les choses, par exemple, lorsque nous posons des questions, a des répercussions sur la qualité des produits et que, par conséquent, la qualité des processus représente un élément important du concept de qualité. Par ailleurs, la qualité organisationnelle, c’est-à-dire la gestion systématique des aspects comme la formation du personnel et le leadership, est essentielle pour assurer la qualité des processus. Le Bureau de la statistique de la Suède utilise l’EFQM (European Foundation for Quality Management) comme cadre pour la qualité organisationnelle et ISO 20252 comme norme pour la qualité des processus pour les études de marché, les sondages d’opinion et les études sociales. En avril 2014, le Bureau de la statistique de la Suède a été le premier institut national de la statistique à être certifié selon la norme ISO 20252. Parmi les défis auxquels le Bureau de la statistique de la Suède a dû faire face en 2011 figuraient la mesure systématique et le contrôle des changements dans la qualité des produits, ainsi que la présentation claire aux intervenants. De concert avec des experts-conseils externes, Paul Biemer et Dennis Trewin, du Bureau de la statistique de la Suède, ont développé à cette fin un outil appelé ASPIRE (A System for Product Improvement, Review and Evaluation). Afin d’assurer le maintien et l’amélioration de la qualité, le Bureau de la statistique de la Suède a aussi mis sur pied une équipe chargée de l’assurance de la qualité, comprenant un gestionnaire de la qualité, des responsables de la qualité et des vérificateurs internes et externes de la qualité. Dans le présent document, j’aborderai les composantes du système de gestion de la qualité du Bureau de la statistique de la Suède, ainsi que les défis que nous avons dû relever.

    Date de diffusion : 2014-10-31

  • Articles et rapports : 11-522-X201300014268
    Description :

    En surveillance des maladies chroniques, la cueillette d’information est essentielle dans le but de mesurer l’ampleur des maladies, évaluer l’utilisation des services, identifier les groupes à risque et suivre l’évolution des maladies et des facteurs de risque dans le temps en vue de planifier et d’appliquer des programmes de prévention en santé publique. C’est dans ce contexte qu’a été créé le Système intégré de surveillance des maladies chroniques du Québec (SISMACQ). Le SISMACQ est une base de données issue du jumelage de fichiers administratifs, couvrant les années 1996 à 2013, représentant une alternative intéressante aux données d’enquêtes puisqu’elle porte sur la totalité de la population, n’est pas affectée par le biais de rappel et permet de suivre la population dans le temps et dans l’espace. Cette présentation a pour objet de présenter la pertinence de l’utilisation des données administratives comme alternative aux données d’enquête ainsi que de les méthodes choisies pour la construction de la cohorte populationnelle à partir du jumelage des différentes sources de données brutes ainsi que de décrire les traitements apportées dans le but de minimiser les biais. Nous discuterons également des avantages et des limites liés à l’analyse des fichiers administratifs.

    Date de diffusion : 2014-10-31

  • Enquêtes et programmes statistiques — Documentation : 11-522-X201300014269
    Description :

    L’Étude sur le surdénombrement du recensement (ESR) est une étude essentielle de mesure postcensitaire de la couverture. Son principal objectif est de produire des estimations du nombre de personnes dénombrées de façon erronée, selon la province et le territoire, et d’examiner les caractéristiques des personnes dénombrées plus d’une fois, afin de déterminer les raisons possibles de ces erreurs. L’ESR est fondée sur l’échantillonnage et l’examen manuel de groupes d’enregistrements reliés, qui sont le résultat d’un couplage de la base de données des réponses du recensement et d’une base administrative. Dans cette communication, nous décrivons la nouvelle méthodologie de l’ESR de 2011. De nombreuses améliorations ont été apportées à cette méthodologie, y compris une plus grande utilisation du couplage d’enregistrements probabiliste, l’estimation de paramètres de couplage au moyen d’un algorithme espérance-maximisation (EM), et l’utilisation efficace de données sur les ménages pour déceler davantage de cas de surdénombrement.

    Date de diffusion : 2014-10-31

  • Articles et rapports : 11-522-X201300014270
    Description :

    Dans le domaine du couplage d’enregistrements, il existe un large éventail de comparateurs de chaînes de caractères. Les difficultés lors des comparaisons surviennent lorsque des facteurs influent sur la composition des chaînes (ex. : emploi de surnoms pour les prénoms de personnes, erreurs typographiques, etc.). Il faut alors faire appel à des comparateurs plus sophistiqués. De tels outils permettent de réduire le nombre de liens potentiellement manqués. Malheureusement, une partie des gains peuvent s’avérer de faux liens. Afin d’améliorer les appariements, trois comparateurs de chaînes sophistiqués ont été développés et sont présentés dans cet article. Ce sont le comparateur Lachance, ainsi que ses dérivés, les comparateurs multi-mots et multi-types. Cette gamme d’outils est présentement disponible dans un prototype de couplage d’enregistrements déterministe, MixMatch. Ce logiciel permet de faire appel à des connaissances a priori afin de réduire le volume de faux liens générés lors des appariements. Un indicateur de force de liens est également proposé.

    Date de diffusion : 2014-10-31

  • Articles et rapports : 11-522-X201300014271
    Description :

    Ce document vise à présenter l'utilisation des dossiers administratifs dans le U.S. Census pour les logements collectifs. Le dénombrement des logements collectifs signifie la collecte de données dans des endroits difficiles d'accès, comme les établissements correctionnels, les établissements de soins infirmiers spécialisés et les casernes militaires. Nous examinons les avantages et les contraites de l'utilisation de diverses sources de dossier administratifs pour l'élaboration de la base de sondage des logements collectifs, en vue d'améliorer la couverture. Le présent document est un document d'accompagnement de la communication de Chun et Gan (2014) portant sur les utilisations possibles des dossiers administratifs dans le recensement des logements collectifs.

    Date de diffusion : 2014-10-31

  • Articles et rapports : 11-522-X201300014272
    Description :

    Deux tendances convergentes soulèvent des questions concernant l’avenir des enquêtes probabilistes à grande échelle menées par ou pour des instituts nationaux de statistique (INS). Tout d’abord, l’augmentation des coûts et des taux de non-réponse menace potentiellement la rentabilité et la valeur inférentielle des enquêtes. En deuxième lieu, l’intérêt est de plus en plus grand à l’égard des mégadonnées en remplacement des enquêtes. Il existe de nombreux types différents de mégadonnées, mais je mettrai l’accent particulièrement sur les données produites par l’entremise des médias sociaux. Le présent document complète et met à jour un document antérieur sur le sujet (Couper, 2013). Je passerai en revue certaines des préoccupations concernant les mégadonnées, particulièrement dans la perspective des enquêtes. Je soutiens qu’il y a place pour des enquêtes de grande qualité et des analyses de mégadonnées dans les travaux des INS. Même s’il est peu probable que les mégadonnées remplacent les enquêtes de grande qualité, je crois que les deux méthodes peuvent remplir des fonctions complémentaires. Je tente de déterminer certains des critères qui doivent être satisfaits, ainsi que les questions auxquelles on doit répondre, avant que les mégadonnées puissent être utilisées pour des inférences fiables au niveau de la population.

    Date de diffusion : 2014-10-31

  • Articles et rapports : 11-522-X201300014273
    Description :

    De plus en plus de données sont produites au moyen du nombre croissant de dispositifs électroniques qui nous entourent et que l’on retrouve sur Internet. La grande quantité de données et la fréquence élevée à laquelle elles sont produites ont donné lieu à l’introduction du terme « mégadonnées ». Compte tenu du fait que ces données rendent compte de nombreux aspects différents de nos vies au quotidien, et en raison de leur abondance et de leur disponibilité, les sources de mégadonnées sont très intéressantes du point de vue des statistiques officielles. Toutefois, les premières expériences obtenues suite aux analyses de grandes quantités d’enregistrements de boucles de détection de véhicules au Pays-Bas, d’enregistrements des détails des appels de téléphones mobiles et de messages des médias sociaux aux Pays-Bas révèlent qu’un certain nombre de défis doivent être résolus pour permettre l’application de ces sources de données aux statistiques officielles. Ces défis, ainsi que les leçons apprises pendant les études initiales, seront traitées et illustrées au moyen d’exemples. De façon plus particulière, les sujets suivants sont abordés : les trois types généraux de mégadonnées définis, la nécessité d’accéder à des quantités importantes de données et de les analyser, la façon de traiter les données qui comportent du bruit et d’aborder la sélectivité (ainsi que notre propre biais concernant ce sujet), comment aller au-delà de la corrélation, la façon de trouver les personnes ayant les compétences adéquates et la bonne attitude pour exécuter ce travail, et comment nous avons traité les problèmes de protection des renseignements personnels et de sécurité.

    Date de diffusion : 2014-10-31
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (72)

Analyses (72) (0 à 10 de 72 résultats)

  • Articles et rapports : 12-001-X201400214089
    Description :

    Le présent document décrit l’utilisation de l’imputation multiple pour combiner l’information de plusieurs enquêtes de la même population sous-jacente. Nous utilisons une nouvelle méthode pour générer des populations synthétiques de façon non paramétrique à partir d’un bootstrap bayésien fondé sur une population finie qui tient systématiquement compte des plans d’échantillonnage complexes. Nous analysons ensuite chaque population synthétique au moyen d’un logiciel standard de données complètes pour les échantillons aléatoires simples et obtenons une inférence valide en combinant les estimations ponctuelles et de variance au moyen des extensions de règles de combinaison existantes pour les données synthétiques. Nous illustrons l’approche en combinant les données de la National Health Interview Survey (NHIS) de 2006 et de la Medical Expenditure Panel Survey (MEPS) de 2006.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214090
    Description :

    Lorsqu'on s'intéresse à une population finie, il arrive qu'il soit nécessaire de tirer des échantillons dans plusieurs bases de sondage pour représenter l'ensemble des individus. Nous nous intéressons ici au cas de deux échantillons sélectionnés selon un plan à deux degrés, avec un premier degré de tirage commun. Nous appliquons les méthodes de Hartley (1962), Bankier (1986), et Kalton et Anderson (1986), et nous montrons que ces méthodes peuvent être appliquées conditionnellement au premier degré de tirage. Nous comparons également la performance de plusieurs estimateurs dans le cadre d'une étude par simulations. Nos résultats suggèrent que le choix d'un estimateur en présence de bases de sondage multiples se fasse de façon prudente, et qu'un estimateur simple est parfois préférable même s'il n'utilise qu'une partie de l'information collectée.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214091
    Description :

    L’imputation fractionnaire paramétrique (IFP) proposée par Kim (2011) est un outil d’estimation des paramètres à usage général en cas de données manquantes. Nous proposons une imputation fractionnaire hot deck (IFHD), qui est plus robuste que l’IFP ou l’imputation multiple. Selon la méthode proposée, les valeurs imputées sont choisies parmi l’ensemble des répondants, et des pondérations fractionnaires appropriées leur sont assignées. Les pondérations sont ensuite ajustées pour répondre à certaines conditions de calage, ce qui garantit l’efficacité de l’estimateur IFHD résultant. Deux études de simulation sont présentées afin de comparer la méthode proposée aux méthodes existantes.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214092
    Description :

    Les méthodologistes d’enquête étudient depuis longtemps les effets des intervieweurs sur la variance des estimations d’enquête. Les modèles statistiques tenant compte des effets aléatoires des intervieweurs sont souvent intégrés à ce genre d’études, et l’intérêt de la recherche repose sur l’ampleur de la composante de la variance de l’intervieweur. Une question peut se poser au cours d’une étude méthodologique : différents groupes d’intervieweurs (p. ex. ceux ayant de l’expérience relative à une enquête donnée par rapport aux nouvelles recrues, ou les intervieweurs IPAO par rapport aux intervieweurs ITAO) ont-ils des composantes de variance considérablement différentes dans ces modèles? Des écarts importants peuvent indiquer un besoin de formation supplémentaire pour certains sous-groupes, les propriétés moins optimales de différents modes ou styles d’interview pour certaines questions d’enquête (en ce qui concerne l’erreur quadratique moyenne globale des estimations d’enquête). Les chercheurs d’enquête désirant des réponses à ces types de questions disposent de différents outils statistiques. Le présent article cherche à fournir un aperçu des approches fréquentiste et bayésienne de rechange de la comparaison des composantes de la variance dans différents groupes d’intervieweurs d’enquête, au moyen d’un cadre de modélisation linéaire généralisée hiérarchique qui tient compte de différents types de variables d’enquête. Nous considérons d’abord les avantages et les limites de chaque approche, en comparant les méthodes utilisées pour l’estimation et l’inférence. Nous présentons ensuite une étude de simulation, en évaluant de façon empirique la capacité de chaque approche d’estimer efficacement les différences entre les composantes de la variance. Nous appliquons alors les deux approches à une analyse des données d’enquête réelles recueillies dans le cadre de la National Survey of Family Growth (NSFG) aux États-Unis. Nous concluons que les deux approches ont tendance à donner des inférences très semblables et nous présentons des suggestions à mettre en pratique, compte tenu des différences subtiles observées.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214096
    Description :

    Afin d’obtenir une meilleure couverture de la population d’intérêt et de réduire les coûts, un certain nombre d’enquêtes s’appuient sur un plan à base de sondage double, suivant lequel des échantillons indépendants sont tirés de deux bases de sondage chevauchantes. La présente étude porte sur les tests du khi-carré dans les enquêtes à base de sondage double en présence de données catégoriques. Nous étendons le test de Wald généralisé (Wald 1943), ainsi que les tests avec correction d’ordre un et correction d’ordre deux de Rao-Scott (Rao et Scott 1981) pour passer d’une enquête à base de sondage unique à une enquête à base de sondage double, et nous déterminons les distributions asymptotiques. Des simulations montrent que les deux tests avec correction de type Rao-Scott donnent de bons résultats, et il est donc recommandé de les utiliser dans les enquêtes à base de sondage double. Un exemple sert à illustrer l’utilisation des tests élaborés.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214097
    Description :

    Lorsque les enquêtes mensuelles auprès des entreprises ne sont pas entièrement chevauchantes, il existe deux estimateurs différents du taux de croissance mensuelle du chiffre d’affaires, i) l’un fondé sur les totaux de population estimés mensuellement et ii) l’autre fondé purement sur les entreprises observées aux deux occasions dans la partie chevauchante des enquêtes correspondantes. Les estimations et les variances résultantes pourraient être assez différentes. Le présent article a pour but de proposer un estimateur composite optimal du taux de croissance, ainsi que des totaux de population.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214110
    Description :

    Quand nous élaborons le plan de sondage d’une enquête, nous essayons de produire un bon plan compte tenu du budget disponible. L’information sur les coûts peut être utilisée pour établir des plans de sondage qui minimisent la variance d’échantillonnage d’un estimateur du total pour un coût fixe. Les progrès dans le domaine des systèmes de gestion d’enquête signifient qu’aujourd’hui, il est parfois possible d’estimer le coût d’inclusion de chaque unité dans l’échantillon. Le présent article décrit l’élaboration d’approches relativement simples pour déterminer si les avantages pouvant découler de l’utilisation de cette information sur les coûts au niveau de l’unité sont susceptibles d’avoir une utilité pratique. Nous montrons que le facteur important est le ratio du coefficient de variation du coût sur le coefficient de variation de l’erreur relative des coefficients de coût estimés.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214113
    Description :

    Les enquêtes par panel à renouvellement servent à calculer des estimations des flux bruts entre deux périodes consécutives de mesure. Le présent article examine une procédure générale pour estimer les flux bruts lorsque l’enquête par panel à renouvellement a été générée à partir d’un plan de sondage complexe avec non-réponse aléatoire. Une approche à pseudo-maximum de vraisemblance est envisagée dans le contexte d’un modèle à deux degrés de chaînes de Markov pour le classement des personnes dans les catégories de l’enquête et pour la modélisation de la non-réponse.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214118
    Description :

    L’agrégation bootstrap est une puissante méthode de calcul utilisée pour améliorer la performance des estimateurs inefficaces. Le présent article est le premier à explorer l’utilisation de l’agrégation bootstrap dans l’estimation par sondage. Nous y examinons les effets de l’agrégation bootstrap sur les estimateurs d’enquête non différenciables, y compris les fonctions de répartition de l’échantillon et les quantiles. Les propriétés théoriques des estimateurs d’enquête agrégés par bootstrap sont examinées sous le régime fondé sur le plan de sondage et le régime fondé sur le modèle. En particulier, nous montrons la convergence par rapport au plan des estimateurs agrégés par bootstrap et obtenons la normalité asymptotique des estimateurs dans un contexte fondé sur le modèle. L’article explique comment la mise en oeuvre de l’agrégation bootstrap des estimateurs d’enquête peut tirer parti des répliques produites pour l’estimation par sondage de la variance, facilitant l’application de l’agrégation bootstrap dans les enquêtes existantes. Un autre défi important dans la mise en oeuvre de l’agrégation bootstrap en contexte d’enquête est l’estimation de la variance pour les estimateurs agrégés par bootstrap eux-mêmes, et nous examinons deux façons possibles d’estimer la variance. Les expériences par simulation révèlent une amélioration de l’estimateur par agrégation bootstrap proposé par rapport à l’estimateur original et comparent les deux approches d’estimation de la variance.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214119
    Description :

    Lorsqu’on envisage la stratification d’un échantillon en fonction de plusieurs variables, on se trouve souvent dans la situation où le nombre prévu d’unités de l’échantillon qui doivent être sélectionnées dans chaque strate est très petit et où le nombre total d’unités à sélectionner est plus petit que le nombre total de strates. Ces plans de sondage stratifiés sont représentés spécifiquement par des tableaux contenant des nombres réels, appelés problèmes de sélection contrôlée, et ne peuvent pas être résolus par les méthodes classiques de répartition. Depuis une soixantaine d’années, de nombreux algorithmes ont été examinés pour résoudre ces problèmes, à commencer par celui de Goodman et Kish (1950). Ceux qui ont été élaborés plus récemment sont particulièrement exigeants du point de vue informatique et trouvent toujours les solutions. Cependant, la question qui demeure sans réponse est celle de savoir dans quel sens les solutions d’un problème de sélection contrôlée obtenues au moyen de ces algorithmes sont optimales. Nous introduisons le concept général des solutions optimales, et nous proposons un nouvel algorithme de sélection contrôlée fondé sur des fonctions de distance type pour obtenir ces solutions. Cet algorithme peut être exécuté facilement par un nouveau logiciel basé sur SAS. La présente étude porte sur les plans de sondage avec stratification à deux dimensions. Les solutions de sélection contrôlée issues du nouvel algorithme sont comparées à celles obtenues au moyen des algorithmes existants, en se fondant sur plusieurs exemples. Le nouvel algorithme arrive à fournir des solutions robustes aux problèmes de sélection contrôlée à deux dimensions qui satisfont aux critères d’optimalité.

    Date de diffusion : 2014-12-19
Références (16)

Références (16) (0 à 10 de 16 résultats)

  • Avis et consultations : 75-513-X2014001
    Description :

    Depuis l’année de référence 2012, des données annuelles sur le revenu des particuliers et des familles sont produites par l’Enquête canadienne sur le revenu (ECR). L’ECR est une enquête transversale visant à fournir des renseignements sur le revenu et les sources de revenu des Canadiens, de même que sur leurs caractéristiques personnelles et celles de leur ménage. L’ECR produit, dans une large mesure, les mêmes statistiques que l’Enquête sur la dynamique du travail et du revenu (EDTR), dont les dernières données sur le revenu portaient sur l’année de référence 2011. La présente note vise à décrire la méthodologie de l’ECR, ainsi que les principales différences dans les objectifs, la méthodologie et les questionnaires de l’ECR et de l’EDTR.

    Date de diffusion : 2014-12-10

  • Avis et consultations : 11-016-X
    Description :

    Le Bulletin d'information de Statistique Canada pour les collectivités offre des renseignements sur les données et les services de Statistique Canada à l'intention des personnes qui travaillent dans les organisations municipales et communautaires. Le bulletin d'information contient aussi des liens vers les communiqués du recensement et de l'Enquête nationale auprès des ménages, les vidéos, les didacticiels interactifs, les avis aux médias, les séances d'apprentissage et les présentations.

    Date de diffusion : 2014-11-20

  • Avis et consultations : 11-017-X
    Description :

    Le Bulletin d'information de Statistique Canada pour les petites et moyennes entreprises offre des renseignements sur les données et les services de Statistique Canada à l'intention des personnes travaillant dans le secteur des affaires. Le bulletin d'information contient aussi des liens vers les communiqués du recensement et de l'Enquête nationale auprès des ménages, les vidéos, les didacticiels interactifs, les avis aux médias, les séances d'apprentissage et les présentations.

    Date de diffusion : 2014-11-20

  • Enquêtes et programmes statistiques — Documentation : 13-605-X201400514088
    Description :

    Un aperçu du cadre des statistiques de finances publiques (SFP) canadiennes et de la manière dont il est associé aux autres statistiques sur les administrations publiques comme celles du Système canadien des comptes macroéconomiques et des comptes publics, et les nouveaux produits de données des SFP offerts aux utilisateurs.

    Date de diffusion : 2014-11-07

  • Avis et consultations : 13-605-X201400414107
    Description :

    À compter de novembre 2014, Statistique Canada publiera les données sur le commerce international des biens sur la base de la balance des paiements (BDP) pour donner plus de détails sur chaque pays partenaire. Dans la publication de ces données, les exportations selon la BDP vers 27 pays et les importations selon la BDP en provenance de 27 pays, appelés les principaux partenaires commerciaux (PPC) du Canada, seront mises en lumière pour la première fois. En réponse à une demande importante d’information sur ces pays depuis quelques années, les données de la BDP sur le commerce des biens seront disponibles pour des pays comme la Chine et le Mexique, le Brésil et l’Inde, la Corée du Sud et nos plus grands partenaires commerciaux de l’Union européenne. En outre, les données de la BDP sur le commerce des biens pour ces pays seront disponibles avec les données désormais trimestrielles sur le commerce des services et les données annuelles sur les investissements directs étrangers pour un grand nombre de ces principaux partenaires commerciaux. Cela facilitera l’analyse, à l’aide de données totalement comparables, du commerce et des investissements internationaux au niveau des pays. L’objectif de cet article est de présenter ces nouvelles mesures . Cette note commencera par présenter aux utilisateurs les concepts clés de la BDP, et surtout le concept du changement de propriété. Cela servira à familiariser les analystes avec le cadre de la BDP pour l’analyse des données au niveau des pays, par contraste avec les données douanières sur le commerce. Ensuite, elle présentera une certaine analyse préliminaire pour illustrer les concepts, où l’exemple principal sera le commerce basé sur la BDP avec la Chine. Enfin, elle tracera les grandes lignes de l’expansion des données trimestrielles sur le commerce des services pour dégager de nouvelles estimations du commerce pour les PPC et discuter des travaux à venir dans les statistiques du commerce.

    Date de diffusion : 2014-11-04

  • Enquêtes et programmes statistiques — Documentation : 11-522-X201300014258
    Description :

    L’Enquête sur la consommation de carburant (ECC) a été créée en 2013 et est une enquête nationale trimestrielle qui est conçue pour analyser la distance parcourue et la consommation d’essence des véhicules de passagers et d’autres véhicules pesant moins de 4 500 kilogrammes. La base de sondage est constituée de véhicules extraits des fichiers d’immatriculation de véhicules qui sont conservés par les ministères provinciaux. L’ECC utilise des puces de voiture comme mode de collecte pour une partie des unités échantillonnées, afin de recueillir des données sur les déplacements et l’essence consommée. L’utilisation de cette nouvelle technologie comporte de nombreux avantages, par exemple, la réduction du fardeau de réponse, des coûts de collecte et des effets sur la qualité des données. Pour les trimestres de 2013, 95 % des unités échantillonnées ont reçu des questionnaires papier, et 5 %, des puces de voiture, et au T1 de 2014, les données de 40 % des unités échantillonnées ont été recueillies au moyen de puces de voiture. Cette étude décrit la méthodologie du processus d’enquête, examine les avantages et les défis du traitement et de l’imputation pour les deux modes de collecte, présente certains résultats initiaux et conclut avec un sommaire des leçons apprises.

    Date de diffusion : 2014-10-31

  • Enquêtes et programmes statistiques — Documentation : 11-522-X201300014259
    Description :

    Dans l’optique de réduire le fardeau de réponse des exploitants agricoles, Statistique Canada étudie d’autres approches que les enquêtes par téléphone pour produire des estimations des grandes cultures. Une option consiste à publier des estimations de la superficie récoltée et du rendement en septembre, comme cela se fait actuellement, mais de les calculer au moyen de modèles fondés sur des données par satellite et des données météorologiques, ainsi que les données de l’enquête téléphonique de juillet. Toutefois, avant d’adopter une telle approche, on doit trouver une méthode pour produire des estimations comportant un niveau d’exactitude suffisant. Des recherches sont en cours pour examiner différentes possibilités. Les résultats de la recherche initiale et les enjeux à prendre en compte sont abordés dans ce document.

    Date de diffusion : 2014-10-31

  • Enquêtes et programmes statistiques — Documentation : 11-522-X201300014260
    Description :

    L’Enquête sur l’emploi, la rémunération et les heures de travail (EERH) permet de produire des estimations mensuelles du niveau et des tendances de l’emploi, de la rémunération et des heures de travail et ce, pour des niveaux détaillés de la classification industrielle pour le Canada, les provinces et les territoires. Afin d’améliorer l’efficacité des activités de collecte pour cette enquête, un questionnaire électronique (QE) a été introduit à l’automne 2012. Compte tenu de l’échéance pour cette transition, ainsi que du calendrier de production de l’enquête, une stratégie de conversion a été établie pour l’intégration de ce nouveau mode de collecte. L’objectif de la stratégie était d’assurer une bonne adaptation de l’environnement de collecte, ainsi que de permettre la mise en oeuvre d’un plan d’analyse permettant d’évaluer l’effet de ce changement sur les résultats de l’enquête. Le présent article donne un aperçu de la stratégie de conversion, des différents ajustements qui ont été effectués pendant la période de transition et des résultats des diverses évaluations qui ont été menées. Par exemple, on décrit l’effet de l’intégration du QE sur le processus de collecte, le taux de réponse et le taux de suivi. En outre, on discute de l’effet de ce nouveau mode de collecte sur les estimations de l’enquête. Plus précisément, on présente les résultats d’une expérience randomisée réalisée afin de déceler la présence éventuelle d’un effet de mode.

    Date de diffusion : 2014-10-31

  • Enquêtes et programmes statistiques — Documentation : 11-522-X201300014269
    Description :

    L’Étude sur le surdénombrement du recensement (ESR) est une étude essentielle de mesure postcensitaire de la couverture. Son principal objectif est de produire des estimations du nombre de personnes dénombrées de façon erronée, selon la province et le territoire, et d’examiner les caractéristiques des personnes dénombrées plus d’une fois, afin de déterminer les raisons possibles de ces erreurs. L’ESR est fondée sur l’échantillonnage et l’examen manuel de groupes d’enregistrements reliés, qui sont le résultat d’un couplage de la base de données des réponses du recensement et d’une base administrative. Dans cette communication, nous décrivons la nouvelle méthodologie de l’ESR de 2011. De nombreuses améliorations ont été apportées à cette méthodologie, y compris une plus grande utilisation du couplage d’enregistrements probabiliste, l’estimation de paramètres de couplage au moyen d’un algorithme espérance-maximisation (EM), et l’utilisation efficace de données sur les ménages pour déceler davantage de cas de surdénombrement.

    Date de diffusion : 2014-10-31

  • Enquêtes et programmes statistiques — Documentation : 11-522-X201300014278
    Description :

    En janvier et février 2014, Statistique Canada a réalisé un essai en vue de mesurer l’efficacité des diverses stratégies de collecte au moyen d’une enquête en ligne fondée sur l’autodéclaration. On a communiqué avec les unités échantillonnées en leur envoyant des lettres de présentation par la poste et on leur a demandé de répondre à l’enquête en ligne, sans contact avec un intervieweur. L’essai visait à mesurer les taux de participation à une enquête en ligne, ainsi que les profils des répondants et des non-répondants. On a mis à l’essai différents échantillons et lettres, afin de déterminer l’efficacité relative des diverses méthodes. Les résultats du projet serviront à renseigner les responsables de diverses enquêtes sociales qui se préparent à ajouter à leurs enquêtes la possibilité d’y répondre par Internet. Le document présentera la méthode générale de l’essai, ainsi que les résultats observés pendant la collecte et l’analyse des profils.

    Date de diffusion : 2014-10-31
Date de modification :