Recherche par mot-clé

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Année de publication

1 facets displayed. 1 facets selected.

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (52)

Tout (52) (0 à 10 de 52 résultats)

  • Articles et rapports : 82-003-X201901200003
    Description :

    Cet article fournit une description des Cohortes santé et environnement du recensement canadien (CSERCan), qui sont des ensembles de données couplées, fondés sur la population à domicile au moment de la collecte du recensement. Les ensembles de données des CSERCan constituent des ressources nationales en matière de données qui sont abondantes et qui peuvent servir à mesurer et à examiner les inégalités en matière de santé selon les aspects socioéconomiques et ethnoculturels lors de différentes périodes et à divers endroits. Ils peuvent également servir à examiner les effets de l'exposition à des facteurs environnementaux sur la santé humaine.

    Date de diffusion : 2019-12-18

  • Stats en bref : 11-629-X2019006
    Description :

    Cette vidéo décrit un nouveau programme de surveillance de la santé à Statistique Canada : les Cohortes santé et environnement du recensement canadien (Cohortes SERCan). On y explique en quoi consistent les Cohortes SERCan, ce qu’elles nous permettent d’examiner, et les forces et les limites de ces données. On y décrit aussi quelques exemples de recherches récentes fondées sur les Cohortes SERCan, ainsi que la façon d’accéder à ces données.

    Date de diffusion : 2019-12-18

  • Articles et rapports : 12-001-X201900300001
    Description :

    Les estimateurs de la variance par linéarisation classiques de l’estimateur par la régression généralisée sont souvent trop petits, ce qui entraîne des intervalles de confiance ne donnant pas le taux de couverture souhaité. Pour remédier à ce problème, on peut apporter des ajustements à la matrice chapeau dans l’échantillonnage à deux degrés. Nous présentons la théorie de plusieurs nouveaux estimateurs de la variance et les comparons aux estimateurs classiques dans une série de simulations. Les estimateurs proposés corrigent les biais négatifs et améliorent les taux de couverture de l’intervalle de confiance dans diverses situations correspondant à celles rencontrées en pratique.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900300002
    Description :

    Souvent, des paradonnées sont recueillies pendant le processus d’enquête afin de surveiller la qualité des réponses. L’une des paradonnées recueillies est le comportement du répondant, qui peut servir dans la construction des modèles de réponse. On peut appliquer le poids du score de propension utilisant les renseignements sur le comportement du répondant à l’analyse finale pour réduire le biais dû à la non-réponse. Toutefois, l’inclusion de la variable de substitution dans la pondération du score de propension ne garantit pas toujours une amélioration de l’efficacité. Nous montrons que la variable de substitution n’est utile que quand elle est corrélée à la variable étudiée. Les résultats d’une étude par simulations limitée confirment cette constatation. L’article présente aussi une application sur données réelles utilisant les données de la Korean Workplace Panel Survey (enquête par panel sur le milieu de travail en Corée).

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900300003
    Description :

    Les formules largement utilisées pour la variance de l’estimateur par le ratio peuvent mener à une sérieuse sous-estimation quand l’échantillon est de petite taille; voir Sukhatme (1954), Koop (1968), Rao (1969) et Cochran (1977, pages 163 et 164). Nous proposons ici comme solution à ce problème classique de nouveaux estimateurs de la variance et de l’erreur quadratique moyenne de l’estimateur par le ratio qui ne sont pas entachés d’un important biais négatif. Des formules d’estimation semblables peuvent s’obtenir pour d’autres estimateurs par le ratio, comme il en est question dans Tin (1965). Nous comparons trois estimateurs de l’erreur quadratique moyenne de l’estimateur par le ratio dans une étude par simulation.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900300004
    Description :

    Dans les études sociales ou économiques, il faut souvent adopter une vue d’ensemble de la société. Dans les études en agriculture par exemple, on peut établir un lien entre les caractéristiques des exploitations et les activités sociales des particuliers. On devrait donc étudier un phénomène en considérant les variables d’intérêt et en se reportant à cette fin à diverses populations cibles liées entre elles. Pour se renseigner sur un phénomène, on se doit de faire des observations en toute intégration, les unités d’une population devant être observées conjointement avec les unités liées d’une autre. Dans l’exemple de l’agriculture, cela veut dire qu’on devrait prélever un échantillon de ménages ruraux qui serait lié de quelque manière à l’échantillon d’exploitations à utiliser aux fins de l’étude. Il existe plusieurs façons de prélever des échantillons intégrés. Nous analysons ici le problème de la définition d’une stratégie optimale d’échantillonnage dans cette optique. La solution proposée doit réduire le coût d’échantillonnage au minimum et satisfaire une précision préétablie de l’estimation des variables d’intérêt (dans l’une et/ou l’autre des populations) décrivant le phénomène. L’échantillonnage indirect dresse un cadre naturel pour un tel réglage, car les unités appartenant à une population peuvent être porteuses d’une information sur l’autre population visée par l’enquête. Nous étudions ce problème selon divers contextes caractérisant l’information sur les liens disponibles à l’étape du plan de sondage, que les liens entre les unités soient connus à ce stade ou que l’information dont nous disposons sur ces mêmes liens laisse très nettement à désirer. Nous présentons ici une étude empirique de données agricoles pour un pays en développement. On peut y voir combien il est efficace de prendre en compte les probabilités d’inclusion au stade du plan de sondage à l’aide de l’information disponible (sur les liens en l’occurrence) et à quel point on peut ainsi nettement réduire les erreurs des estimations pour la population indirectement observée. Nous démontrons enfin la nécessité de disposer de bons modèles pour la prédiction des variables ou des liens inconnus.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900300005
    Description :

    On obtient les estimations mensuelles du chômage provincial fondées sur l’Enquête sur la population active (EPA) des Pays-Bas au moyen de modèles de séries chronologiques. Les modèles tiennent compte du biais de renouvellement et de la corrélation sérielle causée par le plan d’échantillonnage à panel rotatif de l’EPA. L’article compare deux méthodes d’estimation de modèles de séries chronologiques structurels (MSCS). Dans la première méthode, les MSCS sont exprimés sous forme de modèles espace-état, auxquels sont appliqués le filtre et le lisseur de Kalman dans un cadre fréquentiste. L’autre solution consiste à exprimer ces MSCS sous forme de modèles multiniveaux de séries chronologiques dans un cadre bayésien hiérarchique et à les estimer à l’aide de l’échantillonneur de Gibbs. Nous comparons ici les estimations mensuelles du chômage et les erreurs-types fondées sur ces modèles pour les 12 provinces des Pays-Bas. Nous discutons ensuite des avantages et des inconvénients de la méthode multiniveau et de la méthode espace-état. Les MSCS multivariés conviennent pour l’emprunt d’information dans le temps et l’espace. La modélisation de la matrice de corrélation complète entre les composantes des séries chronologiques accroît rapidement le nombre d’hyperparamètres qu’il faut estimer. La modélisation de facteur commun est une des façons possibles d’obtenir des modèles plus parcimonieux qui continuent de tenir compte de la corrélation transversale. L’article propose une méthode encore plus parcimonieuse, dans laquelle les domaines ont en commun une tendance globale et leurs propres tendances indépendantes pour les écarts propres au domaine par rapport à la tendance globale. L’approche par modélisation de séries chronologiques est particulièrement adaptée à l’estimation de la variation mensuelle du chômage.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900300006
    Description :

    Un taux de non-réponse élevé est un problème très courant dans les enquêtes-échantillons de nos jours. Du point de vue statistique, nous entretenons des inquiétudes au sujet du biais et de la variance accrus des estimateurs de chiffres de population comme les totaux ou les moyennes. Diverses méthodes ont été proposées pour compenser ce phénomène. En gros, nous pouvons les diviser en imputation et calage, et c’est sur la dernière méthode que nous nous concentrons ici. La catégorie des estimateurs par calage offre un large éventail de possibilités. Nous examinons le calage linéaire, pour lequel nous suggérons d’utiliser une version de non-réponse de l’estimateur de régression optimal fondé sur le plan. Nous faisons des comparaisons entre cet estimateur et un estimateur de type GREG. Les mesures de la distance jouent un rôle très important dans l’élaboration des estimateurs par calage. Nous démontrons qu’un estimateur de la propension moyenne à répondre (probabilité) peut être inclus dans la mesure de la distance « optimale » dans les cas de non-réponse, ce qui aide à réduire le biais de l’estimateur ainsi obtenu. Une étude en simulation a été réalisée pour illustrer de manière empirique les résultats obtenus de façon théorique pour les estimateurs proposés. La population se nomme KYBOK et se compose de municipalités administratives de la Suède, pour lesquelles les variables comprennent des mesures financières et de la taille. Les résultats sont encourageants pour l’estimateur « optimal » combiné à la propension estimative moyenne à répondre, où le biais a été réduit pour la plupart des cas d’échantillonnage de Poisson faisant partie de l’étude.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900300007
    Description :

    Lorsque la base de sondage est importante, il est difficile d’optimiser la stratification et la taille de l’échantillon dans un plan de sondage univarié ou multivarié. Il existe diverses façons de modéliser et de résoudre ce problème. Un des moyens les plus naturels est l’algorithme génétique (AG) combiné à l’algorithme d’évaluation de Bethel-Chromy. Un AG recherche itérativement la taille minimale d’échantillon permettant de respecter les contraintes de précision lorsqu’il s’agit de partitionner les strates atomiques formées par le produit cartésien de variables auxiliaires. Nous signalons un inconvénient avec les AG classiques appliqués à un problème de regroupement et proposons un nouvel algorithme génétique de « regroupement » avec des opérateurs génétiques au lieu des opérateurs classiques. Des expériences indiquent qu’on se trouve ainsi à améliorer nettement la qualité de solution pour un même effort de calcul.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900300008
    Description :

    Les enquêtes à double base de sondage sont utiles là où une seule base n’assure pas une couverture suffisante, mais pour les estimateurs d’un tel plan d’échantillonnage à double base, il faut connaître l’appartenance à une base pour chaque unité échantillonnée. Si cette indication ne peut être tirée de la base de sondage même, elle est souvent à recueillir auprès de l’enquêté. Si l’enquêté donne alors une indication erronée, les estimations résultantes des moyennes ou des totaux pourront s’en trouver biaisées. Nous proposons une méthode de réduction de ce biais grâce à des données exactes d’appartenance venant d’un sous-échantillon d’enquêtés. Nous examinons les propriétés de notre nouvel estimateur et le comparons à d’autres. Nous l’appliquons aux données de l’exemple qui a été à l’origine de notre étude, soit une enquête auprès des pêcheurs à la ligne pêchant à des fins récréatives qui reposait sur une base d’adresses et une base incomplète de permis de pêche.

    Date de diffusion : 2019-12-17
Données (1)

Données (1) ((1 résultat))

  • Visualisation des données : 71-607-X2019010
    Description : Le Visualiseur de données sur le logement est un outil de visualisation qui permet aux utilisateurs d’explorer les données de Statistique Canada sur une carte. Ils peuvent utiliser l’outil pour consulter, comparer et exporter les données.
    Date de diffusion : 2019-10-30
Analyses (44)

Analyses (44) (20 à 30 de 44 résultats)

  • Articles et rapports : 12-001-X201900200003
    Description :

    Dans divers domaines, il est de plus en plus important de fusionner les sources d’information disponibles pour améliorer les estimations des caractéristiques de la population. En présence de plusieurs échantillons probabilistes indépendants d’une population finie, nous examinons plusieurs solutions d’estimateur combiné du total de la population, basé soit sur une combinaison linéaire d’estimateurs distincts, soit sur une méthode par échantillon combiné. L’estimateur en combinaison linéaire fondé sur des variances estimées est susceptible d’être biaisé, car les estimateurs distincts du total de la population peuvent être fortement corrélés à leurs estimateurs de la variance respectifs. Nous illustrons la possibilité d’utiliser un échantillon combiné pour estimer les variances des estimateurs distincts, ce qui donne des estimateurs de la variance groupés généraux. Ces estimateurs de la variance groupés utilisent tous les renseignements disponibles et peuvent réduire considérablement le biais d’une combinaison linéaire d’estimateurs distincts.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 12-001-X201900200004
    Description :

    La réconciliation d’estimations de niveau inférieur à des estimations de niveau supérieur est une activité importante au National Agricultural Statistics Service (NASS) du département de l’Agriculture des États-Unis (par exemple, réconcilier les estimations de superficie d’ensemencement en maïs des comtés aux estimations au niveau des États). Nous posons qu’un comté est un petit domaine et employons le modèle initial de Fay-Herriot pour obtenir une méthode bayésienne générale pour réconcilier les estimations des comtés aux estimations des États (constituant la cible). Dans ce cas, nous supposons que les estimations cibles sont connues et dégageons les estimations des comtés avec pour contrainte que leur addition donne la valeur cible. C’est là une réconciliation externe qui a de l’importance pour la statistique officielle, et non seulement pour les données du NASS, et on le rencontre plus généralement dans les estimations sur petits domaines. Il est possible de réconcilier de telles estimations en « supprimant » un des comtés (habituellement le dernier) de manière à intégrer la contrainte de réconciliation au modèle. Il est tout aussi vrai cependant que les estimations peuvent changer selon le comté qui est supprimé au moment d’inclure la contrainte dans le modèle. Dans la présente étude, nous accordons à chaque petit domaine une chance de suppression et parlons pour toute cette procédure de méthode de réconciliation par suppression aléatoire. Nous démontrons empiriquement que les estimations accusent des différences selon le comté supprimé et qu’il existe des différences entre ces estimations et celles obtenues par suppression aléatoire. Ces différences peuvent être jugées petites, mais il est hautement logique de procéder par suppression aléatoire; aucun comté n’a alors droit à un traitement préférentiel et nous observons également une modeste hausse de la précision par rapport à une réconciliation avec suppression du dernier petit domaine.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 12-001-X201900200005
    Description :

    Nous exposons une méthode d’imputation de valeurs manquantes dans des données catégoriques multivariées emboîtées au sein des ménages. Cette méthode reposant sur un modèle à classes latentes (i) permet des variables au double niveau des ménages et des particuliers, (ii) attribue dans ce modèle une probabilité nulle aux configurations impossibles des ménages et (iii) peut préserver les distributions multivariées à la fois dans et entre les ménages. Nous présentons un échantillonneur de Gibbs pour l’estimation du modèle et la production des imputations. Nous décrivons en outre des stratégies d’amélioration de l’efficacité de calcul pour l’estimation du modèle. Nous illustrons enfin le rendement de la méthode à l’aide de données imitant les variables recueillies dans des recensements types de la population.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 12-001-X201900200006
    Description :

    Ce document présente un nouvel algorithme pour résoudre le problème de stratification unidimensionnelle optimale, lequel se ramène à une détermination des bornes de strate. Lorsque le nombre de strates H et la taille totale de l’échantillon n sont fixes, on obtient les bornes de strate en minimisant la variance de l’estimateur d’un total pour la variable de stratification. C’est un algorithme qui fait appel à la métaheuristique de l’algorithme génétique biaisé à clés aléatoires (BRKGA) pour trouver la solution optimale. Il a été démontré que cette métaheuristique produit des solutions de bonne qualité à de nombreux problèmes d’optimisation à un prix modeste en temps de calcul. L’algorithme est mis en œuvre dans le package stratbr en R disponible à partir de CRAN (de Moura Brito, do Nascimento Silva et da Veiga, 2017a). Nous livrons des résultats numériques pour un ensemble de 27 populations, ce qui permet de comparer le nouvel algorithme à certaines méthodes rivales figurant dans la documentation spécialisée. L’algorithme est d’un meilleur rendement que les méthodes plus simples par approximation. Il est également supérieur à quelques autres approches en optimisation. Il est égal en rendement à la meilleure technique d’optimisation que l’on doit à Kozak (2004). Son principal avantage sur la méthode de Kozak réside dans le couplage de la stratification optimale avec la répartition optimale que proposent de Moura Brito, do Nascimento Silva, Silva Semaan et Maculan (2015), d’où l’assurance que, si les bornes de stratification obtenues atteignent l’optimum global, la solution dégagée dans l’ensemble sera aussi l’optimum global pour les bornes de stratification et la répartition de l’échantillon.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 12-001-X201900200007
    Description :

    Quand on ajuste une variable catégorique ordonnée à L > 2 niveaux à un ensemble de covariables sur données d’enquêtes à plans complexes, on suppose communément que les éléments de la population suivent un modèle simple de régression logistique cumulative (modèle de régression logistique à cotes proportionnelles). Cela signifie que la probabilité que la variable catégorique se situe à un certain niveau ou au-dessous est une fonction logistique binaire des covariables du modèle. Ajoutons, sauf pour l’ordonnée à l’origine, les valeurs des paramètres de régression logistique sont les mêmes à chaque niveau. La méthode « fondée sur le plan » classique servant à ajuster le modèle à cotes proportionnelles est fondée sur le pseudo-maximum de vraisemblance. Nous comparons les estimations calculées par cette méthode à celles d’un traitement dans un cadre basé sur un modèle robuste sensible au plan. Nous indiquons par un simple exemple numérique en quoi les estimations tirées de ces deux traitements peuvent différer. La nouvelle méthode peut facilement s’élargir pour ajuster un modèle logistique cumulatif général où l’hypothèse du parallélisme peut ne pas se vérifier. Un test de cette hypothèse peut aisément s’ensuivre.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 12-001-X201900200008
    Description :

    De nos jours, il y a une non-réponse élevée dans de nombreuses enquêtes-échantillons, y compris d’importantes enquêtes menées par des organismes statistiques gouvernementaux. Une collecte de données adaptative peut être avantageuse dans cette situation : il est possible de réduire le biais de non-réponse dans les estimations de l’enquête, jusqu’à un certain point, en produisant un ensemble de répondants bien équilibré. Les variables auxiliaires ont un double objectif. Utilisées au cours de la phase d’estimation, elles réduisent le biais, sans toutefois l’éliminer complètement, par une pondération ajustée par calage. Au cours de la phase précédente de collecte de données adaptative, les variables auxiliaires jouent également un rôle important : elles contribuent à réduire le déséquilibre dans l’ensemble final de répondants. Dans le contexte de cette utilisation combinée de variables auxiliaires, le présent article est consacré à un examen de l’écart entre l’estimation par calage et l’estimation sans biais (réponse complète). Nous montrons que cet écart est la somme de deux composantes. La composante réductible peut être réduite, par la collecte de données adaptative, jusqu’à zéro si une réponse parfaitement équilibrée est obtenue par rapport à un vecteur auxiliaire choisi. En revanche, la composante résistante ne varie pas ou varie peu sous l’effet d’une réponse mieux équilibrée; elle représente une partie de l’écart qu’un plan adaptatif ne permet pas d’éliminer. La taille relative de cette première composante est un indicateur de l’avantage qu’on peut tirer d’un plan de sondage adaptatif.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 12-001-X201900200009
    Description :

    Ces dernières années, les mesures indirectes du biais de non-réponse dans les enquêtes ou d’autres formes de collecte de données ont suscité un vif intérêt, en raison de la diminution progressive des propensions à répondre aux enquêtes et des pressions exercées sur les budgets d’enquête. Ces changements ont poussé les sondeurs à se concentrer davantage sur la représentativité ou l’équilibre des unités échantillonnées répondantes par rapport à des variables auxiliaires pertinentes. Un exemple de mesure est l’indicateur de représentativité, ou indicateur R. Cet indicateur est basé sur la variation d’échantillon pondérée selon le plan de sondage des propensions à répondre estimées. Cela suppose que l’on dispose de données auxiliaires appariées. L’une des critiques de l’indicateur est qu’il ne peut pas être utilisé si l’information auxiliaire est disponible uniquement au niveau de la population. Dans le présent article, nous proposons une nouvelle méthode d’estimation des propensions à répondre qui ne requiert pas d’information auxiliaire pour les non-répondants à l’enquête et qui est fondée sur de l’information auxiliaire pour la population. Ces propensions à répondre basées sur la population peuvent alors être utilisées pour élaborer des indicateurs R faisant appel à des tableaux de contingence de population ou à des fréquences de population. Nous discutons des propriétés statistiques des indicateurs, et évaluons leur performance au moyen d’une étude portant sur des données réelles de recensement et d’une application à la Dutch Health Survey.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 12-001-X201900200010
    Description :

    Être un statisticien soucieux de calage, c’est appliquer des procédures qui s’inspirent des principes directeurs de l’approche de Neyman en matière d’inférence fréquentiste qui domine actuellement la pensée statistique. Être un statisticien rempli de sagesse devant un ensemble de données, c’est faire appel à certains modes de réflexion bayésiens et fiduciaux pour modérer le simple calage de Neyman. Dans cet article, nous expliquons le mariage des idées à l’aide du concept de calage conditionnel qui tire parti des idées plus récentes en simulation qui sont issues du calcul bayésien approximatif.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 13-605-X201900100008
    Description :

    La présente étude vise à élargir les concepts actuels de comptabilité nationale et les méthodes statistiques actuelles utilisées pour mesurer les données afin de mettre en lumière des changements qui ont de lourdes conséquences dans la société et qui sont liés à l’utilisation accrue des données. L’étude se termine par une discussion sur les méthodes qui pourraient être utilisées pour établir la valeur économique de divers éléments qui font partie de la chaîne d’information et l’évaluation de ces concepts et méthodes en présentant les résultats pour le Canada en tant que première tentative de mesurer la valeur des données.

    Date de diffusion : 2019-06-24

  • Articles et rapports : 75F0002M2019007
    Description :

    Le fait de ne pas avoir de numéro d’assurance sociale (NAS) et ne pas produire de déclarations de revenus peut limiter l’accès à des programmes gouvernementaux de soutien comme la Subvention canadienne pour l’épargne-études (SCEE) et le Bon d’études canadien (BEC). En raison de la disponibilité limitée des données, l’ampleur des défis d’accès n’a pas pu être pleinement évaluée. Cette étude tente de combler cette lacune statistique en analysant les différences globales par rapport au fait de posséder un NAS et de produire une déclaration de revenus, selon le revenu familial, le niveau de scolarité des parents, le type de famille, l’identité autochtone de l’enfant et l’âge de l’enfant, au moyen des données du Recensement de 2016, complétées par des indicateurs de substitution de déclarations de revenus et de possession d’un NAS.

    Date de diffusion : 2019-06-21
Références (7)

Références (7) ((7 résultats))

  • Enquêtes et programmes statistiques — Documentation : 12-539-X
    Description :

    Ce document réunit des lignes directrices et des listes de contrôles liées à de nombreuses questions dont on doit tenir compte dans la poursuite des objectifs de qualité que sous-tend l'exécution des activités statistiques. Le document s'attarde principalement à la façon d'assurer la qualité grâce à la conception ou à la restructuration efficace et adéquate d'un projet ou d'un programme statistique, des débuts jusqu'à l'évaluation, la diffusion et la documentation des données. Ces lignes directrices sont fondées sur les connaissances et l'expérience collective d'un grand nombre d'employés de Statistique Canada. On espère que les Lignes directrices concernant la qualité seront utiles au personnel chargé de la planification et de la conception des enquêtes et d'autres projets statistiques, ainsi qu'à ceux qui évaluent et analysent les résultats de ces projets.

    Date de diffusion : 2019-12-04

  • Enquêtes et programmes statistiques — Documentation : 98-303-X
    Description :

    Le Rapport technique sur la couverture présentera l'erreur incluse dans les données du recensement provenant des personnes omises (non dénombrées) ou des personnes dénombrées plus d’une fois par le Recensement de 2016. L’erreur de couverture de la population est parmi les types d'erreurs les plus importantes, car elle a une incidence, non seulement sur l'exactitude des chiffres de population, mais également sur l'exactitude de tous les résultats des données du recensement décrivant les caractéristiques de l'univers de la population.

    Date de diffusion : 2019-11-13

  • Enquêtes et programmes statistiques — Documentation : 99-011-X
    Description :

    Ce thème présente des données sur les Autochtones du Canada et leurs caractéristiques démographiques. Selon l'application, les estimations fondées sur les concepts suivants pourraient être appropriées pour la population autochtone : 1) Identité autochtone, 2) Ascendance autochtone, 3) Indien inscrit ou des traités et 4) Membre d'une Première Nation ou d'une bande indienne. Les données de l'Enquête nationale auprès des ménages de 2011 sont offertes pour les localités géographiques où ces populations résident, y compris les subdivisions de recensement « dans les réserves » et les collectivités inuites de l'Inuit Nunangat ainsi que les autres régions géographiques, c.-à-d. aux niveaux national (Canada), provincial et territorial.

    Produits analytiques

    Le document analytique offre des analyses relatives aux principales conclusions et aux tendances dans les données, et a comme complément les courts articles trouvés dans l'ENM en bref et dans la Série « Perspective géographique » de l'ENM.

    Produits de données

    Le Profil de l'ENM est l'un des produits de données qui offrent un aperçu statistique des régions géographiques déterminées par l'utilisateur, fondé sur plusieurs variables détaillées ou groupes de variables. D'autres produits de données comprennent des tableaux de données qui représentent une série de tableaux croisés d'une complexité variée et sont offerts pour plusieurs niveaux géographiques.

    Date de diffusion : 2019-10-29

  • Enquêtes et programmes statistiques — Documentation : 11-621-M2018105
    Description :

    Statistique Canada doit réagir à la légalisation du cannabis pour usage non médical en mesurant divers aspects de l'introduction du cannabis dans l'économie et la société canadiennes. Une partie importante de la mesure de l'économie et de la société est l'utilisation des classifications statistiques. Il est de pratique courante pour les classifications qu'elles soient mises à jour et révisées à mesure que de nouvelles industries, de nouveaux produits, professions et programmes éducatifs sont introduits dans l'économie et la société canadiennes. Cet article décrit les changements apportés aux différentes classifications statistiques utilisées par Statistique Canada afin de mesurer l'introduction du cannabis légal pour usage non médical.

    Date de diffusion : 2019-07-24

  • Enquêtes et programmes statistiques — Documentation : 11-633-X2019001
    Description :

    Le mandat de la Direction des études analytiques (DEA) est de fournir des renseignements actuels, pertinents et de haute qualité sur des questions économiques, sociales et de santé qui importent aux Canadiens. La Direction tire profit des connaissances spécialisées et d’un large éventail de sources statistiques de façon stratégique afin de décrire la nature évolutive de l’économie et de la société canadiennes et de tirer des conclusions et des constats objectifs reposant sur des données scientifiques sur celle-ci. Pour étudier les questions de recherche, la Direction a recours à des méthodes de pointe, y compris la microsimulation et l’analyse prédictive, en se fondant sur une gamme de données administratives et d’enquête couplées et intégrées. Dans l’optique de l’accroissement de l’accès aux données, les données couplées de la DEA sont mises à la disposition des chercheurs et des décideurs externes pour appuyer la prise de décisions fondées sur des données probantes. La Direction diffuse les résultats de recherche sur divers supports (c.-à-d. des documents de recherche, des études, des infographies, des vidéos et des blogues) pour répondre aux besoins des utilisateurs. La Direction offre également un soutien en matière d’analyse et de la formation, de la rétroaction et des services d’assurance de la qualité au vaste éventail de programmes menés au sein et à l’extérieur de Statistique Canada.

    Date de diffusion : 2019-05-29

  • Avis et consultations : 75F0002M2019006
    Description :

    En 2018, Statistique Canada a diffusé deux nouveaux tableaux de données présentant des estimations des taux d’imposition et de transfert effectifs des déclarants et des familles de recensement. Ces estimations sont tirées de la Banque de données administratives longitudinales. La publication fournit une description détaillée des méthodes utilisées pour produire les estimations des taux d’imposition et de transfert effectifs.

    Date de diffusion : 2019-04-16

  • Enquêtes et programmes statistiques — Documentation : 75-005-M2019001
    Description :

    La production de statistiques issues de l'Enquête sur la population active (EPA) s'accompagne de plusieurs activités, dont une est le traitement des données. Cette étape consiste à vérifier et corriger les données, au besoin, et à produire des fichiers de microdonnées. À partir de janvier 2019, le traitement de l'EPA passera à un nouveau système, l'Environnement pour le traitement des enquêtes sociales. Ce document décrit le développement et la mise à l'épreuve qui ont précédé l'implémentation du nouveau système, et démontre que le passage au nouveau système n'aura qu'une incidence minime sur les estimations de l'EPA et qu'il sera transparent pour les utilisateurs de données.

    Date de diffusion : 2019-02-08
Date de modification :