Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Enquête ou programme statistique

81 facets displayed. 0 facets selected.

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (1 889)

Tout (1 889) (0 à 10 de 1 889 résultats)

  • Articles et rapports : 11-522-X202200100017
    Description : Dans le présent document, nous recherchons la présence d’hétérogénéité dans la réalisation des évaluations de l’impact de l’intervention en développement des compétences offerte dans le cadre des Ententes sur le développement du marché du travail. Nous utilisons des données administratives longitudinales couplées couvrant un échantillon de personnes ayant participé au développement des compétences de 2010 à 2017. Nous appliquons un estimateur causal d’apprentissage automatique comme dans Lechner (2019) pour estimer les impacts individualisés du programme au niveau d’agrégation à la granularité la plus fine. Ces impacts granulaires révèlent la répartition des impacts nets, ce qui permet de plus facilement étudier les éléments pour déterminer les plus efficaces pour chaque personne. Les résultats montrent des améliorations statistiquement significatives des résultats sur le marché du travail pour les participants en général et pour les sous-groupes d’intérêt stratégique.
    Date de diffusion : 2024-06-28

  • Revues et périodiques : 11-522-X
    Description : Depuis 1984, une série de conférences annuelles a été parrainée par Statistique Canada. Le recueil de la conférence est disponible depuis 1987.
    Date de diffusion : 2024-06-28

  • Articles et rapports : 12-001-X202400100001
    Description : Inspirés par les deux excellentes discussions de notre article, nous offrons un regard nouveau et présentons de nouvelles avancées sur le problème de l’estimation des probabilités de participation pour des échantillons non probabilistes. Tout d’abord, nous proposons une amélioration de la méthode de Chen, Li et Wu (2020), fondée sur la théorie de la meilleure estimation linéaire sans biais, qui tire plus efficacement parti des données disponibles des échantillons probabiliste et non probabiliste. De plus, nous élaborons une méthode de vraisemblance de l’échantillon, dont l’idée est semblable à la méthode d’Elliott (2009), qui tient adéquatement compte du chevauchement entre les deux échantillons quand il est possible de l’identifier dans au moins un des échantillons. Nous utilisons la théorie de la meilleure prédiction linéaire sans biais pour traiter le scénario où le chevauchement est inconnu. Il est intéressant de constater que les deux méthodes que nous proposons coïncident quand le chevauchement est inconnu. Ensuite, nous montrons que de nombreuses méthodes existantes peuvent être obtenues comme cas particulier d’une fonction d’estimation sans biais générale. Enfin, nous concluons en formulant quelques commentaires sur l’estimation non paramétrique des probabilités de participation.
    Date de diffusion : 2024-06-25

  • Articles et rapports : 12-001-X202400100002
    Description : Nous proposons des comparaisons entre trois méthodes paramétriques d’estimation des probabilités de participation ainsi que de brefs commentaires à propos des groupes homogènes et de la poststratification.
    Date de diffusion : 2024-06-25

  • Articles et rapports : 12-001-X202400100003
    Description : Beaumont, Bosa, Brennan, Charlebois et Chu (2024) proposent des méthodes novatrices de sélection de modèles aux fins d’estimation des probabilités de participation pour des unités d’échantillonnage non probabiliste. Notre examen portera principalement sur le choix de la vraisemblance et du paramétrage du modèle, qui sont essentiels à l’efficacité des techniques proposées dans l’article. Nous examinons d’autres méthodes fondées sur la vraisemblance et la pseudo-vraisemblance pour estimer les probabilités de participation et nous présentons des simulations mettant en œuvre et comparant la sélection de variables fondée sur le critère d’information d’Akaike (AIC). Nous démontrons que, dans des scénarios pratiques importants, la méthode fondée sur une vraisemblance formulée sur les échantillons non probabiliste et probabiliste groupés qui sont observés offre un meilleur rendement que les autres solutions fondées sur la pseudo-vraisemblance. La différence de sensibilité du AIC est particulièrement grande en cas de petites tailles de l’échantillon probabiliste et de petit chevauchement dans les domaines de covariables.
    Date de diffusion : 2024-06-25

  • Articles et rapports : 12-001-X202400100004
    Description : Les organismes nationaux de statistique étudient de plus en plus la possibilité d’utiliser des échantillons non probabilistes comme solution de rechange aux échantillons probabilistes. Toutefois, il est bien connu que l’utilisation d’un échantillon non probabiliste seul peut produire des estimations présentant un biais important en raison de la nature inconnue du mécanisme de sélection sous-jacent. Il est possible de réduire le biais en intégrant les données de l’échantillon non probabiliste aux données d’un échantillon probabiliste, à condition que les deux échantillons contiennent des variables auxiliaires communes. Nous nous concentrons sur les méthodes de pondération par l’inverse de la probabilité, lesquelles consistent à modéliser la probabilité de participation à l’échantillon non probabiliste. Premièrement, nous examinons le modèle logistique ainsi que l’estimation par la méthode du pseudo maximum de vraisemblance. Nous proposons une procédure de sélection de variables en fonction d’un critère d’information d’Akaike (AIC) modifié qui tient compte de la structure des données et du plan d’échantillonnage probabiliste. Nous proposons également une méthode simple fondée sur le rang pour former des strates a posteriori homogènes. Ensuite, nous adaptons l’algorithme des arbres de classification et de régression (CART) à ce scénario d’intégration de données, tout en tenant compte, encore une fois, du plan d’échantillonnage probabiliste. Nous proposons un estimateur de la variance bootstrap qui tient compte de deux sources de variabilité : le plan d’échantillonnage probabiliste et le modèle de participation. Nos méthodes sont illustrées au moyen de données recueillies par approche participative et de données d’enquête de Statistique Canada.
    Date de diffusion : 2024-06-25

  • Articles et rapports : 12-001-X202400100005
    Description : Dans cette réplique, je réponds aux commentaires des participants à l’analyse, M. Takumi Saegusa, M. Jae-Kwang Kim et Mme Yonghyun Kwon. Les commentaires de M. Saegusa, qui portent sur les différences entre l’hypothèse d’échangeabilité conditionnelle (EC) pour les inférences causales et l’hypothèse d’EC pour les inférences de population finie au moyen d’échantillons non probabilistes ainsi que sur la distinction entre les méthodes fondées sur le plan et celles fondées sur un modèle pour l’inférence de population finie au moyen d’échantillons non probabilistes, sont examinés et clarifiés dans le contexte de mon article. Je réponds ensuite au cadre exhaustif de M. Kim et de Mme Kwon pour classer les méthodes actuelles d’estimation des scores de propension (SP) en méthodes conditionnelles et inconditionnelles. J’étends leurs études par simulations pour varier les poids de sondage, permettre des modèles de SP incorrectement précisés, et inclure un estimateur supplémentaire, à savoir l’estimateur par la propension logistique ajustée mis à l’échelle (Wang, Valliant et Li (2021), noté sWBS). Dans mes simulations, on observe que l’estimateur sWBS dépasse de façon constante les autres estimateurs ou leur est comparable dans le modèle de SP incorrectement précisé. L’estimateur sWBS, ainsi que les estimateurs WBS ou ABS décrits dans mon article, ne supposent pas que les unités superposées dans les échantillons de référence probabiliste et non probabiliste sont négligeables, et ils n’exigent pas non plus l’identification des unités superposées, comme le nécessitent les estimateurs proposés par M. Kim et Mme Kwon.
    Date de diffusion : 2024-06-25

  • Articles et rapports : 12-001-X202400100006
    Description : Dans certains articles sur les échantillons non probabilistes, l’hypothèse de l’échangeabilité conditionnelle est jugée nécessaire pour une inférence statistique valide. Cette hypothèse repose sur une inférence causale, bien que son cadre de résultat potentiel diffère grandement de celui des échantillons non probabilistes. Nous décrivons les similitudes et les différences entre deux cadres et abordons les enjeux à prendre en considération lors de l’adoption de l’hypothèse d’échangeabilité conditionnelle dans les configurations d’échantillons non probabilistes. Nous examinons aussi le rôle de l’inférence de la population finie dans différentes approches de scores de propension et de modélisation de régression des résultats à l’égard des échantillons non probabilistes.
    Date de diffusion : 2024-06-25

  • Articles et rapports : 12-001-X202400100007
    Description : La construction de pseudo-poids pour l’intégration des données peut être comprise dans le cadre de l’échantillonnage à deux phases. Au moyen du cadre d’échantillonnage à deux phases, nous abordons deux approches de l’estimation des scores de propension et mettons au point une nouvelle façon de construire la fonction de score de propension pour l’intégration des données en utilisant la méthode de maximum de vraisemblance conditionnelle. Les résultats d’une étude de simulation limitée sont aussi présentés.
    Date de diffusion : 2024-06-25

  • Articles et rapports : 12-001-X202400100008
    Description : Des échantillons non probabilistes émergent rapidement pour aborder des sujets prioritaires urgents dans différents domaines. Ces données sont actuelles, mais sujettes à un biais de sélection. Afin de réduire le biais de sélection, une littérature abondante portant sur la recherche sur les enquêtes a étudié l’utilisation de méthodes d’ajustement par le score de propension (SP) pour améliorer la représentativité de la population des échantillons non probabilistes, au moyen d’échantillons d’enquête probabilistes utilisés comme références externes. L’hypothèse d’échangeabilité conditionnelle (EC) est l’une des principales hypothèses requises par les méthodes d’ajustement fondées sur le SP. Dans le présent article, j’examine d’abord la validité de l’hypothèse de l’EC conditionnellement à plusieurs estimations de scores d’équilibrage qui sont utilisées dans les méthodes d’ajustement fondées sur le SP existantes. Un score d’équilibrage adaptatif est proposé aux fins d’estimation sans biais des moyennes de population. Les estimateurs de la moyenne de population selon les trois hypothèses de l’EC sont évalués au moyen d’études de simulation de Monte Carlo et illustrés au moyen de l’étude sur la séroprévalence du SRAS-CoV-2 des National Institutes of Health pour estimer la proportion d’adultes aux États-Unis qui présentaient des anticorps de la COVID-19 du 1er avril au 4 août 2020.
    Date de diffusion : 2024-06-25
Stats en bref (81)

Stats en bref (81) (50 à 60 de 81 résultats)

Articles et rapports (1 783)

Articles et rapports (1 783) (0 à 10 de 1 783 résultats)

  • Articles et rapports : 11-522-X202200100017
    Description : Dans le présent document, nous recherchons la présence d’hétérogénéité dans la réalisation des évaluations de l’impact de l’intervention en développement des compétences offerte dans le cadre des Ententes sur le développement du marché du travail. Nous utilisons des données administratives longitudinales couplées couvrant un échantillon de personnes ayant participé au développement des compétences de 2010 à 2017. Nous appliquons un estimateur causal d’apprentissage automatique comme dans Lechner (2019) pour estimer les impacts individualisés du programme au niveau d’agrégation à la granularité la plus fine. Ces impacts granulaires révèlent la répartition des impacts nets, ce qui permet de plus facilement étudier les éléments pour déterminer les plus efficaces pour chaque personne. Les résultats montrent des améliorations statistiquement significatives des résultats sur le marché du travail pour les participants en général et pour les sous-groupes d’intérêt stratégique.
    Date de diffusion : 2024-06-28

  • Articles et rapports : 12-001-X202400100001
    Description : Inspirés par les deux excellentes discussions de notre article, nous offrons un regard nouveau et présentons de nouvelles avancées sur le problème de l’estimation des probabilités de participation pour des échantillons non probabilistes. Tout d’abord, nous proposons une amélioration de la méthode de Chen, Li et Wu (2020), fondée sur la théorie de la meilleure estimation linéaire sans biais, qui tire plus efficacement parti des données disponibles des échantillons probabiliste et non probabiliste. De plus, nous élaborons une méthode de vraisemblance de l’échantillon, dont l’idée est semblable à la méthode d’Elliott (2009), qui tient adéquatement compte du chevauchement entre les deux échantillons quand il est possible de l’identifier dans au moins un des échantillons. Nous utilisons la théorie de la meilleure prédiction linéaire sans biais pour traiter le scénario où le chevauchement est inconnu. Il est intéressant de constater que les deux méthodes que nous proposons coïncident quand le chevauchement est inconnu. Ensuite, nous montrons que de nombreuses méthodes existantes peuvent être obtenues comme cas particulier d’une fonction d’estimation sans biais générale. Enfin, nous concluons en formulant quelques commentaires sur l’estimation non paramétrique des probabilités de participation.
    Date de diffusion : 2024-06-25

  • Articles et rapports : 12-001-X202400100002
    Description : Nous proposons des comparaisons entre trois méthodes paramétriques d’estimation des probabilités de participation ainsi que de brefs commentaires à propos des groupes homogènes et de la poststratification.
    Date de diffusion : 2024-06-25

  • Articles et rapports : 12-001-X202400100003
    Description : Beaumont, Bosa, Brennan, Charlebois et Chu (2024) proposent des méthodes novatrices de sélection de modèles aux fins d’estimation des probabilités de participation pour des unités d’échantillonnage non probabiliste. Notre examen portera principalement sur le choix de la vraisemblance et du paramétrage du modèle, qui sont essentiels à l’efficacité des techniques proposées dans l’article. Nous examinons d’autres méthodes fondées sur la vraisemblance et la pseudo-vraisemblance pour estimer les probabilités de participation et nous présentons des simulations mettant en œuvre et comparant la sélection de variables fondée sur le critère d’information d’Akaike (AIC). Nous démontrons que, dans des scénarios pratiques importants, la méthode fondée sur une vraisemblance formulée sur les échantillons non probabiliste et probabiliste groupés qui sont observés offre un meilleur rendement que les autres solutions fondées sur la pseudo-vraisemblance. La différence de sensibilité du AIC est particulièrement grande en cas de petites tailles de l’échantillon probabiliste et de petit chevauchement dans les domaines de covariables.
    Date de diffusion : 2024-06-25

  • Articles et rapports : 12-001-X202400100004
    Description : Les organismes nationaux de statistique étudient de plus en plus la possibilité d’utiliser des échantillons non probabilistes comme solution de rechange aux échantillons probabilistes. Toutefois, il est bien connu que l’utilisation d’un échantillon non probabiliste seul peut produire des estimations présentant un biais important en raison de la nature inconnue du mécanisme de sélection sous-jacent. Il est possible de réduire le biais en intégrant les données de l’échantillon non probabiliste aux données d’un échantillon probabiliste, à condition que les deux échantillons contiennent des variables auxiliaires communes. Nous nous concentrons sur les méthodes de pondération par l’inverse de la probabilité, lesquelles consistent à modéliser la probabilité de participation à l’échantillon non probabiliste. Premièrement, nous examinons le modèle logistique ainsi que l’estimation par la méthode du pseudo maximum de vraisemblance. Nous proposons une procédure de sélection de variables en fonction d’un critère d’information d’Akaike (AIC) modifié qui tient compte de la structure des données et du plan d’échantillonnage probabiliste. Nous proposons également une méthode simple fondée sur le rang pour former des strates a posteriori homogènes. Ensuite, nous adaptons l’algorithme des arbres de classification et de régression (CART) à ce scénario d’intégration de données, tout en tenant compte, encore une fois, du plan d’échantillonnage probabiliste. Nous proposons un estimateur de la variance bootstrap qui tient compte de deux sources de variabilité : le plan d’échantillonnage probabiliste et le modèle de participation. Nos méthodes sont illustrées au moyen de données recueillies par approche participative et de données d’enquête de Statistique Canada.
    Date de diffusion : 2024-06-25

  • Articles et rapports : 12-001-X202400100005
    Description : Dans cette réplique, je réponds aux commentaires des participants à l’analyse, M. Takumi Saegusa, M. Jae-Kwang Kim et Mme Yonghyun Kwon. Les commentaires de M. Saegusa, qui portent sur les différences entre l’hypothèse d’échangeabilité conditionnelle (EC) pour les inférences causales et l’hypothèse d’EC pour les inférences de population finie au moyen d’échantillons non probabilistes ainsi que sur la distinction entre les méthodes fondées sur le plan et celles fondées sur un modèle pour l’inférence de population finie au moyen d’échantillons non probabilistes, sont examinés et clarifiés dans le contexte de mon article. Je réponds ensuite au cadre exhaustif de M. Kim et de Mme Kwon pour classer les méthodes actuelles d’estimation des scores de propension (SP) en méthodes conditionnelles et inconditionnelles. J’étends leurs études par simulations pour varier les poids de sondage, permettre des modèles de SP incorrectement précisés, et inclure un estimateur supplémentaire, à savoir l’estimateur par la propension logistique ajustée mis à l’échelle (Wang, Valliant et Li (2021), noté sWBS). Dans mes simulations, on observe que l’estimateur sWBS dépasse de façon constante les autres estimateurs ou leur est comparable dans le modèle de SP incorrectement précisé. L’estimateur sWBS, ainsi que les estimateurs WBS ou ABS décrits dans mon article, ne supposent pas que les unités superposées dans les échantillons de référence probabiliste et non probabiliste sont négligeables, et ils n’exigent pas non plus l’identification des unités superposées, comme le nécessitent les estimateurs proposés par M. Kim et Mme Kwon.
    Date de diffusion : 2024-06-25

  • Articles et rapports : 12-001-X202400100006
    Description : Dans certains articles sur les échantillons non probabilistes, l’hypothèse de l’échangeabilité conditionnelle est jugée nécessaire pour une inférence statistique valide. Cette hypothèse repose sur une inférence causale, bien que son cadre de résultat potentiel diffère grandement de celui des échantillons non probabilistes. Nous décrivons les similitudes et les différences entre deux cadres et abordons les enjeux à prendre en considération lors de l’adoption de l’hypothèse d’échangeabilité conditionnelle dans les configurations d’échantillons non probabilistes. Nous examinons aussi le rôle de l’inférence de la population finie dans différentes approches de scores de propension et de modélisation de régression des résultats à l’égard des échantillons non probabilistes.
    Date de diffusion : 2024-06-25

  • Articles et rapports : 12-001-X202400100007
    Description : La construction de pseudo-poids pour l’intégration des données peut être comprise dans le cadre de l’échantillonnage à deux phases. Au moyen du cadre d’échantillonnage à deux phases, nous abordons deux approches de l’estimation des scores de propension et mettons au point une nouvelle façon de construire la fonction de score de propension pour l’intégration des données en utilisant la méthode de maximum de vraisemblance conditionnelle. Les résultats d’une étude de simulation limitée sont aussi présentés.
    Date de diffusion : 2024-06-25

  • Articles et rapports : 12-001-X202400100008
    Description : Des échantillons non probabilistes émergent rapidement pour aborder des sujets prioritaires urgents dans différents domaines. Ces données sont actuelles, mais sujettes à un biais de sélection. Afin de réduire le biais de sélection, une littérature abondante portant sur la recherche sur les enquêtes a étudié l’utilisation de méthodes d’ajustement par le score de propension (SP) pour améliorer la représentativité de la population des échantillons non probabilistes, au moyen d’échantillons d’enquête probabilistes utilisés comme références externes. L’hypothèse d’échangeabilité conditionnelle (EC) est l’une des principales hypothèses requises par les méthodes d’ajustement fondées sur le SP. Dans le présent article, j’examine d’abord la validité de l’hypothèse de l’EC conditionnellement à plusieurs estimations de scores d’équilibrage qui sont utilisées dans les méthodes d’ajustement fondées sur le SP existantes. Un score d’équilibrage adaptatif est proposé aux fins d’estimation sans biais des moyennes de population. Les estimateurs de la moyenne de population selon les trois hypothèses de l’EC sont évalués au moyen d’études de simulation de Monte Carlo et illustrés au moyen de l’étude sur la séroprévalence du SRAS-CoV-2 des National Institutes of Health pour estimer la proportion d’adultes aux États-Unis qui présentaient des anticorps de la COVID-19 du 1er avril au 4 août 2020.
    Date de diffusion : 2024-06-25

  • Articles et rapports : 12-001-X202400100009
    Description : Nos commentaires répondent aux points de discussion soulevés par Sen, Brick et Elliott. Nous évaluons les avantages et les inconvénients potentiels de la suggestion de Sen de recourir à l’apprentissage automatique pour repérer les faux répondants au moyen d’interactions et de combinaisons improbables de variables. Nous rejoignons la réflexion de Brick sur l’incidence des faux répondants sur les enquêtes non probabilistes menées à des fins commerciales. Enfin, nous examinons les solutions proposées par Elliott pour relever le défi exposé dans notre étude.
    Date de diffusion : 2024-06-25
Revues et périodiques (25)

Revues et périodiques (25) (0 à 10 de 25 résultats)

  • Revues et périodiques : 11-522-X
    Description : Depuis 1984, une série de conférences annuelles a été parrainée par Statistique Canada. Le recueil de la conférence est disponible depuis 1987.
    Date de diffusion : 2024-06-28

  • Revues et périodiques : 12-001-X
    Géographie : Canada
    Description : La revue publie des articles sur les divers aspects des méthodes statistiques qui intéressent un organisme statistique comme, par exemple, les problèmes de conception découlant de contraintes d'ordre pratique, l'utilisation de différentes sources de données et de méthodes de collecte, les erreurs dans les enquêtes, l'évaluation des enquêtes, la recherche sur les méthodes d'enquêtes, l'analyse des séries chronologiques, la désaisonnalisation, les études démographiques, l'intégration des données statistiques, les méthodes d'estimation et d'analyse de données et le développement de systèmes généralisés. Une importance particulière est accordée à l'élaboration et à l'évaluation de méthodes qui ont été utilisées pour la collecte de données ou appliquées à des données réelles.
    Date de diffusion : 2024-06-25

  • Revues et périodiques : 75F0002M
    Description : Cette série comprend de la documentation détaillée sur revenu, notamment les problèmes de conception, l'évaluation qualitative des données et les recherches préliminaires.
    Date de diffusion : 2024-04-26

  • Revues et périodiques : 11-633-X
    Description : Les documents de cette série traitent des méthodes utilisées pour produire des données qui seront employées pour effectuer des études analytiques à Statistique Canada sur l’économie, la santé et la société. Ils ont pour but de renseigner les lecteurs sur les méthodes statistiques, les normes et les définitions utilisées pour élaborer des bases de données à des fins de recherche. Tous les documents de la série ont fait l’objet d’un examen par les pairs et d’une révision institutionnelle, afin de veiller à ce qu’ils soient conformes au mandat de Statistique Canada et qu’ils respectent les normes généralement reconnues régissant les bonnes pratiques professionnelles.
    Date de diffusion : 2024-01-22

  • Revues et périodiques : 12-206-X
    Description : Le présent rapport fait la synthèse des réalisations annuelles du Programme de recherche et développement en méthodologie (PRDM) de la Direction des méthodes statistiques modernes et de la science des données de Statistique Canada. Ce programme comprend les activités de recherche et développement en méthodes statistiques susceptibles d’être appliquées à grande échelle aux programmes statistiques de l’organisme; ce sont des activités qui, autrement, ne s’exerceraient pas complètement dans le cadre des services réguliers de méthodologie offerts à ces programmes. Ajoutons que, dans le but de promouvoir l’utilisation des résultats des travaux de recherche et de développement, le PRDM comporte des activités de soutien pour la mise en application de travaux de développement antérieurs fructueux. Certaines activités de recherche exploratoire sont également rapportées.
    Date de diffusion : 2023-10-11

  • Revues et périodiques : 92F0138M
    Description :

    La Série de documents de travail de la géographie vise à stimuler des discussions sur une variété de sujets reliés au travail conceptuel, méthodologique et technique à l'appui de l'élaboration et de la diffusion des données, des produits et des services de la division. Nous encourageons les lecteurs de la série à communiquer avec la Division de la géographie pour lui fournir leurs commentaires et suggestions.

    Date de diffusion : 2019-11-13

  • Revues et périodiques : 89-20-0001
    Description :

    Les ouvrages historiques permettent aux lecteurs de jeter un regard sur le passé, non seulement pour satisfaire leur curiosité en ce qui a trait à « la façon de faire d’autrefois », mais aussi pour prendre conscience du chemin parcouru depuis et tirer des leçons du passé. Pour Statistique Canada, les ouvrages de ce genre offrent également la possibilité de mettre en valeur la contribution apportée par l’organisme au Canada et à sa population, tout en nous rappelant qu’une telle institution continue d’évoluer chaque jour.

    À l’occasion du centième anniversaire de Statistique Canada en 2018, l’ouvrage Jouer dans la cour des grands : Histoire de Statistique Canada : 1970 à 2008 prend appui sur les travaux de deux publications notables sur l’histoire de l’organisme. Il porte sur l’histoire de l’organisme de 1970 à 2008 et couvre ainsi 36 années. De même, lorsque suffisamment de temps se sera écoulé pour atteindre un niveau d’objectivité adéquat, il sera temps, encore une fois, de transcrire le prochain chapitre de l’organisme, qui ne cesse de raconter l’histoire du Canada en chiffres.

    Date de diffusion : 2018-12-03

  • Revues et périodiques : 12-605-X
    Description :

    Le Modèle du processus d'un projet de couplage d'enregistrements (MPPCE) a été développé par Statistique Canada pour identifier les processus et les activités mis en œuvres dans des projets de couplage d'enregistrements. Le MPPCE s'applique aux projets menés aux niveaux tant individuel que de l'entreprise en utilisant diverses sources de données pour créer des nouvelles sources de données.

    Date de diffusion : 2017-06-05

  • Revues et périodiques : 91-621-X
    Description :

    Ce document décrit succinctement le fonctionnement général ainsi que les méthodes et sources de données du modèle de projections démographiques par microsimulation Demosim. Il constitue un complément méthodologique aux produits analytiques issus de Demosim.

    Date de diffusion : 2017-01-25

  • Revues et périodiques : 11-634-X
    Description :

    Cette publication est un répertoire de stratégies, rouages et mécanismes qu’un organisme statistique devrait s’atteler à considérer et mettre en œuvre et ce, dans le contexte dans lequel l’organisme évolue. Ce compendium est basé sur les leçons apprises et bonnes pratiques en matière de direction et de gestion d’organismes statistiques, dans le cadre du Programme international en gestion d’organismes statistiques (PIGOS) de Statistique Canada. Il est composé de quatre sections qui sont les suivantes : les caractéristiques d’un système statistique national efficace; les principales pratiques de gestion; l’amélioration, la modernisation et la recherche de gains d’efficacité ; et, les stratégies pour informer et mobiliser les intervenants clé.

    Date de diffusion : 2016-07-06
Date de modification :