Aide à l'ordre
entrées

Résultats

Tout (15)

Tout (15) (0 à 10 de 15 résultats)

  • Articles et rapports : 12-001-X201600214663
    Description :

    Nous présentons des preuves théoriques que les efforts déployés durant la collecte des données en vue d’équilibrer la réponse à l’enquête en ce qui concerne certaines variables auxiliaires augmentera les chances que le biais de non-réponse soit faible dans les estimations qui sont, en fin de compte, produites par pondération calée. Nous montrons que la variance du biais – mesurée ici comme étant l’écart de l’estimateur calé par rapport à l’estimateur sans biais sur échantillon complet (non réalisé) – diminue linéairement en fonction du déséquilibre de la réponse que nous supposons être mesuré et contrôlé continuellement tout au long de la période de collecte des données. Cela offre donc la perspective intéressante d’un plus faible risque de biais si l’on peut gérer la collecte des données de manière à réduire le déséquilibre. Les résultats théoriques sont validés au moyen d’une étude en simulation s’appuyant sur des données réelles provenant d’une enquête-ménages estonienne.

    Date de diffusion : 2016-12-20

  • Articles et rapports : 11-633-X2016003
    Description :

    De grandes cohortes de mortalité nationales sont utilisées pour estimer les taux de mortalité en fonction de différents groupes socioéconomiques et démographiques ainsi que pour effectuer des recherches dans le domaine de la santé environnementale. En 2008, Statistique Canada a créé une cohorte en couplant les données du Recensement de 1991 avec des données sur la mortalité. La présente étude décrit le couplage des données des répondants au questionnaire détaillé du Recensement de 2001 âgés de 19 ans et plus avec les données du Fichier maître des particuliers T1 et la Base de données combinées sur la mortalité. Ce couplage permet de faire le suivi de tous les décès survenus sur une période de 10,6 ans (soit pour le moment jusqu’à la fin de 2011).

    Date de diffusion : 2016-10-26

  • Articles et rapports : 11-633-X2016002
    Description :

    Les immigrants forment une proportion sans cesse croissante de la population canadienne; elle s’établit actuellement à plus de 20 %, soit le pourcentage le plus élevé parmi les pays du G8 (Statistique Canada, 2013a). On s’attend à ce que ce chiffre atteigne entre 25 % et 28 % d’ici 2031, quand au moins une personne sur quatre vivant au Canada sera née à l’étranger (Statistique Canada, 2010).

    Le présent rapport résume le couplage d’enregistrements des fichiers d’établissement des immigrants de l’ensemble des provinces et des territoires (nommé FEI aux fins de l’étude), sauf le Québec, aux données hospitalières de la Base de données sur les congés des patients (BDCP), une base de données nationale qui renferme de l’information sur les patients hospitalisés et les chirurgies d’un jour. Une méthode d’appariement exact déterministe a servi à apparier les enregistrements du FEI de 1980 à 2006 et les données de la BDCP (2006-2007, 2007-2008 et 2008-2009) aux données du Recensement de 2006, qui a servi de fichier de « rapprochement ». Il s’agissait d’un couplage secondaire en ce sens qu’il s’appuyait sur des clés de couplage créées lors de deux projets précédents (couplages principaux) où les données du FEI et de la BDCP ont été couplées séparément aux données du Recensement de 2006. Les données couplées du FEI et de la BDCP ont été validées au moyen d’un échantillon représentatif d’enregistrements du Recensement de 2006 contenant des données sur les immigrants ayant précédemment fait l’objet d’un couplage aux données de la BDCP.

    Date de diffusion : 2016-08-17

  • Articles et rapports : 11-633-X2016001
    Description :

    Chaque année, des milliers de travailleurs perdent leur emploi, parce que des entreprises réduisent la taille de leur effectif en réaction à la concurrence croissante, aux changements technologiques, à l’évolution de la structure des échanges et à de nombreux autres facteurs. En revanche, des milliers de travailleurs commencent un emploi auprès d’un nouvel employeur, du fait que de nouvelles entreprises entrent dans un marché de produits et que les entreprises existantes prennent de l’expansion ou remplacent des employés qui viennent de partir. Ce processus de redistribution des travailleurs entre les employeurs est généralement considéré comme contribuant à la croissance de la productivité et à l’augmentation des niveaux de vie. Afin de mesurer ce processus de redistribution de la main d’œuvre, des indicateurs du marché du travail, comme les taux d’embauche et les taux de mise à pied, sont nécessaires. En réponse à la demande croissante de données infraprovinciales sur le marché du travail, et profitant d’ensembles de données administratives uniques, Statistique Canada produit des données sur les taux d’embauche et les taux de mises à pied selon la région économique de résidence. Le présent document décrit les sources de données, les questions conceptuelles et méthodologiques et d’autres questions relatives à ces deux indicateurs.

    Date de diffusion : 2016-06-27

  • Articles et rapports : 12-001-X201600114538
    Description :

    La vérification automatique consiste en l’utilisation d’un ordinateur pour déceler et corriger sans intervention humaine les valeurs erronées dans un ensemble de données. La plupart des méthodes de vérification automatique actuellement employées aux fins de la statistique officielle sont fondées sur les travaux fondamentaux de Fellegi et Holt (1976). La mise en application de cette méthode dans la pratique révèle des différences systématiques entre les données vérifiées manuellement et celles qui sont vérifiées de façon automatisée, car l’humain est en mesure d’effectuer des opérations de vérification complexes. L’auteur du présent article propose une généralisation du paradigme de Fellegi-Holt qui permet d’intégrer de façon naturelle une grande catégorie d’opérations de vérification. Il présente aussi un algorithme qui résout le problème généralisé de localisation des erreurs qui en découle. Il est à espérer que cette généralisation puisse améliorer la pertinence des vérifications automatiques dans la pratique et ainsi accroître l’efficience des processus de vérification des données. Certains des premiers résultats obtenus à l’aide de données synthétiques sont prometteurs à cet égard.

    Date de diffusion : 2016-06-22

  • Articles et rapports : 12-001-X201600114545
    Description :

    L’estimation des quantiles est une question d’intérêt dans le contexte non seulement de la régression, mais aussi de la théorie de l’échantillonnage. Les expectiles constituent une solution de rechange naturelle ou un complément aux quantiles. En tant que généralisation de la moyenne, les expectiles ont gagné en popularité ces dernières années parce qu’en plus d’offrir un portrait plus détaillé des données que la moyenne ordinaire, ils peuvent servir à calculer les quantiles grâce aux liens étroits qui les associent à ceux-ci. Nous expliquons comment estimer les expectiles en vertu d’un échantillonnage à probabilités inégales et comment les utiliser pour estimer la fonction de répartition. L’estimateur ajusté de la fonction de répartition obtenu peut être inversé pour établir les estimations des quantiles. Nous réalisons une étude par simulations pour examiner et comparer l’efficacité de l’estimateur fondé sur des expectiles.

    Date de diffusion : 2016-06-22

  • Articles et rapports : 11-522-X201700014715
    Description :

    En vue du Recensement de 2021 au Royaume-Uni, l'Office for National Statistics (ONS) s’est engagée à mener un programme de recherche exhaustif, afin d’explorer comment les données administratives couplées peuvent servir à appuyer les processus statistiques conventionnels. Le contrôle et l’imputation (C et I) au niveau de la question joueront un rôle important pour l’ajustement de la base de données du Recensement de 2021. Toutefois, l’incertitude associée à l’exactitude et à la qualité des données administratives disponibles jette des doutes sur l’efficacité d’une approche intégrée fondée sur des données du recensement et des données administratives en ce qui a trait au C et I. Les contraintes actuelles, qui dictent une approche anonymisée de la « clef » pour le couplage des enregistrements, afin d’assurer la confidentialité, accentuent cette incertitude. Nous fournissons les résultats préliminaires d’une étude de simulation comparant l’exactitude prédictive et l’exactitude de la distribution de la stratégie conventionnelle de C et I mise en œuvre au moyen du SCANCIR pour le Recensement de 2011 au Royaume-Uni, à celles d’une approche intégrée reposant sur des données administratives synthétiques, comme données auxiliaires, avec une erreur qui augmente de façon systématique. À cette étape initiale de la recherche, nous mettons l’accent sur l’imputation d’une année d’âge. L’objectif de l’étude est de déterminer si les données auxiliaires découlant des données administratives peuvent améliorer les estimations de l’imputation, et où se situent les différentes stratégies dans un continuum d’exactitude.

    Date de diffusion : 2016-03-24

  • Articles et rapports : 11-522-X201700014729
    Description :

    Les ensembles de données administratives servent de plus en plus couramment de sources de données en statistique officielle dans le cadre d’efforts visant à produire plus efficacement un plus grand nombre de produits. De nombreux produits résultent du couplage de deux ensembles de données ou plus, souvent réalisé en plusieurs phases en appliquant différentes méthodes et règles. Dans ces situations, nous aimerions pouvoir évaluer la qualité du couplage, ce qui comprend une certaine réévaluation des liens ainsi que des non-liens. Dans le présent article, nous discutons de méthodes d’échantillonnage en vue d’obtenir des estimations du nombre de faux négatifs et de faux positifs, en exerçant un contrôle raisonnable sur l’exactitude des estimations ainsi que sur les coûts. Des approches de stratification des liens (non-liens) pour l’échantillonnage sont évaluées en utilisant des données provenant du recensement de la population de l’Angleterre et du Pays de Galles de 2011.

    Date de diffusion : 2016-03-24

  • Articles et rapports : 11-522-X201700014743
    Description :

    Le couplage probabiliste est susceptible de donner des erreurs d’appariement telles que les faux positifs et les faux négatifs . Dans de nombreux cas, ces erreurs peuvent être mesurées fiablement par des vérifications manuelles, c’est-à-dire l’inspection visuelle d’un échantillon de paires d’enregistrements pour déterminer si elles sont appariées. Nous décrivons un cadre pour la bonne exécution de ces vérifications qui se fonde sur un échantillon probabiliste de paires, des vérifications indépendantes répétées de mêmes paires et une analyse de classes latentes pour tenir compte des erreurs de vérification manuelle.

    Date de diffusion : 2016-03-24

  • Articles et rapports : 11-522-X201700014745
    Description :

    Au moment de la conception des enquêtes, un certain nombre de paramètres, comme la propension à la prise de contact, la propension à la participation et les coûts par unité d’échantillonnage, jouent un rôle décisif. Dans le cas des enquêtes permanentes, ces paramètres de conception d’enquête sont habituellement estimés à partir de l’expérience antérieure et mis à jour graduellement, au fur et à mesure des nouvelles expériences. Dans les nouvelles enquêtes, ces paramètres sont estimés à partir de l’opinion des experts et de l’expérience acquise dans des enquêtes similaires. Même si les instituts de sondage ont une expertise et une expérience relativement bonnes, l’énoncé, l’estimation et la mise à jour des paramètres de conception d’enquête se font rarement de façon systématique. Dans la présentation, nous proposons un cadre bayésien qui permet de prendre en compte et de mettre à jour les connaissances acquises et les opinions des experts concernant les paramètres. Ce cadre est établi dans le contexte de plans de collecte adaptatifs, dans lesquels les différentes unités de population peuvent être traitées différemment compte tenu des objectifs de qualité et de coût. Pour ce type d’enquête, l’exactitude des paramètres de conception devient encore plus cruciale pour prendre des décisions efficaces. Le cadre permet une analyse bayésienne du rendement d’une enquête pendant la collecte des données et entre les vagues. Nous démontrons l’analyse bayésienne au moyen d’une étude de simulation réaliste.

    Date de diffusion : 2016-03-24
Stats en bref (0)

Stats en bref (0) (0 résultat)

Aucun contenu disponible actuellement

Articles et rapports (15)

Articles et rapports (15) (0 à 10 de 15 résultats)

  • Articles et rapports : 12-001-X201600214663
    Description :

    Nous présentons des preuves théoriques que les efforts déployés durant la collecte des données en vue d’équilibrer la réponse à l’enquête en ce qui concerne certaines variables auxiliaires augmentera les chances que le biais de non-réponse soit faible dans les estimations qui sont, en fin de compte, produites par pondération calée. Nous montrons que la variance du biais – mesurée ici comme étant l’écart de l’estimateur calé par rapport à l’estimateur sans biais sur échantillon complet (non réalisé) – diminue linéairement en fonction du déséquilibre de la réponse que nous supposons être mesuré et contrôlé continuellement tout au long de la période de collecte des données. Cela offre donc la perspective intéressante d’un plus faible risque de biais si l’on peut gérer la collecte des données de manière à réduire le déséquilibre. Les résultats théoriques sont validés au moyen d’une étude en simulation s’appuyant sur des données réelles provenant d’une enquête-ménages estonienne.

    Date de diffusion : 2016-12-20

  • Articles et rapports : 11-633-X2016003
    Description :

    De grandes cohortes de mortalité nationales sont utilisées pour estimer les taux de mortalité en fonction de différents groupes socioéconomiques et démographiques ainsi que pour effectuer des recherches dans le domaine de la santé environnementale. En 2008, Statistique Canada a créé une cohorte en couplant les données du Recensement de 1991 avec des données sur la mortalité. La présente étude décrit le couplage des données des répondants au questionnaire détaillé du Recensement de 2001 âgés de 19 ans et plus avec les données du Fichier maître des particuliers T1 et la Base de données combinées sur la mortalité. Ce couplage permet de faire le suivi de tous les décès survenus sur une période de 10,6 ans (soit pour le moment jusqu’à la fin de 2011).

    Date de diffusion : 2016-10-26

  • Articles et rapports : 11-633-X2016002
    Description :

    Les immigrants forment une proportion sans cesse croissante de la population canadienne; elle s’établit actuellement à plus de 20 %, soit le pourcentage le plus élevé parmi les pays du G8 (Statistique Canada, 2013a). On s’attend à ce que ce chiffre atteigne entre 25 % et 28 % d’ici 2031, quand au moins une personne sur quatre vivant au Canada sera née à l’étranger (Statistique Canada, 2010).

    Le présent rapport résume le couplage d’enregistrements des fichiers d’établissement des immigrants de l’ensemble des provinces et des territoires (nommé FEI aux fins de l’étude), sauf le Québec, aux données hospitalières de la Base de données sur les congés des patients (BDCP), une base de données nationale qui renferme de l’information sur les patients hospitalisés et les chirurgies d’un jour. Une méthode d’appariement exact déterministe a servi à apparier les enregistrements du FEI de 1980 à 2006 et les données de la BDCP (2006-2007, 2007-2008 et 2008-2009) aux données du Recensement de 2006, qui a servi de fichier de « rapprochement ». Il s’agissait d’un couplage secondaire en ce sens qu’il s’appuyait sur des clés de couplage créées lors de deux projets précédents (couplages principaux) où les données du FEI et de la BDCP ont été couplées séparément aux données du Recensement de 2006. Les données couplées du FEI et de la BDCP ont été validées au moyen d’un échantillon représentatif d’enregistrements du Recensement de 2006 contenant des données sur les immigrants ayant précédemment fait l’objet d’un couplage aux données de la BDCP.

    Date de diffusion : 2016-08-17

  • Articles et rapports : 11-633-X2016001
    Description :

    Chaque année, des milliers de travailleurs perdent leur emploi, parce que des entreprises réduisent la taille de leur effectif en réaction à la concurrence croissante, aux changements technologiques, à l’évolution de la structure des échanges et à de nombreux autres facteurs. En revanche, des milliers de travailleurs commencent un emploi auprès d’un nouvel employeur, du fait que de nouvelles entreprises entrent dans un marché de produits et que les entreprises existantes prennent de l’expansion ou remplacent des employés qui viennent de partir. Ce processus de redistribution des travailleurs entre les employeurs est généralement considéré comme contribuant à la croissance de la productivité et à l’augmentation des niveaux de vie. Afin de mesurer ce processus de redistribution de la main d’œuvre, des indicateurs du marché du travail, comme les taux d’embauche et les taux de mise à pied, sont nécessaires. En réponse à la demande croissante de données infraprovinciales sur le marché du travail, et profitant d’ensembles de données administratives uniques, Statistique Canada produit des données sur les taux d’embauche et les taux de mises à pied selon la région économique de résidence. Le présent document décrit les sources de données, les questions conceptuelles et méthodologiques et d’autres questions relatives à ces deux indicateurs.

    Date de diffusion : 2016-06-27

  • Articles et rapports : 12-001-X201600114538
    Description :

    La vérification automatique consiste en l’utilisation d’un ordinateur pour déceler et corriger sans intervention humaine les valeurs erronées dans un ensemble de données. La plupart des méthodes de vérification automatique actuellement employées aux fins de la statistique officielle sont fondées sur les travaux fondamentaux de Fellegi et Holt (1976). La mise en application de cette méthode dans la pratique révèle des différences systématiques entre les données vérifiées manuellement et celles qui sont vérifiées de façon automatisée, car l’humain est en mesure d’effectuer des opérations de vérification complexes. L’auteur du présent article propose une généralisation du paradigme de Fellegi-Holt qui permet d’intégrer de façon naturelle une grande catégorie d’opérations de vérification. Il présente aussi un algorithme qui résout le problème généralisé de localisation des erreurs qui en découle. Il est à espérer que cette généralisation puisse améliorer la pertinence des vérifications automatiques dans la pratique et ainsi accroître l’efficience des processus de vérification des données. Certains des premiers résultats obtenus à l’aide de données synthétiques sont prometteurs à cet égard.

    Date de diffusion : 2016-06-22

  • Articles et rapports : 12-001-X201600114545
    Description :

    L’estimation des quantiles est une question d’intérêt dans le contexte non seulement de la régression, mais aussi de la théorie de l’échantillonnage. Les expectiles constituent une solution de rechange naturelle ou un complément aux quantiles. En tant que généralisation de la moyenne, les expectiles ont gagné en popularité ces dernières années parce qu’en plus d’offrir un portrait plus détaillé des données que la moyenne ordinaire, ils peuvent servir à calculer les quantiles grâce aux liens étroits qui les associent à ceux-ci. Nous expliquons comment estimer les expectiles en vertu d’un échantillonnage à probabilités inégales et comment les utiliser pour estimer la fonction de répartition. L’estimateur ajusté de la fonction de répartition obtenu peut être inversé pour établir les estimations des quantiles. Nous réalisons une étude par simulations pour examiner et comparer l’efficacité de l’estimateur fondé sur des expectiles.

    Date de diffusion : 2016-06-22

  • Articles et rapports : 11-522-X201700014715
    Description :

    En vue du Recensement de 2021 au Royaume-Uni, l'Office for National Statistics (ONS) s’est engagée à mener un programme de recherche exhaustif, afin d’explorer comment les données administratives couplées peuvent servir à appuyer les processus statistiques conventionnels. Le contrôle et l’imputation (C et I) au niveau de la question joueront un rôle important pour l’ajustement de la base de données du Recensement de 2021. Toutefois, l’incertitude associée à l’exactitude et à la qualité des données administratives disponibles jette des doutes sur l’efficacité d’une approche intégrée fondée sur des données du recensement et des données administratives en ce qui a trait au C et I. Les contraintes actuelles, qui dictent une approche anonymisée de la « clef » pour le couplage des enregistrements, afin d’assurer la confidentialité, accentuent cette incertitude. Nous fournissons les résultats préliminaires d’une étude de simulation comparant l’exactitude prédictive et l’exactitude de la distribution de la stratégie conventionnelle de C et I mise en œuvre au moyen du SCANCIR pour le Recensement de 2011 au Royaume-Uni, à celles d’une approche intégrée reposant sur des données administratives synthétiques, comme données auxiliaires, avec une erreur qui augmente de façon systématique. À cette étape initiale de la recherche, nous mettons l’accent sur l’imputation d’une année d’âge. L’objectif de l’étude est de déterminer si les données auxiliaires découlant des données administratives peuvent améliorer les estimations de l’imputation, et où se situent les différentes stratégies dans un continuum d’exactitude.

    Date de diffusion : 2016-03-24

  • Articles et rapports : 11-522-X201700014729
    Description :

    Les ensembles de données administratives servent de plus en plus couramment de sources de données en statistique officielle dans le cadre d’efforts visant à produire plus efficacement un plus grand nombre de produits. De nombreux produits résultent du couplage de deux ensembles de données ou plus, souvent réalisé en plusieurs phases en appliquant différentes méthodes et règles. Dans ces situations, nous aimerions pouvoir évaluer la qualité du couplage, ce qui comprend une certaine réévaluation des liens ainsi que des non-liens. Dans le présent article, nous discutons de méthodes d’échantillonnage en vue d’obtenir des estimations du nombre de faux négatifs et de faux positifs, en exerçant un contrôle raisonnable sur l’exactitude des estimations ainsi que sur les coûts. Des approches de stratification des liens (non-liens) pour l’échantillonnage sont évaluées en utilisant des données provenant du recensement de la population de l’Angleterre et du Pays de Galles de 2011.

    Date de diffusion : 2016-03-24

  • Articles et rapports : 11-522-X201700014743
    Description :

    Le couplage probabiliste est susceptible de donner des erreurs d’appariement telles que les faux positifs et les faux négatifs . Dans de nombreux cas, ces erreurs peuvent être mesurées fiablement par des vérifications manuelles, c’est-à-dire l’inspection visuelle d’un échantillon de paires d’enregistrements pour déterminer si elles sont appariées. Nous décrivons un cadre pour la bonne exécution de ces vérifications qui se fonde sur un échantillon probabiliste de paires, des vérifications indépendantes répétées de mêmes paires et une analyse de classes latentes pour tenir compte des erreurs de vérification manuelle.

    Date de diffusion : 2016-03-24

  • Articles et rapports : 11-522-X201700014745
    Description :

    Au moment de la conception des enquêtes, un certain nombre de paramètres, comme la propension à la prise de contact, la propension à la participation et les coûts par unité d’échantillonnage, jouent un rôle décisif. Dans le cas des enquêtes permanentes, ces paramètres de conception d’enquête sont habituellement estimés à partir de l’expérience antérieure et mis à jour graduellement, au fur et à mesure des nouvelles expériences. Dans les nouvelles enquêtes, ces paramètres sont estimés à partir de l’opinion des experts et de l’expérience acquise dans des enquêtes similaires. Même si les instituts de sondage ont une expertise et une expérience relativement bonnes, l’énoncé, l’estimation et la mise à jour des paramètres de conception d’enquête se font rarement de façon systématique. Dans la présentation, nous proposons un cadre bayésien qui permet de prendre en compte et de mettre à jour les connaissances acquises et les opinions des experts concernant les paramètres. Ce cadre est établi dans le contexte de plans de collecte adaptatifs, dans lesquels les différentes unités de population peuvent être traitées différemment compte tenu des objectifs de qualité et de coût. Pour ce type d’enquête, l’exactitude des paramètres de conception devient encore plus cruciale pour prendre des décisions efficaces. Le cadre permet une analyse bayésienne du rendement d’une enquête pendant la collecte des données et entre les vagues. Nous démontrons l’analyse bayésienne au moyen d’une étude de simulation réaliste.

    Date de diffusion : 2016-03-24
Revues et périodiques (0)

Revues et périodiques (0) (0 résultat)

Aucun contenu disponible actuellement

Date de modification :