Aide à l'ordre
entrées

Résultats

Tout (68)

Tout (68) (20 à 30 de 68 résultats)

  • Articles et rapports : 11-522-X201700014732
    Description :

    L’Institute for Employment Research (IAB) est le service de recherche de l’Agence fédérale allemande de placement. Par l’entremise du Centre de données de recherche (FDZ) à l’IAB, des données administratives et des données d’enquête sur les personnes et les établissements sont fournies aux chercheurs. En collaboration avec l’Institute for the Study of Labor (IZA), le FDZ a mis en œuvre l’application de soumission des travaux (JoSuA), qui permet aux chercheurs de soumettre des travaux, en vue du traitement des données à distance grâce à une interface Web personnalisée. Par ailleurs, deux types de fichiers de sortie produits pour l’utilisateur peuvent être reconnus dans l’environnement JoSuA, ce qui permet de fournir des services d’examen de la divulgation plus rapides et plus efficaces.

    Date de diffusion : 2016-03-24

  • Articles et rapports : 11-522-X201700014733
    Description :

    La valeur sociale des collectes de données est améliorée de façon marquée par la vaste diffusion des fichiers de recherche et l’augmentation en découlant de la productivité scientifique. À l’heure actuelle, la plupart des études sont conçues en vue de recueillir des données utiles et exactes au niveau analytique, en se préoccupant peu de la façon dont elles seront mises en commun. Tant les ouvrages publiés que la pratique reposent sur le principe que l’analyse de la divulgation aura lieu après la collecte. Toutefois, pour produire des données à grande diffusion comportant la plus grande utilité analytique possible pour le groupe d’utilisateurs le plus important, on doit tenir compte du risque de divulgation au début du processus de recherche. À partir de cadres théoriques de décisions économiques et statistiques et de recherches en méthodes d’enquête, cette communication vise à améliorer la productivité scientifique des données de recherche partagées en décrivant comment le risque de divulgation peut être résolu aux étapes les plus précoces de la recherche, grâce à la formulation de « plans sécuritaires » et de « simulations de divulgation », une approche statistique appliquée ayant été adoptée pour : 1) l’élaboration et la validation de modèles qui prédisent la composition des données d’enquête selon différents plans d’échantillonnage; 2) la sélection et/ou l’élaboration de mesures et de méthodes utilisées pour déterminer le risque de divulgation, l’utilité analytique et les coûts de la divulgation des données d’enquête qui conviennent le mieux pour l’évaluation des plans d’échantillonnage et de bases de données; et 3) la tenue de simulations pour recueillir des estimations du risque, de l’utilité et du coût des études comportant une vaste gamme de caractéristiques d’échantillonnage et de conception de bases de données.

    Date de diffusion : 2016-03-24

  • Articles et rapports : 11-522-X201700014734
    Description :

    La protection des données et la protection de la vie privée sont des défis clés qui doivent être relevés de façon prioritaire, afin de permettre l’utilisation des mégadonnées dans la production de statistiques officielles. C’est ce qu’ont préconisé, en 2013, les directeurs des Instituts nationaux de statistique (INS) du Comité du Système statistique européen (CSSE) dans le mémorandum de Scheveningen. Le CSSE a demandé à Eurostat et aux INS d’élaborer un plan d’action comportant un carnet de route, en vue d’assurer le suivi de la mise en œuvre du mémorandum. À la réunion de Riga, le 26 septembre 2014, le CSSE a adopté le plan d’action et carnet de route 1.0 des mégadonnées (BDAR) présenté par le Groupe de travail d’Eurostat chargé des mégadonnées (TFBD), et il a convenu de l’intégrer dans le portefeuille de la Vision du SSE pour 2020. Eurostat collabore aussi dans ce domaine avec des partenaires externes comme la Commission économique des nations unies pour l’Europe (UNECE). Le projet de mégadonnées du Goupe de haut niveau de la UNECE est un projet international sur le rôle des mégadonnées dans la modernisation de la production de statistiques. Il comprenait quatre équipes de travail chargées de différents aspects des mégadonnées pertinentes pour les statistiques officielles : protection de la vie privée, partenariats, Sandbox et qualité. L’équipe de travail chargée de la protection de la vie privée a terminé ses travaux en 2014 et a donné un aperçu des outils existants pour la gestion des risques concernant la protection de la vie privée, a décrit comment le risque d’identification se rapporte aux caractéristiques des mégadonnées et a élaboré des recommandations à l’intention des Bureaux de statistique nationaux (BSN). Elle a conclu principalement que le prolongement des cadres existants, y compris l’utilisation de nouvelles technologies, était nécessaire pour traiter les risques liés à la protection de la vie privée dans le contexte de l’utilisation des mégadonnées. Le BDAR tire parti des travaux des équipes de la UNECE. De façon plus particulière, il reconnaît qu’un certain nombre de sources de mégadonnées comprennent des données de nature délicate, que leur utilisation pour les statistiques officielles peut entraîner des perceptions négatives dans le grand public et chez les autres intervenants, et que ce risque devrait être atténué à court et à moyen termes. Il propose le lancement de plusieurs mesures : par exemple, un examen approprié des principes éthiques régissant les rôles et les activités des INS et une stratégie de communication bien établie. La communication présente les différentes mesures entreprises à l’intérieur du SSE et en collaboration avec la UNECE, ainsi que les solutions techniques et légales possibles à mettre en place pour résoudre les risques liés à la protection des données et à la protection de la vie privée, dans le contexte de l’utilisation des mégadonnées pour les statistiques officielles.

    Date de diffusion : 2016-03-24

  • Articles et rapports : 11-522-X201700014735
    Description :

    La diffusion de microdonnées exige habituellement des méthodes de réduction et de modification des données, et le degré d’application de ces méthodes dépend des méthodes de contrôle qui seront nécessaires pour accéder aux données et les utiliser. Le calcul sécurisé est une approche qui, dans certaines circonstances, convient davantage pour accéder aux données à des fins statistiques; il permet le calcul de fonctions analytiques à l’égard de données chiffrées sans qu’il soit nécessaire de déchiffrer les données sources sous-jacentes pour procéder à une analyse statistique. Cette approche permet aussi à plusieurs emplacements de fournir des données, tout en garantissant une protection rigoureuse de la vie privée. De cette façon, les données peuvent être regroupées, et les fournisseurs de données peuvent calculer des fonctions analytiques, sans qu’aucune des parties ne connaisse les entrées des autres. À l’aide de certains résultats théoriques et d’exemples réels issus du domaine des soins de santé, nous expliquerons comment le calcul sécurisé peut être appliqué dans des contextes pratiques.

    Date de diffusion : 2016-03-24

  • Stats en bref : 11-001-X201431611101
    Description : Communiqué publié dans Le Quotidien – Bulletin de diffusion officielle de Statistique Canada
    Date de diffusion : 2014-11-12

  • Articles et rapports : 12-001-X201300111826
    Description :

    Il est courant que les organismes d'enquête fournissent des poids de rééchantillonnage dans les fichiers de données d'enquête. Ces poids de rééchantillonnage servent à produire de manière simple et systématique des estimations valides et efficaces de la variance pour divers estimateurs. Cependant, la plupart des méthodes existantes de construction de poids de rééchantillonnage ne sont valides que pour des plans d'échantillonnage particuliers et nécessitent habituellement un très grand nombre de répliques. Dans le présent article, nous montrons d'abord comment produire les poids de rééchantillonnage en se basant sur la méthode décrite dans Fay (1984) de manière que l'estimateur de la variance par rééchantillonnage résultant soit algébriquement équivalent à l'estimateur de la variance par linéarisation entièrement efficace pour tout plan d'échantillonnage donné. Puis, nous proposons une nouvelle méthode de calage des poids afin que l'estimation soit simultanément efficace et parcimonieuse au sens où un petit nombre de jeux de poids de rééchantillonnage peuvent produire des estimateurs de la variance par rééchantillonnage valides et efficaces pour les paramètres de population importants. La méthode que nous proposons peut être conjuguée aux méthodes de rééchantillonnage existantes pour les enquêtes complexes à grande échelle. Nous discutons également de la validité des méthodes proposées et de leur extension à certains plans d'échantillonnage équilibrés. Les résultats de simulations montrent que les estimateurs de variance que nous proposons suivent très bien les probabilités de couverture des intervalles de confiance. Les stratégies que nous proposons auront vraisemblablement des répercussions sur la façon de produire les fichiers de données d'enquête à grande diffusion et d'analyser ces ensembles de données.

    Date de diffusion : 2013-06-28

  • Articles et rapports : 12-001-X201200111687
    Description :

    Afin de créer des fichiers de données à grande diffusion à partir d'enquêtes à grande échelle, les organismes statistiques diffusent parfois des sous­échantillons aléatoires des enregistrements originaux. Le sous­échantillonnage aléatoire amenuise la taille des fichiers transmis aux analystes secondaires des données et réduit les risques de divulgation accidentelle de renseignements confidentiels sur les participants aux enquêtes. Cependant, le sous­échantillonnage n'élimine pas entièrement le risque, de sorte qu'il faut altérer les données avant leur diffusion. Nous proposons de créer des sous­échantillons protégés contre la divulgation provenant d'enquêtes à grande échelle en recourant à l'imputation multiple. L'idée consiste à remplacer dans l'échantillon original les valeurs identificatoires ou sensibles par des valeurs tirées de modèles statistiques et de diffuser des sous­échantillons de ces données protégées contre la divulgation. Nous présentons des méthodes permettant de faire des inférences fondées sur les multiples sous­échantillons synthétiques.

    Date de diffusion : 2012-06-27

  • Articles et rapports : 11-522-X200600110431
    Description :

    Nous décrivons ici les méthodes de contrôle de la divulgation statistique (CDS) mises au point pour la diffusion publique du fichier de microdonnées du Système canadien hospitalier d'information et de recherche en prévention des traumatismes (SCHIRPT). Le SCHIRPT est une base de données nationale de surveillance des blessures administrée par l'Agence de santé publique du Canada (ASPC). Après une description du SCHIRPT, nous présentons un bref aperçu des concepts de base du CDS en guise d'introduction à la procédure de sélection et d'élaboration des méthodes de CDS applicables au SCHIRPT, compte tenu des défis et des besoins particuliers qui sont associés à ce système. Nous résumons ensuite quelques-uns des principaux résultats. Le présent article se conclut par une discussion sur les répercussions de ces travaux sur le domaine de l'information en matière de santé et des observations finales sur certaines questions méthodologiques qu'il convient d'examiner.

    Date de diffusion : 2008-03-17

  • Articles et rapports : 11-522-X200600110433
    Description :

    Le processus de création de fichiers de microdonnées à grande diffusion compte un certain nombre de composantes. L'un de ses éléments clés est la méthode novatrice MASSC mise au point par RTI International. Cependant, ce processus comporte d'autres composantes importantes, comme le traitement des variables d'identification non essentielles et des résultats extrêmes en guise de protection supplémentaire. Le contrôle de la divulgation statistique a pour but de contrer l'intrusion interne ainsi qu'externe. Les composantes du processus sont conçues en conséquence.

    Date de diffusion : 2008-03-17

  • Articles et rapports : 11-522-X200600110434
    Description :

    La protection contre la divulgation de l'identité des répondants dans les données d'enquête publiées constitue un enjeu d'ordre pratique pour de nombreux organismes gouvernementaux. Parmi les méthodes de protection figurent la suppression des identificateurs de grappe et de strate, de même que la modification des données ou la permutation des valeurs entre les enregistrements des répondants. Malheureusement, les identificateurs de grappe et de strate sont généralement nécessaires à l'estimation de la variance axée sur la linéarisation ainsi qu'aux méthodes de répétition, dans la mesure où le rééchantillonnage porte habituellement sur les unités de sondage du premier degré dans les strates. On pourrait penser que la diffusion d'un ensemble de poids de rééchantillonnage duquel les identificateurs de strate et de grappe auraient été supprimés permettrait de régler une partie du problème, particulièrement si l'on fait appel à une méthode de rééchantillonnage aléatoire, comme celle du bootstrap. Dans le présent article, nous démontrons dans un premier temps que, en considérant les poids de rééchantillonnage comme des observations dans un espace dimensionnel de haut niveau, on peut facilement utiliser un algorithme de mise en grappes pour reconstruire les identificateurs de grappe, peu importe la méthode de rééchantillonnage, même si les poids de rééchantillonnage ont été modifiés aléatoirement. Nous proposons ensuite un algorithme rapide qui permet de permuter les identificateurs de grappe et de strate des unités finales avant la création des poids de rééchantillonnage, sans influer de façon significative sur les estimations de la variance des caractéristiques visées qui en résultent. Ces méthodes sont illustrées par leur application aux données publiées issues des National Health and Nutrition Examination Surveys, enquêtes pour lesquelles les questions de divulgation sont extrêmement importantes.

    Date de diffusion : 2008-03-17
Stats en bref (8)

Stats en bref (8) ((8 résultats))

Articles et rapports (59)

Articles et rapports (59) (0 à 10 de 59 résultats)

  • Articles et rapports : 11-522-X202200100007
    Description : Dans le contexte de la disponibilité de sources de données plus vastes et plus diverses, les instituts statistiques en Europe sont enclins à publier des statistiques sur des groupes plus petits qu’auparavant. En outre, des épisodes mondiaux à forte incidence, comme la crise de la COVID-19 et la situation en Ukraine, peuvent également nécessiter des statistiques sur des sous-groupes particuliers de personnes. La publication de données concernant de petits groupes ciblés soulève non seulement des questions sur la qualité statistique des chiffres, mais aussi sur le risque de divulgation statistique. Le principe du contrôle de la divulgation statistique ne dépend pas de la taille des groupes sur lesquels les statistiques sont basées. Cependant, le risque de divulgation dépend de la taille du groupe : plus un groupe est petit, plus le risque est élevé. Les méthodes classiques de gestion du contrôle de la divulgation statistique lorsque la taille des groupes est réduite comprennent la suppression de données et le regroupement des catégories. Pour l’essentiel, ces méthodes consistent à augmenter la taille (moyenne) des groupes. Des approches plus récentes incluent des méthodes de perturbation des données visant à maintenir des groupes de petite taille pour préserver le plus d’information possible, tout en réduisant suffisamment le risque de divulgation. Dans le présent article, nous mentionnerons quelques exemples européens de statistiques sur des groupes types présentant un intérêt particulier et évoquerons les implications sur le contrôle de la divulgation statistique. Nous aborderons, en outre, certains problèmes liés à l’utilisation de méthodes de perturbation des données, à savoir leur incidence sur le risque de divulgation et sur l’utilité, ainsi que les défis liés à une bonne communication à ce sujet.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-633-X2024001
    Description : La base de données longitudinales sur l’immigration (BDIM) est une source importante et complète de données contribuant à mieux comprendre le comportement économique des immigrants. Il s’agit du seul ensemble annuel de données canadiennes permettant d’étudier les caractéristiques des immigrants au Canada au moment de leur admission ainsi que leur situation économique et leur mobilité régionale (interprovinciale) sur plus de 35 ans.
    Date de diffusion : 2024-01-22

  • Articles et rapports : 12-001-X202300100006
    Description : Mes commentaires sont répartis en trois volets : 1) bref compte rendu de mon association professionnelle avec Chris Skinner, 2) observations sur les réalisations de Skinner en matière de contrôle de la divulgation statistique et 3) propos sur la production d’inférences à partir de données d’enquête masquées.
    Date de diffusion : 2023-06-30

  • Articles et rapports : 12-001-X202300100007
    Description : Je donnerai un aperçu de l’évolution de la recherche sur le contrôle de la divulgation statistique (CDS) dans les dernières décennies et de son adaptation à la révolution des données à l’aide de définitions plus officielles de la confidentialité. Je soulignerai les nombreux apports de Chris Skinner aux domaines de recherche sur le CDS. Je passerai en revue ses recherches de pionnier en commençant par ses travaux des années 1990 sur la diffusion de microdonnées d’échantillon du recensement au Royaume-Uni. De ces recherches sont nées diverses études où l’on a mesuré le risque de réidentification dans les microdonnées d’enquête au moyen de modèles probabilistes. Je porterai principalement mon attention à traiter d’autres aspects des recherches en CDS de Chris. Chris Skinner a reçu le prix Waksberg en 2019 et n’a malheureusement jamais eu l’occasion de présenter son discours Waksberg au Symposium international sur les questions de méthodologie de Statistique Canada. Le présent article suivra le canevas préparé par Chris en prévision de cette allocution.
    Date de diffusion : 2023-06-30

  • Articles et rapports : 12-001-X202300100008
    Description : Ce bref hommage vise à souligner les principales réalisations scientifiques de Chris Skinner.
    Date de diffusion : 2023-06-30

  • Articles et rapports : 11-633-X2022009
    Description :

    La base de données longitudinales sur l’immigration (BDIM) est une source importante et complète de données contribuant à mieux comprendre le comportement économique des immigrants. Il s’agit du seul ensemble annuel de données canadiennes permettant d’étudier les caractéristiques des immigrants au Canada au moment de leur admission ainsi que leur situation économique et leur mobilité régionale (interprovinciale) sur plus de 35 ans.

    Ce rapport traitera des sources de données, des concepts et des variables de la BDIM, du couplage d’enregistrements, du traitement des données, de la diffusion, de l’évaluation des données et des indicateurs de qualité, de la comparabilité avec d’autres ensembles de données relatives à l’immigration ainsi que des analyses que permet la BDIM.

    Date de diffusion : 2022-12-05

  • Articles et rapports : 11-633-X2022007
    Description :

    Le présent document examine la façon dont Statistique Canada peut accroître la confiance des utilisateurs en leur donnant la capacité d’authentifier les données de son site Web grâce aux signatures numériques et à la technologie des chaînes de blocs.

    Date de diffusion : 2022-09-19

  • Articles et rapports : 12-001-X202100100003
    Description :

    L’utilisation de réponses brouillées est un moyen efficace d’effectuer le contrôle de la divulgation statistique. Les réponses brouillées peuvent être produites au moyen d’un procédé aléatoire contrôlé. Dans le présent article, nous proposons d’utiliser la méthode de la vraisemblance empirique fondée sur l’échantillon pour effectuer des inférences statistiques dans le cadre d’un plan de sondage complexe avec réponses brouillées. Plus précisément, nous proposons d’utiliser un intervalle de confiance de type Wilk pour l’inférence statistique. La méthode proposée peut servir d’outil général pour l’inférence en présence de fichiers de données d’enquête confidentielles à grande diffusion. Les propriétés asymptotiques sont produites, et l’étude par simulations limitée confirme la validité de la théorie. De plus, nous appliquons la méthode proposée à des situations réelles.

    Date de diffusion : 2021-06-24

  • Articles et rapports : 12-001-X201700114818
    Description :

    La protection de la confidentialité des données qui figurent dans des tableaux de données quantitatives peut devenir extrêmement difficile lorsqu’on travaille avec des tableaux personnalisés. Une solution relativement simple consiste à perturber au préalable les microdonnées sous-jacentes, mais cela peut avoir un effet négatif excessif sur la précision des agrégats. Nous proposons plutôt une méthode perturbatrice qui vise à mieux concilier les besoins de protection et de précision des données en pareil cas. La méthode consiste à traiter par niveaux les données de chaque cellule en appliquant une perturbation minime, voire nulle, aux valeurs inférieures et une perturbation plus importante aux valeurs supérieures. La méthode vise avant tout à protéger les données personnelles, qui sont généralement moins asymétriques que les données des entreprises.

    Date de diffusion : 2017-06-22

  • Articles et rapports : 11-522-X201700014719
    Description :

    Les initiatives de données ouvertes transforment la façon dont les gouvernements et d’autres institutions publiques interagissent et fournissent des services à leurs mandants. Elles accroissent la transparence et la valeur de l’information pour les citoyens, réduisent les inefficacités et les obstacles à l’information, rendent possible des applications guidées par les données qui améliorent la prestation des services publics, et fournissent des données publiques pouvant susciter des possibilités économiques novatrices. Étant l’un des premiers organismes internationaux à adopter une politique de données ouvertes, la Banque mondiale a orienté et offert des conseils techniques aux pays en voie de développement qui envisagent de mettre en place ou qui conçoivent leurs propres initiatives. La présente communication donnera un aperçu des faits nouveaux en matière de données ouvertes sur le plan international, ainsi que des expériences, des défis et des possibilités actuels et futurs. M. Herzog discutera des raisons qui poussent les gouvernements à adopter les données ouvertes, des avantages prouvés de celles-ci pour les secteurs public et privé, de l’éventail d’approches que suivent les gouvernements, et des outils à la disposition des décideurs, en insistant tout spécialement sur les rôles et perspectives des bureaux nationaux de la statistique au sein d’une initiative pangouvernementale.

    Date de diffusion : 2016-03-24
Revues et périodiques (1)

Revues et périodiques (1) ((1 résultat))

  • Tableau : 11-516-X
    Description :

    La deuxième édition des Statistiques historiques du Canada a été produite conjointement par la Fédération canadienne des sciences sociales et Statistique Canada, en 1983. Cet ouvrage comprend environ 1 088 tableaux statistiques sur la situation sociale, économique et institutionnelle du Canada, du début de la Confédération, en 1867, au milieu des années 70. Les tableaux sont disposés en sections, lesquelles comportent une introduction qui explique le contenu de chaque section ainsi que les sources principales de données pour chaque tableau, et des notes explicatives générales concernant les statistiques. Dans la plupart des cas, la description des séries individuelles est suffisante pour permettre aux lecteurs de les utiliser sans avoir à consulter les nombreuses sources dont il est fait état dans la publication.

    La version électronique de cette publication historique est accessible dans le site Internet de Statistique Canada, à titre de document téléchargeable sans frais : texte en HTML et tous les tableaux sous forme de chiffriers électroniques individuels en format csv (qui permet le visionnement ou le téléchargement direct).

    Date de diffusion : 1999-07-29
Date de modification :