Recherche par mot-clé

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Enquête ou programme statistique

68 facets displayed. 0 facets selected.

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (1 766)

Tout (1 766) (0 à 10 de 1 766 résultats)

  • Articles et rapports : 11-522-X202200100001
    Description : Le couplage d’enregistrements vise à mettre en évidence les paires d’enregistrements liées à la même unité et observées dans deux ensembles de données différents, disons A et B. Fellegi et Sunter (1969) proposent de mettre à l’essai chaque paire d’enregistrements, qu’elle soit générée à partir de l’ensemble de paires appariées ou non. La fonction de décision est le rapport entre m(y) et u(y), les probabilités d’observer une comparaison y d’un ensemble de k>3 variables d’identification clés dans une paire d’enregistrements, sous l’hypothèse que la paire constitue, respectivement, un appariement ou non. On estime habituellement ces paramètres au moyen de l’algorithme EM en utilisant comme données les comparaisons pour toutes les paires du produit cartésien ?=A×B. On émet l’hypothèse que ces observations (sur les comparaisons et sur l’état des paires comme appariement ou non) sont générées indépendamment des autres paires, hypothèse caractérisant la majeure partie de la littérature sur le couplage d’enregistrements et mise en œuvre dans les outils logiciels (p. ex., RELAIS, Cibella et coll. 2012). Au contraire, les comparaisons y et l’état d’appariement dans O sont dépendants de manière déterministe. Par conséquent, les estimations sur m(y) et u(y) fondées sur l’algorithme EM sont généralement mauvaises. Ce fait compromet l’efficacité de l’application de la méthode de Fellegi-Sunter, ainsi que le calcul automatique des mesures de la qualité et la possibilité d’appliquer des méthodes efficaces aux fins d’estimation du modèle sur des données couplées (p. ex. les fonctions de régression), comme dans Chambers et coll. (2015). Nous proposons d’examiner O au moyen d’un ensemble d’échantillons, chacun tiré de manière à préserver l’indépendance des comparaisons entre les paires d’enregistrements sélectionnées. Les simulations sont encourageantes.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100002
    Description : Les auteures ont utilisé le progiciel de couplage probabiliste Splink mis au point par le ministère de la Justice du Royaume-Uni pour relier les données du recensement de l’Angleterre et du pays de Galles à elles-mêmes afin de trouver des réponses en double au recensement. Un grand ensemble étalon-or des doublons confirmés du recensement était disponible, ce qui signifiait que la qualité des résultats de la mise en œuvre de Splink pouvait être assurée. Le présent article décrit la mise en œuvre et les fonctionnalités de Splink, donne des détails sur les configurations et les paramètres que nous avons utilisés pour ajuster Splink à notre projet en particulier, et donne les résultats que nous avons obtenus.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100003
    Description : L’estimation à de fins niveaux d’agrégation est nécessaire pour mieux décrire une société. Les approches fondées sur un modèle d’estimation sur petits domaines qui combinent des données d’enquête parcimonieuses à des données riches provenant de sources auxiliaires se sont révélées utiles pour améliorer la fiabilité des estimations sur petits domaines. Nous examinons ici un scénario où des estimations basées sur un modèle pour petits domaines, produit à un niveau d’agrégation donné, devaient être désagrégées pour mieux décrire la structure sociale à des niveaux plus fins. Pour ce scénario, nous avons élaboré une méthode de répartition afin de mettre en œuvre la désagrégation, surmontant les problèmes associés à la disponibilité des données et à l’élaboration de modèles à des niveaux de cette finesse. La méthode est appliquée à l’estimation de la littératie et de la numératie des adultes au niveau du comté par groupe, au moyen des données du Programme pour l’évaluation internationale des compétences des adultes (PEICA) des États-Unis. Dans cette application, les groupes sont définis en fonction de l’âge ou de la scolarité, mais la méthode pourrait être appliquée à l’estimation d’autres groupes en quête d’équité.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100004
    Description : Conformément au Plan d’action sur les données désagrégées (PADD) à long terme de Statistique Canada, plusieurs initiatives ont été mises en œuvre dans l’Enquête sur la population active (EPA). Une des initiatives les plus directes fut une augmentation ciblée dans la taille de l’échantillon mensuel de l’EPA. En outre, un programme d’enquête supplémentaire régulier a été introduit, où une série supplémentaire de questions a été posée à un sous-ensemble de répondants de l’EPA et analysée dans un cycle de production mensuel ou trimestriel. Enfin, les estimations fondées sur les méthodologies de l’estimation sur petits domaines (EPD) sont réintroduites dans l’EPA et comprendront une portée élargie avec davantage de valeur analytique qu’auparavant. Le présent article donne un aperçu de ces trois initiatives.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100005
    Description : Le lissage de la variance due à l’échantillonnage est un sujet important dans l’estimation sur petits domaines. Dans le présent article, nous proposons des méthodes de lissage de la variance due à l’échantillonnage aux fins d’estimation sur petits domaines. En particulier, nous considérons la fonction de variance généralisée et les méthodes d’effet de plan aux fins de lissage de la variance due à l’échantillonnage. Nous évaluons et comparons les variances dues à l’échantillonnage lissées et les estimations sur petits domaines fondées sur des estimations de la variance lissées au moyen de l’analyse de données d’enquête de Statistique Canada. Les résultats de l’analyse de données réelles indiquent que les méthodes de lissage de la variance due à l’échantillonnage proposées fonctionnent très bien pour l’estimation sur petits domaines.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100006
    Description : L’ABS (Bureau de la statistique de l’Australie) s’est engagé à offrir un meilleur accès à un plus grand nombre de microdonnées, tout en assurant la protection des renseignements personnels et la confidentialité, grâce à son DataLab (laboratoire de données) virtuel qui aide à entreprendre des recherches complexes plus efficacement. À l’heure actuelle, pour être autorisées, les données de sortie de recherche de DataLab doivent respecter des règles strictes afin de minimiser les risques de divulgation. Or le processus d’examen manuel n’est pas rentable et peut entraîner des erreurs. Le nombre croissant de résultats statistiques provenant de différents projets peut introduire des risques de divulgation résiduelle même si ces résultats de différents projets ont respecté des règles strictes en matière de sorties. L’ABS étudie la possibilité de fournir une vérification automatique des sorties au moyen de la méthodologie de la clé de cellule de l’ABS pour s’assurer que toutes les sorties des différents projets sont protégées de façon uniforme afin de minimiser les risques de divulgation résiduelle et de réduire les coûts associés à la vérification des sorties.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100007
    Description : Dans le contexte de la disponibilité de sources de données plus vastes et plus diverses, les instituts statistiques en Europe sont enclins à publier des statistiques sur des groupes plus petits qu’auparavant. En outre, des épisodes mondiaux à forte incidence, comme la crise de la COVID-19 et la situation en Ukraine, peuvent également nécessiter des statistiques sur des sous-groupes particuliers de personnes. La publication de données concernant de petits groupes ciblés soulève non seulement des questions sur la qualité statistique des chiffres, mais aussi sur le risque de divulgation statistique. Le principe du contrôle de la divulgation statistique ne dépend pas de la taille des groupes sur lesquels les statistiques sont basées. Cependant, le risque de divulgation dépend de la taille du groupe : plus un groupe est petit, plus le risque est élevé. Les méthodes classiques de gestion du contrôle de la divulgation statistique lorsque la taille des groupes est réduite comprennent la suppression de données et le regroupement des catégories. Pour l’essentiel, ces méthodes consistent à augmenter la taille (moyenne) des groupes. Des approches plus récentes incluent des méthodes de perturbation des données visant à maintenir des groupes de petite taille pour préserver le plus d’information possible, tout en réduisant suffisamment le risque de divulgation. Dans le présent article, nous mentionnerons quelques exemples européens de statistiques sur des groupes types présentant un intérêt particulier et évoquerons les implications sur le contrôle de la divulgation statistique. Nous aborderons, en outre, certains problèmes liés à l’utilisation de méthodes de perturbation des données, à savoir leur incidence sur le risque de divulgation et sur l’utilité, ainsi que les défis liés à une bonne communication à ce sujet.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100008
    Description : La publication de davantage de données présentant un niveau élevé de désagrégation peut accroître la transparence et fournir des renseignements importants sur les groupes sous-représentés. L’élaboration d’options d’accès plus facilement disponibles augmente la quantité d’information disponible et produite par les chercheurs. Accroître l’étendue et la profondeur de l’information diffusée permet une meilleure représentation de la population canadienne, mais impose également à Statistique Canada une plus grande responsabilité quant à la manière dont cela est fait, qui se doit de préserver la confidentialité; il est donc utile d’élaborer des outils qui nous permettent de quantifier le risque lié à la granularité accrue des données. Afin d’évaluer le risque d’une attaque par reconstruction de base de données sur les données de recensement publiées par Statistique Canada, nous appliquons la stratégie de l’U.S. Census Bureau, qui met en avant une méthode utilisant un solveur de satisfaisabilité booléenne (SAT) pour reconstruire les attributs individuels des résidents d’un îlot hypothétique du recensement américain, basé uniquement sur un tableau de statistiques récapitulatives. Nous prévoyons d’étendre cette technique pour tenter de reconstruire une petite fraction des microdonnées de recensement de Statistique Canada. Dans cet article, nous aborderons nos conclusions, les défis liés à l’élaboration d’une attaque par reconstruction et l’effet d’une mesure de confidentialité existante pour atténuer ces attaques. En outre, nous comparerons notre stratégie actuelle à d’autres méthodes potentielles utilisées aux fins de protection des données, en particulier la publication de données tabulaires perturbées par un mécanisme aléatoire, tel que la confidentialité différentielle.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100009
    Description : L’éducation et la formation sont reconnues comme des éléments fondamentaux du développement d’une société. Il s’agit d’un phénomène multidimensionnel complexe, dont les déterminants sont attribuables à plusieurs conditions sociales et socioéconomiques interdépendantes. Pour répondre à la demande de renseignements statistiques à l’appui de l’élaboration des politiques et de leurs processus de suivi et d’évaluation, l’Institut national italien de statistique (Istat) renouvelle le système de production de statistiques sur l’éducation et la formation en mettant en œuvre un nouveau registre statistique thématique. Ce dernier fera partie du système intégré de registres de l’Istat, ce qui permettra de relier le phénomène de l’éducation et de la formation à d’autres phénomènes pertinents, comme la transition vers le marché du travail.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100010
    Description : Grandir au Québec est une enquête longitudinale populationnelle qui a débuté au printemps 2021 à l’Institut de la statistique du Québec. Parmi les enfants visés par ce suivi longitudinal, certains éprouveront des difficultés de développement à un moment ou un autre de leur vie. Ces mêmes enfants présentent souvent des caractéristiques associées à une érosion de l’échantillon plus élevée (famille à faible revenu, faible niveau de scolarisation des parents). Le présent article décrit les deux principaux défis que nous avons rencontrés en tentant d’assurer une représentativité suffisante de ces enfants, tant dans les résultats globaux que dans les analyses de sous-populations.
    Date de diffusion : 2024-03-25
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (1 766)

Analyses (1 766) (0 à 10 de 1 766 résultats)

  • Articles et rapports : 11-522-X202200100001
    Description : Le couplage d’enregistrements vise à mettre en évidence les paires d’enregistrements liées à la même unité et observées dans deux ensembles de données différents, disons A et B. Fellegi et Sunter (1969) proposent de mettre à l’essai chaque paire d’enregistrements, qu’elle soit générée à partir de l’ensemble de paires appariées ou non. La fonction de décision est le rapport entre m(y) et u(y), les probabilités d’observer une comparaison y d’un ensemble de k>3 variables d’identification clés dans une paire d’enregistrements, sous l’hypothèse que la paire constitue, respectivement, un appariement ou non. On estime habituellement ces paramètres au moyen de l’algorithme EM en utilisant comme données les comparaisons pour toutes les paires du produit cartésien ?=A×B. On émet l’hypothèse que ces observations (sur les comparaisons et sur l’état des paires comme appariement ou non) sont générées indépendamment des autres paires, hypothèse caractérisant la majeure partie de la littérature sur le couplage d’enregistrements et mise en œuvre dans les outils logiciels (p. ex., RELAIS, Cibella et coll. 2012). Au contraire, les comparaisons y et l’état d’appariement dans O sont dépendants de manière déterministe. Par conséquent, les estimations sur m(y) et u(y) fondées sur l’algorithme EM sont généralement mauvaises. Ce fait compromet l’efficacité de l’application de la méthode de Fellegi-Sunter, ainsi que le calcul automatique des mesures de la qualité et la possibilité d’appliquer des méthodes efficaces aux fins d’estimation du modèle sur des données couplées (p. ex. les fonctions de régression), comme dans Chambers et coll. (2015). Nous proposons d’examiner O au moyen d’un ensemble d’échantillons, chacun tiré de manière à préserver l’indépendance des comparaisons entre les paires d’enregistrements sélectionnées. Les simulations sont encourageantes.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100002
    Description : Les auteures ont utilisé le progiciel de couplage probabiliste Splink mis au point par le ministère de la Justice du Royaume-Uni pour relier les données du recensement de l’Angleterre et du pays de Galles à elles-mêmes afin de trouver des réponses en double au recensement. Un grand ensemble étalon-or des doublons confirmés du recensement était disponible, ce qui signifiait que la qualité des résultats de la mise en œuvre de Splink pouvait être assurée. Le présent article décrit la mise en œuvre et les fonctionnalités de Splink, donne des détails sur les configurations et les paramètres que nous avons utilisés pour ajuster Splink à notre projet en particulier, et donne les résultats que nous avons obtenus.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100003
    Description : L’estimation à de fins niveaux d’agrégation est nécessaire pour mieux décrire une société. Les approches fondées sur un modèle d’estimation sur petits domaines qui combinent des données d’enquête parcimonieuses à des données riches provenant de sources auxiliaires se sont révélées utiles pour améliorer la fiabilité des estimations sur petits domaines. Nous examinons ici un scénario où des estimations basées sur un modèle pour petits domaines, produit à un niveau d’agrégation donné, devaient être désagrégées pour mieux décrire la structure sociale à des niveaux plus fins. Pour ce scénario, nous avons élaboré une méthode de répartition afin de mettre en œuvre la désagrégation, surmontant les problèmes associés à la disponibilité des données et à l’élaboration de modèles à des niveaux de cette finesse. La méthode est appliquée à l’estimation de la littératie et de la numératie des adultes au niveau du comté par groupe, au moyen des données du Programme pour l’évaluation internationale des compétences des adultes (PEICA) des États-Unis. Dans cette application, les groupes sont définis en fonction de l’âge ou de la scolarité, mais la méthode pourrait être appliquée à l’estimation d’autres groupes en quête d’équité.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100004
    Description : Conformément au Plan d’action sur les données désagrégées (PADD) à long terme de Statistique Canada, plusieurs initiatives ont été mises en œuvre dans l’Enquête sur la population active (EPA). Une des initiatives les plus directes fut une augmentation ciblée dans la taille de l’échantillon mensuel de l’EPA. En outre, un programme d’enquête supplémentaire régulier a été introduit, où une série supplémentaire de questions a été posée à un sous-ensemble de répondants de l’EPA et analysée dans un cycle de production mensuel ou trimestriel. Enfin, les estimations fondées sur les méthodologies de l’estimation sur petits domaines (EPD) sont réintroduites dans l’EPA et comprendront une portée élargie avec davantage de valeur analytique qu’auparavant. Le présent article donne un aperçu de ces trois initiatives.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100005
    Description : Le lissage de la variance due à l’échantillonnage est un sujet important dans l’estimation sur petits domaines. Dans le présent article, nous proposons des méthodes de lissage de la variance due à l’échantillonnage aux fins d’estimation sur petits domaines. En particulier, nous considérons la fonction de variance généralisée et les méthodes d’effet de plan aux fins de lissage de la variance due à l’échantillonnage. Nous évaluons et comparons les variances dues à l’échantillonnage lissées et les estimations sur petits domaines fondées sur des estimations de la variance lissées au moyen de l’analyse de données d’enquête de Statistique Canada. Les résultats de l’analyse de données réelles indiquent que les méthodes de lissage de la variance due à l’échantillonnage proposées fonctionnent très bien pour l’estimation sur petits domaines.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100006
    Description : L’ABS (Bureau de la statistique de l’Australie) s’est engagé à offrir un meilleur accès à un plus grand nombre de microdonnées, tout en assurant la protection des renseignements personnels et la confidentialité, grâce à son DataLab (laboratoire de données) virtuel qui aide à entreprendre des recherches complexes plus efficacement. À l’heure actuelle, pour être autorisées, les données de sortie de recherche de DataLab doivent respecter des règles strictes afin de minimiser les risques de divulgation. Or le processus d’examen manuel n’est pas rentable et peut entraîner des erreurs. Le nombre croissant de résultats statistiques provenant de différents projets peut introduire des risques de divulgation résiduelle même si ces résultats de différents projets ont respecté des règles strictes en matière de sorties. L’ABS étudie la possibilité de fournir une vérification automatique des sorties au moyen de la méthodologie de la clé de cellule de l’ABS pour s’assurer que toutes les sorties des différents projets sont protégées de façon uniforme afin de minimiser les risques de divulgation résiduelle et de réduire les coûts associés à la vérification des sorties.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100007
    Description : Dans le contexte de la disponibilité de sources de données plus vastes et plus diverses, les instituts statistiques en Europe sont enclins à publier des statistiques sur des groupes plus petits qu’auparavant. En outre, des épisodes mondiaux à forte incidence, comme la crise de la COVID-19 et la situation en Ukraine, peuvent également nécessiter des statistiques sur des sous-groupes particuliers de personnes. La publication de données concernant de petits groupes ciblés soulève non seulement des questions sur la qualité statistique des chiffres, mais aussi sur le risque de divulgation statistique. Le principe du contrôle de la divulgation statistique ne dépend pas de la taille des groupes sur lesquels les statistiques sont basées. Cependant, le risque de divulgation dépend de la taille du groupe : plus un groupe est petit, plus le risque est élevé. Les méthodes classiques de gestion du contrôle de la divulgation statistique lorsque la taille des groupes est réduite comprennent la suppression de données et le regroupement des catégories. Pour l’essentiel, ces méthodes consistent à augmenter la taille (moyenne) des groupes. Des approches plus récentes incluent des méthodes de perturbation des données visant à maintenir des groupes de petite taille pour préserver le plus d’information possible, tout en réduisant suffisamment le risque de divulgation. Dans le présent article, nous mentionnerons quelques exemples européens de statistiques sur des groupes types présentant un intérêt particulier et évoquerons les implications sur le contrôle de la divulgation statistique. Nous aborderons, en outre, certains problèmes liés à l’utilisation de méthodes de perturbation des données, à savoir leur incidence sur le risque de divulgation et sur l’utilité, ainsi que les défis liés à une bonne communication à ce sujet.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100008
    Description : La publication de davantage de données présentant un niveau élevé de désagrégation peut accroître la transparence et fournir des renseignements importants sur les groupes sous-représentés. L’élaboration d’options d’accès plus facilement disponibles augmente la quantité d’information disponible et produite par les chercheurs. Accroître l’étendue et la profondeur de l’information diffusée permet une meilleure représentation de la population canadienne, mais impose également à Statistique Canada une plus grande responsabilité quant à la manière dont cela est fait, qui se doit de préserver la confidentialité; il est donc utile d’élaborer des outils qui nous permettent de quantifier le risque lié à la granularité accrue des données. Afin d’évaluer le risque d’une attaque par reconstruction de base de données sur les données de recensement publiées par Statistique Canada, nous appliquons la stratégie de l’U.S. Census Bureau, qui met en avant une méthode utilisant un solveur de satisfaisabilité booléenne (SAT) pour reconstruire les attributs individuels des résidents d’un îlot hypothétique du recensement américain, basé uniquement sur un tableau de statistiques récapitulatives. Nous prévoyons d’étendre cette technique pour tenter de reconstruire une petite fraction des microdonnées de recensement de Statistique Canada. Dans cet article, nous aborderons nos conclusions, les défis liés à l’élaboration d’une attaque par reconstruction et l’effet d’une mesure de confidentialité existante pour atténuer ces attaques. En outre, nous comparerons notre stratégie actuelle à d’autres méthodes potentielles utilisées aux fins de protection des données, en particulier la publication de données tabulaires perturbées par un mécanisme aléatoire, tel que la confidentialité différentielle.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100009
    Description : L’éducation et la formation sont reconnues comme des éléments fondamentaux du développement d’une société. Il s’agit d’un phénomène multidimensionnel complexe, dont les déterminants sont attribuables à plusieurs conditions sociales et socioéconomiques interdépendantes. Pour répondre à la demande de renseignements statistiques à l’appui de l’élaboration des politiques et de leurs processus de suivi et d’évaluation, l’Institut national italien de statistique (Istat) renouvelle le système de production de statistiques sur l’éducation et la formation en mettant en œuvre un nouveau registre statistique thématique. Ce dernier fera partie du système intégré de registres de l’Istat, ce qui permettra de relier le phénomène de l’éducation et de la formation à d’autres phénomènes pertinents, comme la transition vers le marché du travail.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100010
    Description : Grandir au Québec est une enquête longitudinale populationnelle qui a débuté au printemps 2021 à l’Institut de la statistique du Québec. Parmi les enfants visés par ce suivi longitudinal, certains éprouveront des difficultés de développement à un moment ou un autre de leur vie. Ces mêmes enfants présentent souvent des caractéristiques associées à une érosion de l’échantillon plus élevée (famille à faible revenu, faible niveau de scolarisation des parents). Le présent article décrit les deux principaux défis que nous avons rencontrés en tentant d’assurer une représentativité suffisante de ces enfants, tant dans les résultats globaux que dans les analyses de sous-populations.
    Date de diffusion : 2024-03-25
Références (1)

Références (1) ((1 résultat))

  • Enquêtes et programmes statistiques — Documentation : 75F0002M1992001
    Description :

    À compter de 1994, l'Enquête sur la dynamique du travail et du revenu (EDTR) fera enquête auprès de particuliers et de familles pendant une période d'au moins six ans afin de recueillir des données sur leurs expériences sur le marché du travail, sur l'évolution de leur revenu et de leur situation familiale. Une proposition initiale touchant le contenu de l'EDTR et ayant pour titre «Contenu de l'Enquête sur la dynamique du travail et du revenu: Document de travail» a été publiée en février 1992.

    Ce document a servi de base à un processus de consultation auprès des utilisateurs qui ont fait part de leurs observations. Son contenu a subi des changements significatifs durant ce processus. En se basant sur le contenu révisé, nous procéderons à un essai à grande échelle de l'EDTR en février et en mai 1993.

    Le présent document passe brièvement en revue le contenu touchant le revenu et le patrimoine devant faire l'objet d'un test en mai 1993. Ce document est réellement un prolongement de la Série de documents de recherche de l'EDTR 92-01A, qui brosse un tableau du contenu du test de janvier/février 1993 dans les domaines de la démographie et du travail.

    Date de diffusion : 2008-02-29
Date de modification :