Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Auteur(s)

100 facets displayed. 1 facets selected.

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (179)

Tout (179) (0 à 10 de 179 résultats)

  • Articles et rapports : 11-522-X202200100001
    Description : Le couplage d’enregistrements vise à mettre en évidence les paires d’enregistrements liées à la même unité et observées dans deux ensembles de données différents, disons A et B. Fellegi et Sunter (1969) proposent de mettre à l’essai chaque paire d’enregistrements, qu’elle soit générée à partir de l’ensemble de paires appariées ou non. La fonction de décision est le rapport entre m(y) et u(y), les probabilités d’observer une comparaison y d’un ensemble de k>3 variables d’identification clés dans une paire d’enregistrements, sous l’hypothèse que la paire constitue, respectivement, un appariement ou non. On estime habituellement ces paramètres au moyen de l’algorithme EM en utilisant comme données les comparaisons pour toutes les paires du produit cartésien ?=A×B. On émet l’hypothèse que ces observations (sur les comparaisons et sur l’état des paires comme appariement ou non) sont générées indépendamment des autres paires, hypothèse caractérisant la majeure partie de la littérature sur le couplage d’enregistrements et mise en œuvre dans les outils logiciels (p. ex., RELAIS, Cibella et coll. 2012). Au contraire, les comparaisons y et l’état d’appariement dans O sont dépendants de manière déterministe. Par conséquent, les estimations sur m(y) et u(y) fondées sur l’algorithme EM sont généralement mauvaises. Ce fait compromet l’efficacité de l’application de la méthode de Fellegi-Sunter, ainsi que le calcul automatique des mesures de la qualité et la possibilité d’appliquer des méthodes efficaces aux fins d’estimation du modèle sur des données couplées (p. ex. les fonctions de régression), comme dans Chambers et coll. (2015). Nous proposons d’examiner O au moyen d’un ensemble d’échantillons, chacun tiré de manière à préserver l’indépendance des comparaisons entre les paires d’enregistrements sélectionnées. Les simulations sont encourageantes.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 12-001-X202300200017
    Description : Jean-Claude Deville, décédé en octobre 2021, fut l’un des chercheurs les plus influents dans le domaine la statistique d’enquête au cours des quarante dernières années. Cet article retrace certaines de ses contributions qui ont eu un profond impact, tant sur la théorie que sur la pratique des enquêtes. Cet article abordera les sujets suivants : l’échantillonnage équilibré au moyen de la méthode du cube, le calage, la méthode du partage des poids, le développement des expressions de la variance d’estimateurs complexes au moyen de la fonction d’influence et l’échantillonnage par quotas.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300100009
    Description : Le présent article présente des méthodes d’échantillonnage adaptatif proportionnel à la taille, avec et sans remise. Des estimateurs sans biais y sont élaborés pour ces méthodes et leurs propriétés sont étudiées. Dans les deux versions, les probabilités de tirage sont adaptées pendant le processus d’échantillonnage à partir des observations déjà sélectionnées. À cette fin, dans la méthode avec remise, après chaque tirage et chaque observation de la variable d’intérêt, le vecteur de la variable auxiliaire sera mis à jour au moyen des valeurs observées de la variable d’intérêt pour que soit estimée la probabilité de sélection exacte proportionnelle à la taille. Dans la méthode sans remise, tout d’abord, à l’aide d’un échantillon initial, nous modélisons la relation entre la variable d’intérêt et la variable auxiliaire. Puis, en utilisant cette relation, nous estimons les unités de population inconnues (non observées). Enfin, à partir de ces unités de population estimées, nous sélectionnons un nouvel échantillon proportionnel à la taille sans remise. Ces méthodes peuvent améliorer considérablement l’efficacité des plans, non seulement dans le cas d’une relation linéaire positive, mais aussi dans le cas d’une relation non linéaire ou d’une relation linéaire négative entre variables. Nous étudions l’efficacité des plans au moyen de simulations et d’études de cas réels sur les plantes médicinales ainsi qu’au moyen de données sociales et économiques.
    Date de diffusion : 2023-06-30

  • Articles et rapports : 82-003-X202300200003
    Description : Les scores d’utilité sont un outil important pour évaluer la qualité de vie liée à la santé. Des normes de scores d’utilité ont été publiées pour les adultes canadiens; cependant, il n’existe aucune norme de scores d’utilité qui soit représentative à l’échelle nationale pour les personnes non adultes. Fondée sur les données du Health Utilities Index Mark 3 (HUI3) provenant des deux derniers cycles de l’Enquête canadienne sur les mesures de la santé (c.-à-d. 2016-2017 et 2018-2019), cette première étude du genre fournit des normes de scores d’utilité pour les enfants de 6 à 11 ans et les adolescents de 12 à 17 ans.
    Date de diffusion : 2023-02-15

  • Articles et rapports : 12-001-X202200100001
    Description :

    Dans la présente étude, nous tentons d’établir dans quelle mesure l’âge et le niveau de scolarité des répondants peuvent être systématiquement associés à un comportement de réponse indésirable (CRI) dans un ensemble d’enquêtes. À cette fin, nous avons utilisé les données obtenues auprès d’un panel de répondants ayant participé à 10 enquêtes démographiques générales réalisées par CentERdata et le bureau central de la statistique des Pays-Bas. Nous avons utilisé une nouvelle méthode pour présenter visuellement les CRI ainsi qu’une adaptation ingénieuse d’une mesure non paramétrique de l’ampleur de l’effet. Des répartitions de la densité, que nous appelons des profils des répondants, font état de l’occurrence d’un CRI chez des répondants affichant des caractéristiques particulières. Afin de comparer ces profils du point de vue d’une occurrence potentiellement constante d’un CRI dans les enquêtes, nous avons utilisé une adaptation du delta de Cliff, qui décrit efficacement l’ampleur de l’effet. Dans les enquêtes prises globalement, la mesure d’un CRI varie selon l’âge et le niveau de scolarité. Les résultats ne montrent pas un CRI constant dans les enquêtes considérées individuellement : l’âge et le niveau de scolarité sont associés à une occurrence relativement plus élevée dans certaines enquêtes, mais relativement plus faible dans d’autres. Nous en concluons que l’occurrence d’un CRI peut dépendre davantage de l’enquête et de ses éléments que de la capacité cognitive du répondant.

    Date de diffusion : 2022-06-21

  • Articles et rapports : 12-001-X202200100002
    Description :

    Nous considérons un modèle linéaire à effets aléatoires avec ordonnée à l’origine seulement pour l’analyse de données à partir d’un plan d’échantillonnage en grappes à deux degrés. Au premier degré, un échantillon aléatoire simple de grappes est tiré et au deuxième degré, un échantillon aléatoire simple d’unités élémentaires est prélevé dans chaque grappe sélectionnée. La variable de réponse est censée se composer d’un effet aléatoire au niveau de la grappe en plus d’un terme d’erreurs indépendant dont la variance est connue. Les objets de l’inférence sont la moyenne de la variable de résultat et la variance des effets aléatoires. Dans le cas d’un plan d’échantillonnage à deux degrés plus complexe, l’utilisation d’une approche fondée sur une fonction de vraisemblance composite par paire estimée présente des propriétés attrayantes. Notre objectif est d’utiliser notre cas plus simple pour comparer les résultats de l’inférence fondée sur la vraisemblance à ceux de l’inférence fondée sur une fonction de vraisemblance composite par paire qui est considérée comme une vraisemblance approximative, et en particulier comme une composante de la vraisemblance dans l’inférence bayésienne. Afin de fournir des intervalles de crédibilité ayant une couverture fréquentiste se rapprochant des valeurs nominales, la fonction de vraisemblance composite par paire et la densité a posteriori correspondante nécessitent une modification, comme un ajustement de la courbure. Au moyen d’études par simulations, nous étudions le rendement d’un ajustement proposé dans la littérature et concluons que ce dernier fonctionne bien pour la moyenne, mais fournit des intervalles de crédibilité pour la variance des effets aléatoires présentant un sous-couverture. Nous proposons des orientations futures possibles, y compris des prolongements du cas d’un plan d’échantillonnage complexe.

    Date de diffusion : 2022-06-21

  • Articles et rapports : 12-001-X202200100009
    Description :

    La probabilité inverse, aussi connue en tant que l’estimateur de Horvitz-Thompson, est un outil de base de l’estimation pour une population finie. Même lorsque de l’information auxiliaire est disponible pour modéliser la variable d’intérêt, elle est utilisée pour estimer l’erreur du modèle. Dans la présente étude, l’estimateur de probabilité inverse est généralisé par l’introduction d’une matrice définie positive. L’estimateur de probabilité inverse habituel est un cas spécial de l’estimateur généralisé, dans lequel la matrice définie positive est la matrice identité. Étant donné que l’estimation par calage permet de chercher des poids qui sont proches des poids de probabilité inverse, elle peut également être généralisée pour permettre de chercher des poids qui sont proches de ceux de l’estimateur de probabilité inverse généralisé. Nous savons que le calage est optimal, car il atteint asymptotiquement la borne inférieure de Godambe-Joshi, et celle-ci a été obtenue à partir d’un modèle dépourvu de corrélation. Cette borne inférieure peut également être généralisée en vue de permettre des corrélations. En choisissant judicieusement la matrice définie positive qui généralise les estimateurs par calage, cette borne inférieure généralisée peut être atteinte de façon asymptotique. Bien souvent, il n’existe pas de formule analytique pour calculer les estimateurs généralisés. Toutefois, des exemples simples et clairs sont fournis dans la présente étude pour illustrer la façon dont les estimateurs généralisés tirent parti des corrélations. Cette simplicité s’obtient en supposant une corrélation de 1 entre certaines unités de la population. Ces estimateurs simples peuvent être utiles, même si cette corrélation est inférieure à 1. Des résultats de simulation sont utilisés pour comparer les estimateurs généralisés aux estimateurs ordinaires.

    Date de diffusion : 2022-06-21

  • Articles et rapports : 12-001-X202200100010
    Description :

    La présente étude combine le recuit simulé avec l’évaluation delta pour résoudre le problème de stratification et de répartition simultanée de l’échantillon. Dans ce problème particulier, les strates atomiques sont divisées en strates mutuellement exclusives et collectivement exhaustives. Chaque partition de strates atomiques est une solution possible au problème de stratification, dont la qualité est mesurée par son coût. Le nombre de Bell de solutions possibles est énorme, même pour un nombre modéré de strates atomiques, et une couche supplémentaire de complexité s’ajoute avec le temps d’évaluation de chaque solution. De nombreux problèmes d’optimisation combinatoire à grande échelle ne peuvent être résolus de manière optimale, car la recherche d’une solution optimale exige un temps de calcul prohibitif. Un certain nombre d’algorithmes heuristiques de recherche locale ont été conçus pour résoudre problème, mais ils peuvent rester coincés dans des minima locaux, ce qui empêche toute amélioration ultérieure. Nous ajoutons, à la suite existante d’algorithmes de recherche locale, un algorithme du recuit simulé qui permet de s’échapper des minima locaux et s’appuie sur l’évaluation delta pour exploiter la similarité entre des solutions consécutives, et ainsi réduire le temps d’évaluation. Nous avons comparé l’algorithme du recuit simulé avec deux algorithmes récents. Dans les deux cas, l’algorithme du recuit simulé a permis d’obtenir une solution de qualité comparable en beaucoup moins de temps de calcul.

    Date de diffusion : 2022-06-21

  • Articles et rapports : 11-522-X202100100017
    Description : L’apparition de la pandémie de COVID-19 a contraint le gouvernement du Canada à fournir des renseignements pertinents et actuels pour appuyer la prise de décisions sur nombre de questions, notamment l’acquisition et le déploiement d’équipements de protection individuelle (EPI). Notre équipe a élaboré un modèle épidémiologique compartimental à partir d’une base de code existante pour projeter la demande d’EPI dans plusieurs scénarios épidémiologiques. Ce modèle a été ensuite amélioré au moyen de techniques de science des données, ce qui a permis de rapidement élaborer et diffuser les résultats du modèle pour éclairer les décisions stratégiques.

    Mots clés : COVID-19; SARS-CoV-2; modèle épidémiologique; science des données; équipement de protection individuelle (EPI); SEIR

    Date de diffusion : 2021-10-22

  • Articles et rapports : 12-001-X202100100006
    Description :

    Il est maintenant possible de gérer des enquêtes à l’aide de modèles statistiques et d’autres outils applicables en temps réel. Le présent article porte sur trois nouveautés nées des tentatives d’adoption d’une démarche plus scientifique dans la gestion du travail sur le terrain : (1) l’utilisation de plans réactifs et adaptatifs aux fins de réduction du biais de non-réponse, d’autres sources d’erreur ou des coûts; (2) la définition de l’itinéraire optimal des déplacements des intervieweurs de façon à réduire les coûts; et (3) la rétroaction rapide aux intervieweurs aux fins de diminution des erreurs de mesure. L’article commence en examinant les expériences et les études par simulations portant sur l’efficacité des plans adaptatifs et réactifs. Ces études suggèrent à penser que ces plans peuvent produire des gains modestes dans la représentativité des échantillons d’enquête ou des économies de coûts modestes, mais qu’ils sont aussi susceptibles d’entraîner des répercussions négatives. La section suivante de l’article étudie les efforts déployés pour fournir aux intervieweurs un itinéraire recommandé à suivre pendant leur prochain déplacement sur le terrain, l’objectif étant de faire correspondre davantage le travail des intervieweurs sur le terrain avec les priorités de recherche tout en réduisant les temps de déplacement. Notons toutefois qu’une étude mettant à l’essai cette stratégie a révélé que, souvent, les intervieweurs ignorent les instructions. Ensuite, l’article décrit les tentatives de donner une rétroaction rapide aux intervieweurs, à partir des enregistrements automatiques de leurs interviews. Souvent, les intervieweurs lisent les questions d’une manière qui influence les réponses des répondants. La correction de ce type de problèmes a rapidement apporté des améliorations notables de la qualité des données. Toutes les méthodes visent à remplacer le jugement des intervieweurs, des superviseurs sur le terrain et des gestionnaires d’enquête par des modèles statistiques et des constatations scientifiques.

    Date de diffusion : 2021-06-24
Stats en bref (2)

Stats en bref (2) ((2 résultats))

  • Stats en bref : 13-604-M2010064
    Description :

    Ce document présente les derniers résultats annuels des parités de pouvoir d'achat (PPA) du Canada et des États-Unis ainsi que la comparaison des indices de dépenses réelles entre les États-Unis et le Canada pour la période de 2002 à 2009. Les révisions apportées aux données publiées et la mise à jour basée sur les plus récentes données relatives aux dépenses tirées des comptes nationaux du Canada et des États-Unis ainsi qu'une comparaison exhaustive des prix pour 2005 ont été intégrées. Ce document se veut une introduction aux parités de pouvoir d'achat et aux mesures connexes, et explique leurs importances lors de comparaisons de performances économiques au niveau international. De plus, il décrit une nouvelle méthode de projection pour les mesures reliées à l'économie totale qui sont maintenant basé sur le revenu intérieur brut et présente l'impact de ce changement sur les données.

    Date de diffusion : 2011-01-28

  • Stats en bref : 13-604-M2007053
    Description :

    Les derniers résultats annuels des parités de pouvoir d'achat (PPA) du Canada et des États-Unis ainsi que de la comparaison des indices de dépenses réelles entre les États-Unis et le Canada sont publiés dans ce document pour la période de 1992 à 2005. Les révisions apportées aux données publiées et la mise à jour basée sur les plus récentes données relatives aux dépenses tirées des comptes nationaux du Canada et des États-Unis ainsi qu'une comparaison exhaustive des prix pour 2002 ont été intégrées, une nouvelle présentation de catégories de produits a aussi été introduite. Ce document se veut une introduction aux parités de pouvoir d'achat et aux mesures connexes, et explique leurs importances lors de comparaisons de performances économiques au niveau international.

    Date de diffusion : 2007-02-12
Articles et rapports (176)

Articles et rapports (176) (0 à 10 de 176 résultats)

  • Articles et rapports : 11-522-X202200100001
    Description : Le couplage d’enregistrements vise à mettre en évidence les paires d’enregistrements liées à la même unité et observées dans deux ensembles de données différents, disons A et B. Fellegi et Sunter (1969) proposent de mettre à l’essai chaque paire d’enregistrements, qu’elle soit générée à partir de l’ensemble de paires appariées ou non. La fonction de décision est le rapport entre m(y) et u(y), les probabilités d’observer une comparaison y d’un ensemble de k>3 variables d’identification clés dans une paire d’enregistrements, sous l’hypothèse que la paire constitue, respectivement, un appariement ou non. On estime habituellement ces paramètres au moyen de l’algorithme EM en utilisant comme données les comparaisons pour toutes les paires du produit cartésien ?=A×B. On émet l’hypothèse que ces observations (sur les comparaisons et sur l’état des paires comme appariement ou non) sont générées indépendamment des autres paires, hypothèse caractérisant la majeure partie de la littérature sur le couplage d’enregistrements et mise en œuvre dans les outils logiciels (p. ex., RELAIS, Cibella et coll. 2012). Au contraire, les comparaisons y et l’état d’appariement dans O sont dépendants de manière déterministe. Par conséquent, les estimations sur m(y) et u(y) fondées sur l’algorithme EM sont généralement mauvaises. Ce fait compromet l’efficacité de l’application de la méthode de Fellegi-Sunter, ainsi que le calcul automatique des mesures de la qualité et la possibilité d’appliquer des méthodes efficaces aux fins d’estimation du modèle sur des données couplées (p. ex. les fonctions de régression), comme dans Chambers et coll. (2015). Nous proposons d’examiner O au moyen d’un ensemble d’échantillons, chacun tiré de manière à préserver l’indépendance des comparaisons entre les paires d’enregistrements sélectionnées. Les simulations sont encourageantes.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 12-001-X202300200017
    Description : Jean-Claude Deville, décédé en octobre 2021, fut l’un des chercheurs les plus influents dans le domaine la statistique d’enquête au cours des quarante dernières années. Cet article retrace certaines de ses contributions qui ont eu un profond impact, tant sur la théorie que sur la pratique des enquêtes. Cet article abordera les sujets suivants : l’échantillonnage équilibré au moyen de la méthode du cube, le calage, la méthode du partage des poids, le développement des expressions de la variance d’estimateurs complexes au moyen de la fonction d’influence et l’échantillonnage par quotas.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300100009
    Description : Le présent article présente des méthodes d’échantillonnage adaptatif proportionnel à la taille, avec et sans remise. Des estimateurs sans biais y sont élaborés pour ces méthodes et leurs propriétés sont étudiées. Dans les deux versions, les probabilités de tirage sont adaptées pendant le processus d’échantillonnage à partir des observations déjà sélectionnées. À cette fin, dans la méthode avec remise, après chaque tirage et chaque observation de la variable d’intérêt, le vecteur de la variable auxiliaire sera mis à jour au moyen des valeurs observées de la variable d’intérêt pour que soit estimée la probabilité de sélection exacte proportionnelle à la taille. Dans la méthode sans remise, tout d’abord, à l’aide d’un échantillon initial, nous modélisons la relation entre la variable d’intérêt et la variable auxiliaire. Puis, en utilisant cette relation, nous estimons les unités de population inconnues (non observées). Enfin, à partir de ces unités de population estimées, nous sélectionnons un nouvel échantillon proportionnel à la taille sans remise. Ces méthodes peuvent améliorer considérablement l’efficacité des plans, non seulement dans le cas d’une relation linéaire positive, mais aussi dans le cas d’une relation non linéaire ou d’une relation linéaire négative entre variables. Nous étudions l’efficacité des plans au moyen de simulations et d’études de cas réels sur les plantes médicinales ainsi qu’au moyen de données sociales et économiques.
    Date de diffusion : 2023-06-30

  • Articles et rapports : 82-003-X202300200003
    Description : Les scores d’utilité sont un outil important pour évaluer la qualité de vie liée à la santé. Des normes de scores d’utilité ont été publiées pour les adultes canadiens; cependant, il n’existe aucune norme de scores d’utilité qui soit représentative à l’échelle nationale pour les personnes non adultes. Fondée sur les données du Health Utilities Index Mark 3 (HUI3) provenant des deux derniers cycles de l’Enquête canadienne sur les mesures de la santé (c.-à-d. 2016-2017 et 2018-2019), cette première étude du genre fournit des normes de scores d’utilité pour les enfants de 6 à 11 ans et les adolescents de 12 à 17 ans.
    Date de diffusion : 2023-02-15

  • Articles et rapports : 12-001-X202200100001
    Description :

    Dans la présente étude, nous tentons d’établir dans quelle mesure l’âge et le niveau de scolarité des répondants peuvent être systématiquement associés à un comportement de réponse indésirable (CRI) dans un ensemble d’enquêtes. À cette fin, nous avons utilisé les données obtenues auprès d’un panel de répondants ayant participé à 10 enquêtes démographiques générales réalisées par CentERdata et le bureau central de la statistique des Pays-Bas. Nous avons utilisé une nouvelle méthode pour présenter visuellement les CRI ainsi qu’une adaptation ingénieuse d’une mesure non paramétrique de l’ampleur de l’effet. Des répartitions de la densité, que nous appelons des profils des répondants, font état de l’occurrence d’un CRI chez des répondants affichant des caractéristiques particulières. Afin de comparer ces profils du point de vue d’une occurrence potentiellement constante d’un CRI dans les enquêtes, nous avons utilisé une adaptation du delta de Cliff, qui décrit efficacement l’ampleur de l’effet. Dans les enquêtes prises globalement, la mesure d’un CRI varie selon l’âge et le niveau de scolarité. Les résultats ne montrent pas un CRI constant dans les enquêtes considérées individuellement : l’âge et le niveau de scolarité sont associés à une occurrence relativement plus élevée dans certaines enquêtes, mais relativement plus faible dans d’autres. Nous en concluons que l’occurrence d’un CRI peut dépendre davantage de l’enquête et de ses éléments que de la capacité cognitive du répondant.

    Date de diffusion : 2022-06-21

  • Articles et rapports : 12-001-X202200100002
    Description :

    Nous considérons un modèle linéaire à effets aléatoires avec ordonnée à l’origine seulement pour l’analyse de données à partir d’un plan d’échantillonnage en grappes à deux degrés. Au premier degré, un échantillon aléatoire simple de grappes est tiré et au deuxième degré, un échantillon aléatoire simple d’unités élémentaires est prélevé dans chaque grappe sélectionnée. La variable de réponse est censée se composer d’un effet aléatoire au niveau de la grappe en plus d’un terme d’erreurs indépendant dont la variance est connue. Les objets de l’inférence sont la moyenne de la variable de résultat et la variance des effets aléatoires. Dans le cas d’un plan d’échantillonnage à deux degrés plus complexe, l’utilisation d’une approche fondée sur une fonction de vraisemblance composite par paire estimée présente des propriétés attrayantes. Notre objectif est d’utiliser notre cas plus simple pour comparer les résultats de l’inférence fondée sur la vraisemblance à ceux de l’inférence fondée sur une fonction de vraisemblance composite par paire qui est considérée comme une vraisemblance approximative, et en particulier comme une composante de la vraisemblance dans l’inférence bayésienne. Afin de fournir des intervalles de crédibilité ayant une couverture fréquentiste se rapprochant des valeurs nominales, la fonction de vraisemblance composite par paire et la densité a posteriori correspondante nécessitent une modification, comme un ajustement de la courbure. Au moyen d’études par simulations, nous étudions le rendement d’un ajustement proposé dans la littérature et concluons que ce dernier fonctionne bien pour la moyenne, mais fournit des intervalles de crédibilité pour la variance des effets aléatoires présentant un sous-couverture. Nous proposons des orientations futures possibles, y compris des prolongements du cas d’un plan d’échantillonnage complexe.

    Date de diffusion : 2022-06-21

  • Articles et rapports : 12-001-X202200100009
    Description :

    La probabilité inverse, aussi connue en tant que l’estimateur de Horvitz-Thompson, est un outil de base de l’estimation pour une population finie. Même lorsque de l’information auxiliaire est disponible pour modéliser la variable d’intérêt, elle est utilisée pour estimer l’erreur du modèle. Dans la présente étude, l’estimateur de probabilité inverse est généralisé par l’introduction d’une matrice définie positive. L’estimateur de probabilité inverse habituel est un cas spécial de l’estimateur généralisé, dans lequel la matrice définie positive est la matrice identité. Étant donné que l’estimation par calage permet de chercher des poids qui sont proches des poids de probabilité inverse, elle peut également être généralisée pour permettre de chercher des poids qui sont proches de ceux de l’estimateur de probabilité inverse généralisé. Nous savons que le calage est optimal, car il atteint asymptotiquement la borne inférieure de Godambe-Joshi, et celle-ci a été obtenue à partir d’un modèle dépourvu de corrélation. Cette borne inférieure peut également être généralisée en vue de permettre des corrélations. En choisissant judicieusement la matrice définie positive qui généralise les estimateurs par calage, cette borne inférieure généralisée peut être atteinte de façon asymptotique. Bien souvent, il n’existe pas de formule analytique pour calculer les estimateurs généralisés. Toutefois, des exemples simples et clairs sont fournis dans la présente étude pour illustrer la façon dont les estimateurs généralisés tirent parti des corrélations. Cette simplicité s’obtient en supposant une corrélation de 1 entre certaines unités de la population. Ces estimateurs simples peuvent être utiles, même si cette corrélation est inférieure à 1. Des résultats de simulation sont utilisés pour comparer les estimateurs généralisés aux estimateurs ordinaires.

    Date de diffusion : 2022-06-21

  • Articles et rapports : 12-001-X202200100010
    Description :

    La présente étude combine le recuit simulé avec l’évaluation delta pour résoudre le problème de stratification et de répartition simultanée de l’échantillon. Dans ce problème particulier, les strates atomiques sont divisées en strates mutuellement exclusives et collectivement exhaustives. Chaque partition de strates atomiques est une solution possible au problème de stratification, dont la qualité est mesurée par son coût. Le nombre de Bell de solutions possibles est énorme, même pour un nombre modéré de strates atomiques, et une couche supplémentaire de complexité s’ajoute avec le temps d’évaluation de chaque solution. De nombreux problèmes d’optimisation combinatoire à grande échelle ne peuvent être résolus de manière optimale, car la recherche d’une solution optimale exige un temps de calcul prohibitif. Un certain nombre d’algorithmes heuristiques de recherche locale ont été conçus pour résoudre problème, mais ils peuvent rester coincés dans des minima locaux, ce qui empêche toute amélioration ultérieure. Nous ajoutons, à la suite existante d’algorithmes de recherche locale, un algorithme du recuit simulé qui permet de s’échapper des minima locaux et s’appuie sur l’évaluation delta pour exploiter la similarité entre des solutions consécutives, et ainsi réduire le temps d’évaluation. Nous avons comparé l’algorithme du recuit simulé avec deux algorithmes récents. Dans les deux cas, l’algorithme du recuit simulé a permis d’obtenir une solution de qualité comparable en beaucoup moins de temps de calcul.

    Date de diffusion : 2022-06-21

  • Articles et rapports : 11-522-X202100100017
    Description : L’apparition de la pandémie de COVID-19 a contraint le gouvernement du Canada à fournir des renseignements pertinents et actuels pour appuyer la prise de décisions sur nombre de questions, notamment l’acquisition et le déploiement d’équipements de protection individuelle (EPI). Notre équipe a élaboré un modèle épidémiologique compartimental à partir d’une base de code existante pour projeter la demande d’EPI dans plusieurs scénarios épidémiologiques. Ce modèle a été ensuite amélioré au moyen de techniques de science des données, ce qui a permis de rapidement élaborer et diffuser les résultats du modèle pour éclairer les décisions stratégiques.

    Mots clés : COVID-19; SARS-CoV-2; modèle épidémiologique; science des données; équipement de protection individuelle (EPI); SEIR

    Date de diffusion : 2021-10-22

  • Articles et rapports : 12-001-X202100100006
    Description :

    Il est maintenant possible de gérer des enquêtes à l’aide de modèles statistiques et d’autres outils applicables en temps réel. Le présent article porte sur trois nouveautés nées des tentatives d’adoption d’une démarche plus scientifique dans la gestion du travail sur le terrain : (1) l’utilisation de plans réactifs et adaptatifs aux fins de réduction du biais de non-réponse, d’autres sources d’erreur ou des coûts; (2) la définition de l’itinéraire optimal des déplacements des intervieweurs de façon à réduire les coûts; et (3) la rétroaction rapide aux intervieweurs aux fins de diminution des erreurs de mesure. L’article commence en examinant les expériences et les études par simulations portant sur l’efficacité des plans adaptatifs et réactifs. Ces études suggèrent à penser que ces plans peuvent produire des gains modestes dans la représentativité des échantillons d’enquête ou des économies de coûts modestes, mais qu’ils sont aussi susceptibles d’entraîner des répercussions négatives. La section suivante de l’article étudie les efforts déployés pour fournir aux intervieweurs un itinéraire recommandé à suivre pendant leur prochain déplacement sur le terrain, l’objectif étant de faire correspondre davantage le travail des intervieweurs sur le terrain avec les priorités de recherche tout en réduisant les temps de déplacement. Notons toutefois qu’une étude mettant à l’essai cette stratégie a révélé que, souvent, les intervieweurs ignorent les instructions. Ensuite, l’article décrit les tentatives de donner une rétroaction rapide aux intervieweurs, à partir des enregistrements automatiques de leurs interviews. Souvent, les intervieweurs lisent les questions d’une manière qui influence les réponses des répondants. La correction de ce type de problèmes a rapidement apporté des améliorations notables de la qualité des données. Toutes les méthodes visent à remplacer le jugement des intervieweurs, des superviseurs sur le terrain et des gestionnaires d’enquête par des modèles statistiques et des constatations scientifiques.

    Date de diffusion : 2021-06-24
Revues et périodiques (1)

Revues et périodiques (1) ((1 résultat))

  • Revues et périodiques : 12-605-X
    Description :

    Le Modèle du processus d'un projet de couplage d'enregistrements (MPPCE) a été développé par Statistique Canada pour identifier les processus et les activités mis en œuvres dans des projets de couplage d'enregistrements. Le MPPCE s'applique aux projets menés aux niveaux tant individuel que de l'entreprise en utilisant diverses sources de données pour créer des nouvelles sources de données.

    Date de diffusion : 2017-06-05
Date de modification :