Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (887)

Tout (887) (0 à 10 de 887 résultats)

  • Revues et périodiques : 12-001-X
    Géographie : Canada
    Description : La revue publie des articles sur les divers aspects des méthodes statistiques qui intéressent un organisme statistique comme, par exemple, les problèmes de conception découlant de contraintes d'ordre pratique, l'utilisation de différentes sources de données et de méthodes de collecte, les erreurs dans les enquêtes, l'évaluation des enquêtes, la recherche sur les méthodes d'enquêtes, l'analyse des séries chronologiques, la désaisonnalisation, les études démographiques, l'intégration des données statistiques, les méthodes d'estimation et d'analyse de données et le développement de systèmes généralisés. Une importance particulière est accordée à l'élaboration et à l'évaluation de méthodes qui ont été utilisées pour la collecte de données ou appliquées à des données réelles.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200001
    Description : Lorsqu’un fournisseur de soins de santé de Medicare est soupçonné de fraude liée à la facturation, on isole une population de paiements X versés à ce fournisseur sur une certaine période. Un examinateur médical agréé peut, dans un long processus, établir le trop-payé Y = X - (montant justifié par la preuve) pour chaque paiement. En temps normal, il y aura trop de paiements dans une population pour que chacun soit examiné avec soin, aussi prélève-t-on un échantillon probabiliste. Les trop-payés de cet échantillon servent alors à calculer une borne inférieure de l’intervalle de confiance de 90 % pour le trop-payé total de cette population. La borne correspond au montant exigé en recouvrement auprès du fournisseur. Malheureusement, les méthodes classiques de calcul de cette borne ne permettent parfois pas de dégager le niveau de confiance de 90 %, plus particulièrement lorsqu’on utilise un échantillon stratifié.

    Dans le présent document, nous présentons et décrivons 166 échantillons épurés tirés des enquêtes au sujet de l’intégrité de Medicare qui comportent 156 populations de paiements correspondantes. Les 7 588 paires échantillonnées (Y, X) indiquent 1) que les vérifications réalisées au sein de Medicare affichent des taux d’erreur élevés : plus de 76 % des paiements en question sont considérés comme étant des erreurs. Elles indiquent aussi 2) que les configurations de ces échantillons vont dans le sens d’un modèle de mélange « tout ou rien » pour (Y, X) qui est déjà défini dans les études spécialisées. Nous analysons des procédures de test de Monte Carlo fondées sur un modèle pour les plans de sondage de Medicare, ainsi que des méthodes de stratification fondées sur les moments anticipés du modèle. Pour la viabilité (atteinte d’un niveau de confiance de 90 %), nous définissons dans le présent article une nouvelle méthode de stratification qui rivalise avec les meilleures parmi de nombreuses méthodes existantes et qui semble moins sensible au choix de paramètres d’exploitation. Pour ce qui est du recouvrement des trop-payés (ce qui équivaut à une mesure de la précision), la nouvelle méthode se compare aussi aux meilleures parmi les nombreuses méthodes expérimentées. Malheureusement, aucun algorithme de stratification mis à l’essai ne s’est révélé viable pour plus de la moitié environ des 104 populations visées par l’essai.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200002
    Description : Il est essentiel de pouvoir quantifier l’exactitude (biais, variance) des résultats publiés dans les statistiques officielles. Dans ces dernières, les résultats sont presque toujours divisés en sous-populations selon une variable de classification, comme le revenu moyen par catégorie de niveau de scolarité. Ces résultats sont également appelés « statistiques de domaine ». Dans le présent article, nous nous limitons aux variables de classification binaire. En pratique, des erreurs de classification se produisent et contribuent au biais et à la variance des statistiques de domaine. Les méthodes analytiques et numériques servant actuellement à estimer cet effet présentent deux inconvénients. Le premier inconvénient est qu’elles exigent que les probabilités de classification erronée soient connues au préalable et le deuxième est que les estimations du biais et de la variance sont elles-mêmes biaisées. Dans le présent article, nous présentons une nouvelle méthode, un modèle de mélange gaussien estimé par un algorithme espérance-maximisation (EM) combiné à un bootstrap, appelé « méthode bootstrap EM ». Cette nouvelle méthode n’exige pas que les probabilités de classification erronée soient connues au préalable, bien qu’elle soit plus efficace quand on utilise un petit échantillon de vérification qui donne une valeur de départ pour les probabilités de classification erronée dans l’algorithme EM. Nous avons comparé le rendement de la nouvelle méthode et celui des méthodes numériques actuellement disponibles, à savoir la méthode bootstrap et la méthode SIMEX. Des études antérieures ont démontré que pour les paramètres non linéaires, le bootstrap donne de meilleurs résultats que les expressions analytiques. Pour presque toutes les conditions mises à l’essai, les estimations du biais et de la variance obtenues par la méthode bootstrap EM sont plus proches de leurs vraies valeurs que celles obtenues par les méthodes bootstrap et SIMEX. Nous terminons l’article par une discussion sur les résultats et d’éventuels prolongements de la méthode.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200003
    Description : Nous étudions la prédiction sur petits domaines des paramètres généraux à partir de deux modèles pour les dénombrements au niveau de l’unité. Nous construisons des prédicteurs de paramètres, comme les quartiles, qui peuvent être des fonctions non linéaires de la variable réponse du modèle. Nous élaborons d’abord une procédure pour construire les meilleurs prédicteurs empiriques et les estimateurs de l’erreur quadratique moyenne des paramètres généraux dans un modèle Gamma-Poisson au niveau de l’unité. Nous utilisons ensuite un algorithme de rééchantillonnage préférentiel pour élaborer des prédicteurs pour un modèle linéaire mixte généralisé (MLMG) avec une distribution de la réponse de Poisson. Nous comparons les deux modèles au moyen d’une simulation et d’une analyse des données de l’Iowa Seat-Belt Use Survey (une enquête sur l’utilisation de la ceinture de sécurité dans l’État de l’Iowa).
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200004
    Description : Nous présentons une nouvelle méthodologie pour réconcilier des estimations des totaux des superficies cultivées au niveau du comté à un total prédéfini au niveau de l’État soumis à des contraintes d’inégalité et à des variances aléatoires dans le modèle de Fay-Herriot. Pour la superficie ensemencée du National Agricultural Statistics Service (NASS), un organisme du ministère de l’Agriculture des États-Unis (USDA), il est nécessaire d’intégrer la contrainte selon laquelle les totaux estimés, dérivés de données d’enquête et d’autres données auxiliaires, ne sont pas inférieurs aux totaux administratifs de la superficie ensemencée préenregistrés par d’autres organismes du USDA, à l’exception de NASS. Ces totaux administratifs sont considérés comme fixes et connus, et cette exigence de cohérence supplémentaire ajoute à la complexité de la réconciliation des estimations au niveau du comté. Une analyse entièrement bayésienne du modèle de Fay-Herriot offre un moyen intéressant d’intégrer les contraintes d’inégalité et de réconciliation et de quantifier les incertitudes qui en résultent, mais l’échantillonnage à partir des densités a posteriori comprend une intégration difficile; des approximations raisonnables doivent être faites. Tout d’abord, nous décrivons un modèle à rétrécissement unique, qui rétrécit les moyennes lorsque l’on suppose que les variances sont connues. Ensuite, nous élargissons ce modèle pour tenir compte du rétrécissement double par l’emprunt d’information dans les moyennes et les variances. Ce modèle élargi comporte deux sources de variation supplémentaire; toutefois, comme nous rétrécissons à la fois les moyennes et les variances, ce second modèle devrait avoir un meilleur rendement sur le plan de la qualité de l’ajustement (fiabilité) et, possiblement, sur le plan de la précision. Les calculs sont difficiles pour les deux modèles, qui sont appliqués à des ensembles de données simulées dont les propriétés ressemblent à celles des cultures de maïs de l’Illinois.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200005
    Description : Le sous-dénombrement de la population est un des principaux obstacles avec lesquels il faut composer lors de l’analyse statistique d’échantillons d’enquête non probabilistes. Nous considérons dans le présent article deux scénarios types de sous-dénombrement, à savoir le sous-dénombrement stochastique et le sous-dénombrement déterministe. Nous soutenons que l’on peut appliquer directement les méthodes d’estimation existantes selon l’hypothèse de positivité sur les scores de propension (c’est-à-dire les probabilités de participation) pour traiter le scénario de sous-dénombrement stochastique. Nous étudions des stratégies visant à atténuer les biais lors de l’estimation de la moyenne de la population cible selon le sous-dénombrement déterministe. Plus précisément, nous examinons une méthode de population fractionnée (split-population method) fondée sur une formulation d’enveloppe convexe et nous construisons des estimateurs menant à des biais réduits. Un estimateur doublement robuste peut être construit si un sous-échantillon de suivi de l’enquête probabiliste de référence comportant des mesures sur la variable étudiée devient réalisable. Le rendement de six estimateurs concurrents est examiné au moyen d’une étude par simulations, et des questions nécessitant un examen plus approfondi sont brièvement abordées.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200006
    Description : Les spécialistes de la recherche sur les enquêtes se tournent de plus en plus vers la collecte multimodale de données pour composer avec la baisse des taux de réponse aux enquêtes et l’augmentation des coûts. Une approche efficace propose des modes de collecte moins coûteux (par exemple sur le Web) suivis d’un mode plus coûteux pour un sous-échantillon des unités (par exemple les ménages) dans chaque unité primaire d’échantillonnage (UPE). Nous présentons deux solutions de rechange à cette conception classique. La première consiste à sous-échantillonner les UPE plutôt que les unités pour limiter les coûts. La seconde est un plan hybride qui comprend un échantillon (à deux degrés) par grappes et un échantillon indépendant sans mise en grappes. À l’aide d’une simulation, nous démontrons que le plan hybride comporte des avantages considérables.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200007
    Description : La prédiction conforme est une méthode allégée en hypothèses servant à générer des intervalles ou des ensembles de prédiction sans distribution, pour des modèles prédictifs presque arbitraires, avec une couverture d’échantillon fini garantie. Les méthodes conformes sont un sujet de recherche dynamique en statistique et en apprentissage automatique, mais ce n’est que récemment qu’elles ont été étendues aux données non échangeables. Dans le présent article, nous invitons les méthodologistes d’enquête à commencer à utiliser des méthodes conformes et à y contribuer. Nous introduisons la façon dont la prédiction conforme peut être appliquée à des données provenant de plusieurs plans de sondage complexes courants dans un cadre d’inférence fondée sur le plan pour une population finie, et nous faisons ressortir des lacunes où les méthodologistes d’enquête pourraient appliquer leur expertise de façon fructueuse. Nos simulations confirment empiriquement les garanties théoriques de la couverture d’échantillon fini, et notre exemple de données réelles démontre la façon dont la prédiction conforme peut être appliquée aux données d’enquêtes-échantillons complexes.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200008
    Description : Dans cet article, nous utilisons une version légèrement simplifiée de la méthode de Fickus, Mixon et Poteet (2013) pour définir une paramétrisation maniable des noyaux des plans de sondages déterminantaux à probabilités d’inclusion simple fixées. Pour des valeurs spécifiques du paramètre multidimensionnel, nous retrouvons une matrice de la famille PII de Loonis et Mary (2019). Nous conjecturons que, parmi les plans déterminantaux à probabilités d’inclusion fixées la variance minimale de l’estimateur d’Horvitz et Thompson (1952) d’une variable d’intérêt, s’exprime en fonction de PII. Nous mettons à disposition des programmes R expérimentaux facilitant l’appropriation de différentes notions présentées dans l’article, et dont certaines sont qualifiées de non-triviales par Fickus et coll. (2013). Une version longue de cet article, contenant les démonstrations et une présentation plus détaillée des plans déterminantaux, est également mise à disposition.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200009
    Description : Dans le présent article, nous examinons la façon dont une grande base de données non probabiliste peut servir à améliorer des estimations de totaux de population finie d’un petit échantillon probabiliste grâce aux techniques d’intégration de données. Dans le cas où la variable d’intérêt est observée dans les deux sources de données, Kim et Tam (2021) ont proposé deux estimateurs convergents par rapport au plan de sondage qui peuvent être justifiés par la théorie des enquêtes à double base de sondage. D’abord, nous posons des conditions garantissant que les estimateurs en question seront plus efficaces que l’estimateur de Horvitz-Thompson lorsque l’échantillon probabiliste est sélectionné par échantillonnage de Poisson ou par échantillonnage aléatoire simple sans remise. Ensuite, nous étudions la famille des prédicteurs QR proposée par Särndal et Wright (1984) pour le cas moins courant où la base de données non probabiliste ne contient pas la variable d’intérêt, mais des variables auxiliaires. Une autre exigence est que la base non probabiliste soit vaste et puisse être couplée avec l’échantillon probabiliste. Les conditions que nous posons font que le prédicteur QR est asymptotiquement sans biais par rapport au plan de sondage. Nous calculons sa variance asymptotique sous le plan de sondage et présentons un estimateur de variance convergent par rapport au plan de sondage. Nous comparons les propriétés par rapport au plan de sondage de différents prédicteurs de la famille des prédicteurs QR dans une étude par simulation. La famille comprend un prédicteur fondé sur un modèle, un estimateur assisté par un modèle et un estimateur cosmétique. Dans nos scénarios de simulation, l’estimateur cosmétique a donné des résultats légèrement supérieurs à ceux de l’estimateur assisté par un modèle. Nos constatations sont confirmées par une application aux données de La Poste, laquelle illustre par ailleurs que les propriétés de l’estimateur cosmétique sont conservées indépendamment de l’échantillon non probabiliste observé.
    Date de diffusion : 2024-01-03
Stats en bref (0)

Stats en bref (0) (0 résultat)

Aucun contenu disponible actuellement

Articles et rapports (883)

Articles et rapports (883) (0 à 10 de 883 résultats)

  • Articles et rapports : 12-001-X202300200001
    Description : Lorsqu’un fournisseur de soins de santé de Medicare est soupçonné de fraude liée à la facturation, on isole une population de paiements X versés à ce fournisseur sur une certaine période. Un examinateur médical agréé peut, dans un long processus, établir le trop-payé Y = X - (montant justifié par la preuve) pour chaque paiement. En temps normal, il y aura trop de paiements dans une population pour que chacun soit examiné avec soin, aussi prélève-t-on un échantillon probabiliste. Les trop-payés de cet échantillon servent alors à calculer une borne inférieure de l’intervalle de confiance de 90 % pour le trop-payé total de cette population. La borne correspond au montant exigé en recouvrement auprès du fournisseur. Malheureusement, les méthodes classiques de calcul de cette borne ne permettent parfois pas de dégager le niveau de confiance de 90 %, plus particulièrement lorsqu’on utilise un échantillon stratifié.

    Dans le présent document, nous présentons et décrivons 166 échantillons épurés tirés des enquêtes au sujet de l’intégrité de Medicare qui comportent 156 populations de paiements correspondantes. Les 7 588 paires échantillonnées (Y, X) indiquent 1) que les vérifications réalisées au sein de Medicare affichent des taux d’erreur élevés : plus de 76 % des paiements en question sont considérés comme étant des erreurs. Elles indiquent aussi 2) que les configurations de ces échantillons vont dans le sens d’un modèle de mélange « tout ou rien » pour (Y, X) qui est déjà défini dans les études spécialisées. Nous analysons des procédures de test de Monte Carlo fondées sur un modèle pour les plans de sondage de Medicare, ainsi que des méthodes de stratification fondées sur les moments anticipés du modèle. Pour la viabilité (atteinte d’un niveau de confiance de 90 %), nous définissons dans le présent article une nouvelle méthode de stratification qui rivalise avec les meilleures parmi de nombreuses méthodes existantes et qui semble moins sensible au choix de paramètres d’exploitation. Pour ce qui est du recouvrement des trop-payés (ce qui équivaut à une mesure de la précision), la nouvelle méthode se compare aussi aux meilleures parmi les nombreuses méthodes expérimentées. Malheureusement, aucun algorithme de stratification mis à l’essai ne s’est révélé viable pour plus de la moitié environ des 104 populations visées par l’essai.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200002
    Description : Il est essentiel de pouvoir quantifier l’exactitude (biais, variance) des résultats publiés dans les statistiques officielles. Dans ces dernières, les résultats sont presque toujours divisés en sous-populations selon une variable de classification, comme le revenu moyen par catégorie de niveau de scolarité. Ces résultats sont également appelés « statistiques de domaine ». Dans le présent article, nous nous limitons aux variables de classification binaire. En pratique, des erreurs de classification se produisent et contribuent au biais et à la variance des statistiques de domaine. Les méthodes analytiques et numériques servant actuellement à estimer cet effet présentent deux inconvénients. Le premier inconvénient est qu’elles exigent que les probabilités de classification erronée soient connues au préalable et le deuxième est que les estimations du biais et de la variance sont elles-mêmes biaisées. Dans le présent article, nous présentons une nouvelle méthode, un modèle de mélange gaussien estimé par un algorithme espérance-maximisation (EM) combiné à un bootstrap, appelé « méthode bootstrap EM ». Cette nouvelle méthode n’exige pas que les probabilités de classification erronée soient connues au préalable, bien qu’elle soit plus efficace quand on utilise un petit échantillon de vérification qui donne une valeur de départ pour les probabilités de classification erronée dans l’algorithme EM. Nous avons comparé le rendement de la nouvelle méthode et celui des méthodes numériques actuellement disponibles, à savoir la méthode bootstrap et la méthode SIMEX. Des études antérieures ont démontré que pour les paramètres non linéaires, le bootstrap donne de meilleurs résultats que les expressions analytiques. Pour presque toutes les conditions mises à l’essai, les estimations du biais et de la variance obtenues par la méthode bootstrap EM sont plus proches de leurs vraies valeurs que celles obtenues par les méthodes bootstrap et SIMEX. Nous terminons l’article par une discussion sur les résultats et d’éventuels prolongements de la méthode.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200003
    Description : Nous étudions la prédiction sur petits domaines des paramètres généraux à partir de deux modèles pour les dénombrements au niveau de l’unité. Nous construisons des prédicteurs de paramètres, comme les quartiles, qui peuvent être des fonctions non linéaires de la variable réponse du modèle. Nous élaborons d’abord une procédure pour construire les meilleurs prédicteurs empiriques et les estimateurs de l’erreur quadratique moyenne des paramètres généraux dans un modèle Gamma-Poisson au niveau de l’unité. Nous utilisons ensuite un algorithme de rééchantillonnage préférentiel pour élaborer des prédicteurs pour un modèle linéaire mixte généralisé (MLMG) avec une distribution de la réponse de Poisson. Nous comparons les deux modèles au moyen d’une simulation et d’une analyse des données de l’Iowa Seat-Belt Use Survey (une enquête sur l’utilisation de la ceinture de sécurité dans l’État de l’Iowa).
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200004
    Description : Nous présentons une nouvelle méthodologie pour réconcilier des estimations des totaux des superficies cultivées au niveau du comté à un total prédéfini au niveau de l’État soumis à des contraintes d’inégalité et à des variances aléatoires dans le modèle de Fay-Herriot. Pour la superficie ensemencée du National Agricultural Statistics Service (NASS), un organisme du ministère de l’Agriculture des États-Unis (USDA), il est nécessaire d’intégrer la contrainte selon laquelle les totaux estimés, dérivés de données d’enquête et d’autres données auxiliaires, ne sont pas inférieurs aux totaux administratifs de la superficie ensemencée préenregistrés par d’autres organismes du USDA, à l’exception de NASS. Ces totaux administratifs sont considérés comme fixes et connus, et cette exigence de cohérence supplémentaire ajoute à la complexité de la réconciliation des estimations au niveau du comté. Une analyse entièrement bayésienne du modèle de Fay-Herriot offre un moyen intéressant d’intégrer les contraintes d’inégalité et de réconciliation et de quantifier les incertitudes qui en résultent, mais l’échantillonnage à partir des densités a posteriori comprend une intégration difficile; des approximations raisonnables doivent être faites. Tout d’abord, nous décrivons un modèle à rétrécissement unique, qui rétrécit les moyennes lorsque l’on suppose que les variances sont connues. Ensuite, nous élargissons ce modèle pour tenir compte du rétrécissement double par l’emprunt d’information dans les moyennes et les variances. Ce modèle élargi comporte deux sources de variation supplémentaire; toutefois, comme nous rétrécissons à la fois les moyennes et les variances, ce second modèle devrait avoir un meilleur rendement sur le plan de la qualité de l’ajustement (fiabilité) et, possiblement, sur le plan de la précision. Les calculs sont difficiles pour les deux modèles, qui sont appliqués à des ensembles de données simulées dont les propriétés ressemblent à celles des cultures de maïs de l’Illinois.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200005
    Description : Le sous-dénombrement de la population est un des principaux obstacles avec lesquels il faut composer lors de l’analyse statistique d’échantillons d’enquête non probabilistes. Nous considérons dans le présent article deux scénarios types de sous-dénombrement, à savoir le sous-dénombrement stochastique et le sous-dénombrement déterministe. Nous soutenons que l’on peut appliquer directement les méthodes d’estimation existantes selon l’hypothèse de positivité sur les scores de propension (c’est-à-dire les probabilités de participation) pour traiter le scénario de sous-dénombrement stochastique. Nous étudions des stratégies visant à atténuer les biais lors de l’estimation de la moyenne de la population cible selon le sous-dénombrement déterministe. Plus précisément, nous examinons une méthode de population fractionnée (split-population method) fondée sur une formulation d’enveloppe convexe et nous construisons des estimateurs menant à des biais réduits. Un estimateur doublement robuste peut être construit si un sous-échantillon de suivi de l’enquête probabiliste de référence comportant des mesures sur la variable étudiée devient réalisable. Le rendement de six estimateurs concurrents est examiné au moyen d’une étude par simulations, et des questions nécessitant un examen plus approfondi sont brièvement abordées.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200006
    Description : Les spécialistes de la recherche sur les enquêtes se tournent de plus en plus vers la collecte multimodale de données pour composer avec la baisse des taux de réponse aux enquêtes et l’augmentation des coûts. Une approche efficace propose des modes de collecte moins coûteux (par exemple sur le Web) suivis d’un mode plus coûteux pour un sous-échantillon des unités (par exemple les ménages) dans chaque unité primaire d’échantillonnage (UPE). Nous présentons deux solutions de rechange à cette conception classique. La première consiste à sous-échantillonner les UPE plutôt que les unités pour limiter les coûts. La seconde est un plan hybride qui comprend un échantillon (à deux degrés) par grappes et un échantillon indépendant sans mise en grappes. À l’aide d’une simulation, nous démontrons que le plan hybride comporte des avantages considérables.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200007
    Description : La prédiction conforme est une méthode allégée en hypothèses servant à générer des intervalles ou des ensembles de prédiction sans distribution, pour des modèles prédictifs presque arbitraires, avec une couverture d’échantillon fini garantie. Les méthodes conformes sont un sujet de recherche dynamique en statistique et en apprentissage automatique, mais ce n’est que récemment qu’elles ont été étendues aux données non échangeables. Dans le présent article, nous invitons les méthodologistes d’enquête à commencer à utiliser des méthodes conformes et à y contribuer. Nous introduisons la façon dont la prédiction conforme peut être appliquée à des données provenant de plusieurs plans de sondage complexes courants dans un cadre d’inférence fondée sur le plan pour une population finie, et nous faisons ressortir des lacunes où les méthodologistes d’enquête pourraient appliquer leur expertise de façon fructueuse. Nos simulations confirment empiriquement les garanties théoriques de la couverture d’échantillon fini, et notre exemple de données réelles démontre la façon dont la prédiction conforme peut être appliquée aux données d’enquêtes-échantillons complexes.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200008
    Description : Dans cet article, nous utilisons une version légèrement simplifiée de la méthode de Fickus, Mixon et Poteet (2013) pour définir une paramétrisation maniable des noyaux des plans de sondages déterminantaux à probabilités d’inclusion simple fixées. Pour des valeurs spécifiques du paramètre multidimensionnel, nous retrouvons une matrice de la famille PII de Loonis et Mary (2019). Nous conjecturons que, parmi les plans déterminantaux à probabilités d’inclusion fixées la variance minimale de l’estimateur d’Horvitz et Thompson (1952) d’une variable d’intérêt, s’exprime en fonction de PII. Nous mettons à disposition des programmes R expérimentaux facilitant l’appropriation de différentes notions présentées dans l’article, et dont certaines sont qualifiées de non-triviales par Fickus et coll. (2013). Une version longue de cet article, contenant les démonstrations et une présentation plus détaillée des plans déterminantaux, est également mise à disposition.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200009
    Description : Dans le présent article, nous examinons la façon dont une grande base de données non probabiliste peut servir à améliorer des estimations de totaux de population finie d’un petit échantillon probabiliste grâce aux techniques d’intégration de données. Dans le cas où la variable d’intérêt est observée dans les deux sources de données, Kim et Tam (2021) ont proposé deux estimateurs convergents par rapport au plan de sondage qui peuvent être justifiés par la théorie des enquêtes à double base de sondage. D’abord, nous posons des conditions garantissant que les estimateurs en question seront plus efficaces que l’estimateur de Horvitz-Thompson lorsque l’échantillon probabiliste est sélectionné par échantillonnage de Poisson ou par échantillonnage aléatoire simple sans remise. Ensuite, nous étudions la famille des prédicteurs QR proposée par Särndal et Wright (1984) pour le cas moins courant où la base de données non probabiliste ne contient pas la variable d’intérêt, mais des variables auxiliaires. Une autre exigence est que la base non probabiliste soit vaste et puisse être couplée avec l’échantillon probabiliste. Les conditions que nous posons font que le prédicteur QR est asymptotiquement sans biais par rapport au plan de sondage. Nous calculons sa variance asymptotique sous le plan de sondage et présentons un estimateur de variance convergent par rapport au plan de sondage. Nous comparons les propriétés par rapport au plan de sondage de différents prédicteurs de la famille des prédicteurs QR dans une étude par simulation. La famille comprend un prédicteur fondé sur un modèle, un estimateur assisté par un modèle et un estimateur cosmétique. Dans nos scénarios de simulation, l’estimateur cosmétique a donné des résultats légèrement supérieurs à ceux de l’estimateur assisté par un modèle. Nos constatations sont confirmées par une application aux données de La Poste, laquelle illustre par ailleurs que les propriétés de l’estimateur cosmétique sont conservées indépendamment de l’échantillon non probabiliste observé.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200010
    Description : Les méthodes de coordination d’échantillons visent à augmenter (dans une coordination positive) ou à diminuer (dans une coordination négative) la taille du chevauchement entre les échantillons. Les échantillons pris en compte peuvent être tirés à différentes périodes d’une enquête répétée ou de différentes enquêtes portant sur une population commune. La coordination négative est utilisée pour contrôler le fardeau de réponse au cours d’une période donnée, car certaines unités ne répondent pas aux questionnaires d’enquête si elles sont sélectionnées dans de nombreux échantillons. Habituellement, les méthodes de coordination d’échantillons ne tiennent pas compte des mesures du fardeau de réponse qu’une unité a déjà supporté pour répondre à des enquêtes précédentes. Nous ajoutons une telle mesure dans une nouvelle méthode en adaptant un schéma d’échantillonnage spatialement équilibré basé sur une généralisation de l’échantillonnage de Poisson, de concert avec une méthode de coordination négative. Le but est de créer un double contrôle du fardeau pour ces unités : en utilisant une mesure du fardeau pendant le processus d’échantillonnage et en utilisant une méthode de coordination négative. Nous évaluons l’approche au moyen d’une simulation de Monte Carlo et examinons son utilisation aux fins de contrôle pour la sélection de « points chauds » dans les enquêtes-entreprises à Statistique Pays-Bas.
    Date de diffusion : 2024-01-03
Revues et périodiques (4)

Revues et périodiques (4) ((4 résultats))

  • Revues et périodiques : 12-001-X
    Géographie : Canada
    Description : La revue publie des articles sur les divers aspects des méthodes statistiques qui intéressent un organisme statistique comme, par exemple, les problèmes de conception découlant de contraintes d'ordre pratique, l'utilisation de différentes sources de données et de méthodes de collecte, les erreurs dans les enquêtes, l'évaluation des enquêtes, la recherche sur les méthodes d'enquêtes, l'analyse des séries chronologiques, la désaisonnalisation, les études démographiques, l'intégration des données statistiques, les méthodes d'estimation et d'analyse de données et le développement de systèmes généralisés. Une importance particulière est accordée à l'élaboration et à l'évaluation de méthodes qui ont été utilisées pour la collecte de données ou appliquées à des données réelles.
    Date de diffusion : 2024-01-03

  • Revues et périodiques : 11-008-X
    Géographie : Canada
    Description :

    Cette publication expose les changements économiques, sociaux et démographiques qui touchent la vie des Canadiens.

    Gratuit - Fichiers PDF et HTML téléchargeables : publiés toutes les six semaines Version imprimée: publiée tous les six mois (deux fois par année)

    Date de diffusion : 2012-07-30

  • Revues et périodiques : 11-010-X
    Géographie : Canada
    Description :

    Ce mensuel constitue la publication vedette de Statistique Canada en matière de statistiques économiques. Chaque numéro comprend un sommaire de la conjoncture, les principaux événements économiques et une étude distincte. Un aperçu statistique présente également un large éventail de tableaux et de graphiques comportant les principales séries chronologiques de l'économie du Canada, des provinces et des grands pays industrialisés. On peut consulter un répertoire historique de ces mêmes données dans l'Observateur économique canadien : supplément statistique historique, publication n° 11-210-XPB et XIB au catalogue.

    Date de diffusion : 2012-06-15

  • Revues et périodiques : 87-003-X
    Géographie : Canada
    Description :

    Info-voyages est un bulletin trimestriel d'information qui analyse les tendances des voyages internationaux, les comptes de voyages internationaux et l'indice des prix des voyages. De plus, on y présente les plus récents indicateurs du tourisme et des articles de fond relatifs au tourisme.

    Date de diffusion : 2005-01-26
Date de modification :