Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (66)

Tout (66) (0 à 10 de 66 résultats)

  • Articles et rapports : 12-001-X202300200009
    Description : Dans le présent article, nous examinons la façon dont une grande base de données non probabiliste peut servir à améliorer des estimations de totaux de population finie d’un petit échantillon probabiliste grâce aux techniques d’intégration de données. Dans le cas où la variable d’intérêt est observée dans les deux sources de données, Kim et Tam (2021) ont proposé deux estimateurs convergents par rapport au plan de sondage qui peuvent être justifiés par la théorie des enquêtes à double base de sondage. D’abord, nous posons des conditions garantissant que les estimateurs en question seront plus efficaces que l’estimateur de Horvitz-Thompson lorsque l’échantillon probabiliste est sélectionné par échantillonnage de Poisson ou par échantillonnage aléatoire simple sans remise. Ensuite, nous étudions la famille des prédicteurs QR proposée par Särndal et Wright (1984) pour le cas moins courant où la base de données non probabiliste ne contient pas la variable d’intérêt, mais des variables auxiliaires. Une autre exigence est que la base non probabiliste soit vaste et puisse être couplée avec l’échantillon probabiliste. Les conditions que nous posons font que le prédicteur QR est asymptotiquement sans biais par rapport au plan de sondage. Nous calculons sa variance asymptotique sous le plan de sondage et présentons un estimateur de variance convergent par rapport au plan de sondage. Nous comparons les propriétés par rapport au plan de sondage de différents prédicteurs de la famille des prédicteurs QR dans une étude par simulation. La famille comprend un prédicteur fondé sur un modèle, un estimateur assisté par un modèle et un estimateur cosmétique. Dans nos scénarios de simulation, l’estimateur cosmétique a donné des résultats légèrement supérieurs à ceux de l’estimateur assisté par un modèle. Nos constatations sont confirmées par une application aux données de La Poste, laquelle illustre par ailleurs que les propriétés de l’estimateur cosmétique sont conservées indépendamment de l’échantillon non probabiliste observé.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200013
    Description : Jean-Claude Deville compte parmi les plus éminents chercheurs dans la théorie et la pratique des sondages. Ses travaux sur l’échantillonnage équilibré, l’échantillonnage indirect et le calage en particulier sont reconnus au niveau international et largement utilisés en statistique officielle. Il est également pionnier dans le domaine de l’analyse statistique des données fonctionnelles. Le présent article nous donne l’occasion de reconnaître l’immense travail qu’il a accompli, et de lui rendre hommage. Dans la première partie, nous évoquons brièvement la contribution de Jean-Claude à l’analyse statistique en composantes principales fonctionnelles. Nous détaillons également certaines extensions récentes de ses travaux au croisement des domaines de l’analyse statistique des données fonctionnelles et de la théorie des sondages. Dans la seconde partie, nous présentons une extension de son travail dans le domaine de l’échantillonnage indirect. Ces résultats de recherche sont motivés par des applications concrètes et illustrent l’influence de Jean-Claude sur notre travail de chercheuses.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202100200002
    Description :

    Dans le couplage d’ensembles de données massifs, on a recours aux pochettes pour sélectionner un sous-ensemble gérable de paires d’enregistrements quitte à perdre quelques paires appariées. Cette perte tient une grande place dans l’erreur de couplage globale, parce que les décisions relatives aux pochettes se prennent tôt dans le processus sans qu’on puisse les réviser par la suite. Mesurer le rôle que joue cette perte demeure un grand défi si on considère la nécessité de modéliser toutes les paires dans le produit cartésien des sources, et non seulement celles qui répondent aux critères des pochettes. Malheureusement, les modèles antérieurs d’erreur ne nous aident guère parce qu’ils ne respectent normalement pas cette exigence. Il sera question ici d’un nouveau modèle de mélange fini, qui ne demande ni vérifications manuelles, ni données d’entraînement, ni hypothèse d’indépendance conditionnelle des variables de couplage. Il s’applique dans le cadre d’une procédure de pochettes typique dans le couplage d’un fichier avec un registre ou un recensement exhaustif lorsque ces deux sources sont exemptes d’enregistrements en double.

    Date de diffusion : 2022-01-06

  • Articles et rapports : 12-001-X202100200005
    Description :

    L’estimation de la variance est un problème difficile dans les enquêtes, car plusieurs facteurs non négligeables contribuent à l’erreur d’enquête totale, notamment l’échantillonnage et la non-réponse totale. Initialement conçue pour saisir la variance des statistiques non triviales à partir de données indépendantes et identiquement distribuées, la méthode bootstrap a depuis été adaptée de diverses façons pour tenir compte des éléments ou facteurs propres à l’enquête. Dans l’article, nous examinons l’une de ces variantes, le bootstrap avec remise. Nous considérons les enquêtes auprès des ménages, avec ou sans sous-échantillonnage de personnes. Nous rendons explicites les estimateurs de la variance que le bootstrap avec remise vise à reproduire. Nous expliquons comment le bootstrap peut servir à tenir compte de l’effet de l’échantillonnage, du traitement de la non-réponse et du calage sur l’erreur d’enquête totale. Par souci de clarté, les méthodes proposées sont illustrées au moyen d’un exemple traité en fil rouge. Elles sont évaluées dans le cadre d’une étude par simulations et appliquées au Panel Politique de la Ville (PPV) français. Deux macros SAS pour exécuter les méthodes bootstrap sont également élaborées.

    Date de diffusion : 2022-01-06

  • Articles et rapports : 12-001-X202000200003
    Description :

    Nous combinons pondération et prédiction bayésienne dans une approche unifiée pour l’inférence d’enquête. Les principes généraux de l’analyse bayésienne impliquent que les modèles pour les résultats d’enquête devraient être conditionnés par toutes les variables influant sur les probabilités d’inclusion. Nous intégrons toutes les variables servant à l’ajustement de pondération dans un cadre de régression multiniveau et de poststratification pour obtenir un sous-produit générant des poids basés sur un modèle après lissage. Nous améliorons l’estimation sur petits domaines en traitant les divers problèmes complexes que posent les applications dans la vie réelle pour obtenir une inférence robuste à des niveaux plus fins pour les sous-domaines d’intérêt. Nous examinons les interactions profondes et introduisons des distributions a priori structurées pour le lissage et la stabilisation des estimations. Le calcul se fait par Stan et avec le paquet rstanarm du code source libre R, disponible pour utilisation publique. Nous évaluons les propriétés selon le plan de la procédure bayésienne. Nous recourons à des études en simulation pour illustrer comment la prédiction basée sur un modèle et l’inférence pondérée peuvent donner de meilleurs résultats que la pondération classique. Nous appliquons la méthode à la New York Longitudinal Study of Wellbeing (LSW). La nouvelle approche produit des poids lissés et rend plus efficace une inférence robuste de population finie, plus particulièrement pour des sous-ensembles de la population.

    Date de diffusion : 2020-12-15

  • Articles et rapports : 12-001-X202000200005
    Description :

    Dans les enquêtes, les réponses textuelles à des questions ouvertes ont de l’importance, puisqu’elles permettent aux répondants de livrer plus de renseignements sans contrainte. Dans une classification automatique des réponses à des questions ouvertes en apprentissage supervisé, la précision souvent n’est pas assez grande. Comme autre possibilité, une stratégie de classification semi-automatisée peut être envisagée : les réponses sont classifiées automatiquement dans le groupe facile à classer et classifiées manuellement dans le reste. Nous présentons ici une méthode de classification semi-automatisée des réponses à des questions ouvertes à étiquettes multiples pour les cas où les réponses textuelles peuvent appartenir simultanément à plusieurs classes. La méthode que nous proposons se trouve à combiner de multiples chaînes de classification probabiliste en évitant des coûts de calcul prohibitifs. L’évaluation du rendement sur trois ensembles de données démontre l’efficacité de cette méthode.

    Date de diffusion : 2020-12-15

  • Articles et rapports : 12-001-X202000100004
    Description :

    L’échantillonnage défini par un seuil d’inclusion est appliqué quand il est trop coûteux ou difficile d’obtenir les informations requises pour un sous-ensemble d’unités de la population et que, par conséquent, ces unités sont délibérément exclues de la sélection de l’échantillon. Si les unités exclues sont différentes des unités échantillonnées pour ce qui est des caractéristiques d’intérêt, les estimateurs naïfs peuvent être fortement biaisés. Des estimateurs par calage ont été proposés aux fins de réduction du biais sous le plan. Toutefois, dans les estimations sur petits domaines, ils peuvent être inefficaces y compris en l’absence d’échantillonnage défini par un seuil d’inclusion. Les méthodes d’estimation sur petits domaines fondées sur un modèle peuvent servir à réduire le biais causé par l’échantillonnage défini par un seuil d’inclusion si le modèle supposé se vérifie pour l’ensemble de la population. Parallèlement, pour les petits domaines, ces méthodes fournissent des estimateurs plus efficaces que les méthodes de calage. Étant donné qu’on obtient les propriétés fondées sur un modèle en supposant que le modèle se vérifie, mais qu’aucun modèle n’est exactement vrai, nous analysons ici les propriétés de plan des procédures de calage et des procédures fondées sur un modèle pour l’estimation de caractéristiques sur petits domaines sous échantillonnage défini par un seuil d’inclusion. Nos conclusions confirment que les estimateurs fondés sur un modèle réduisent le biais causé par un échantillonnage défini par un seuil d’inclusion et donnent des résultats significativement meilleurs en matière d’erreur quadratique moyenne du plan.

    Date de diffusion : 2020-06-30

  • Articles et rapports : 12-001-X201900200002
    Description :

    Le National Agricultural Statistics Service (NASS) du United States Department of Agriculture (USDA) est chargé d’estimer les taux moyens de location au comptant au niveau du comté. Par taux de location au comptant, on entend la valeur marchande des terres louées à l’acre contre argent comptant seulement. Les estimations des taux de location au comptant sont utilisées par les agriculteurs, les économistes et les responsables des politiques. Le NASS recueille des données sur les taux de location au comptant au moyen de la Cash Rent Survey. Comme les tailles d’échantillon réalisées au niveau du comté sont souvent trop petites pour permettre des estimateurs directs fiables, des prédicteurs fondés sur des modèles mixtes sont étudiés. Nous spécifions un modèle bivarié pour obtenir des prédicteurs des taux de location au comptant en 2010 pour les terres cultivées non irriguées à l’aide de données provenant de la Cash Rent Survey de 2009 et de variables auxiliaires provenant de sources externes, dont le Recensement de l’agriculture de 2007. Nous utilisons des méthodes bayésiennes pour l’inférence et présentons les résultats pour l’Iowa, le Kansas et le Texas. L’intégration des données de l’enquête de 2009 grâce à un modèle bivarié mène à des prédicteurs dont les erreurs quadratiques moyennes sont plus petites que celles des prédicteurs fondés sur un modèle univarié.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 12-001-X201900200003
    Description :

    Dans divers domaines, il est de plus en plus important de fusionner les sources d’information disponibles pour améliorer les estimations des caractéristiques de la population. En présence de plusieurs échantillons probabilistes indépendants d’une population finie, nous examinons plusieurs solutions d’estimateur combiné du total de la population, basé soit sur une combinaison linéaire d’estimateurs distincts, soit sur une méthode par échantillon combiné. L’estimateur en combinaison linéaire fondé sur des variances estimées est susceptible d’être biaisé, car les estimateurs distincts du total de la population peuvent être fortement corrélés à leurs estimateurs de la variance respectifs. Nous illustrons la possibilité d’utiliser un échantillon combiné pour estimer les variances des estimateurs distincts, ce qui donne des estimateurs de la variance groupés généraux. Ces estimateurs de la variance groupés utilisent tous les renseignements disponibles et peuvent réduire considérablement le biais d’une combinaison linéaire d’estimateurs distincts.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 12-001-X201800254953
    Description :

    La coordination d’échantillons vise à créer une dépendance probabiliste entre la sélection de deux ou plusieurs échantillons tirés d’une même population ou de populations qui chevauchent. La coordination positive augmente le chevauchement espéré des échantillons, tandis que la coordination négative le réduit. Il existe de nombreuses applications de la coordination d’échantillons dont les objectifs varient. Un échantillon spatialement équilibré est un échantillon bien étalé dans un espace donné. Forcer l’étalement des échantillons sélectionnés est une technique générale très efficace de réduction de la variance pour l’estimateur de Horvitz-Thompson. La méthode du pivot local et l’échantillonnage de Poisson spatialement corrélé sont deux plans généraux pour obtenir des échantillons bien étalés. Notre but est d’introduire une coordination basée sur le concept des nombres aléatoires permanents pour ces méthodes d’échantillonnage. L’objectif est de coordonner les échantillons tout en préservant l’équilibre spatial. Les méthodes proposées sont motivées par des exemples empruntés à la foresterie, aux études environnementales et à la statistique officielle.

    Date de diffusion : 2018-12-20
Stats en bref (0)

Stats en bref (0) (0 résultat)

Aucun contenu disponible actuellement

Articles et rapports (66)

Articles et rapports (66) (0 à 10 de 66 résultats)

  • Articles et rapports : 12-001-X202300200009
    Description : Dans le présent article, nous examinons la façon dont une grande base de données non probabiliste peut servir à améliorer des estimations de totaux de population finie d’un petit échantillon probabiliste grâce aux techniques d’intégration de données. Dans le cas où la variable d’intérêt est observée dans les deux sources de données, Kim et Tam (2021) ont proposé deux estimateurs convergents par rapport au plan de sondage qui peuvent être justifiés par la théorie des enquêtes à double base de sondage. D’abord, nous posons des conditions garantissant que les estimateurs en question seront plus efficaces que l’estimateur de Horvitz-Thompson lorsque l’échantillon probabiliste est sélectionné par échantillonnage de Poisson ou par échantillonnage aléatoire simple sans remise. Ensuite, nous étudions la famille des prédicteurs QR proposée par Särndal et Wright (1984) pour le cas moins courant où la base de données non probabiliste ne contient pas la variable d’intérêt, mais des variables auxiliaires. Une autre exigence est que la base non probabiliste soit vaste et puisse être couplée avec l’échantillon probabiliste. Les conditions que nous posons font que le prédicteur QR est asymptotiquement sans biais par rapport au plan de sondage. Nous calculons sa variance asymptotique sous le plan de sondage et présentons un estimateur de variance convergent par rapport au plan de sondage. Nous comparons les propriétés par rapport au plan de sondage de différents prédicteurs de la famille des prédicteurs QR dans une étude par simulation. La famille comprend un prédicteur fondé sur un modèle, un estimateur assisté par un modèle et un estimateur cosmétique. Dans nos scénarios de simulation, l’estimateur cosmétique a donné des résultats légèrement supérieurs à ceux de l’estimateur assisté par un modèle. Nos constatations sont confirmées par une application aux données de La Poste, laquelle illustre par ailleurs que les propriétés de l’estimateur cosmétique sont conservées indépendamment de l’échantillon non probabiliste observé.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200013
    Description : Jean-Claude Deville compte parmi les plus éminents chercheurs dans la théorie et la pratique des sondages. Ses travaux sur l’échantillonnage équilibré, l’échantillonnage indirect et le calage en particulier sont reconnus au niveau international et largement utilisés en statistique officielle. Il est également pionnier dans le domaine de l’analyse statistique des données fonctionnelles. Le présent article nous donne l’occasion de reconnaître l’immense travail qu’il a accompli, et de lui rendre hommage. Dans la première partie, nous évoquons brièvement la contribution de Jean-Claude à l’analyse statistique en composantes principales fonctionnelles. Nous détaillons également certaines extensions récentes de ses travaux au croisement des domaines de l’analyse statistique des données fonctionnelles et de la théorie des sondages. Dans la seconde partie, nous présentons une extension de son travail dans le domaine de l’échantillonnage indirect. Ces résultats de recherche sont motivés par des applications concrètes et illustrent l’influence de Jean-Claude sur notre travail de chercheuses.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202100200002
    Description :

    Dans le couplage d’ensembles de données massifs, on a recours aux pochettes pour sélectionner un sous-ensemble gérable de paires d’enregistrements quitte à perdre quelques paires appariées. Cette perte tient une grande place dans l’erreur de couplage globale, parce que les décisions relatives aux pochettes se prennent tôt dans le processus sans qu’on puisse les réviser par la suite. Mesurer le rôle que joue cette perte demeure un grand défi si on considère la nécessité de modéliser toutes les paires dans le produit cartésien des sources, et non seulement celles qui répondent aux critères des pochettes. Malheureusement, les modèles antérieurs d’erreur ne nous aident guère parce qu’ils ne respectent normalement pas cette exigence. Il sera question ici d’un nouveau modèle de mélange fini, qui ne demande ni vérifications manuelles, ni données d’entraînement, ni hypothèse d’indépendance conditionnelle des variables de couplage. Il s’applique dans le cadre d’une procédure de pochettes typique dans le couplage d’un fichier avec un registre ou un recensement exhaustif lorsque ces deux sources sont exemptes d’enregistrements en double.

    Date de diffusion : 2022-01-06

  • Articles et rapports : 12-001-X202100200005
    Description :

    L’estimation de la variance est un problème difficile dans les enquêtes, car plusieurs facteurs non négligeables contribuent à l’erreur d’enquête totale, notamment l’échantillonnage et la non-réponse totale. Initialement conçue pour saisir la variance des statistiques non triviales à partir de données indépendantes et identiquement distribuées, la méthode bootstrap a depuis été adaptée de diverses façons pour tenir compte des éléments ou facteurs propres à l’enquête. Dans l’article, nous examinons l’une de ces variantes, le bootstrap avec remise. Nous considérons les enquêtes auprès des ménages, avec ou sans sous-échantillonnage de personnes. Nous rendons explicites les estimateurs de la variance que le bootstrap avec remise vise à reproduire. Nous expliquons comment le bootstrap peut servir à tenir compte de l’effet de l’échantillonnage, du traitement de la non-réponse et du calage sur l’erreur d’enquête totale. Par souci de clarté, les méthodes proposées sont illustrées au moyen d’un exemple traité en fil rouge. Elles sont évaluées dans le cadre d’une étude par simulations et appliquées au Panel Politique de la Ville (PPV) français. Deux macros SAS pour exécuter les méthodes bootstrap sont également élaborées.

    Date de diffusion : 2022-01-06

  • Articles et rapports : 12-001-X202000200003
    Description :

    Nous combinons pondération et prédiction bayésienne dans une approche unifiée pour l’inférence d’enquête. Les principes généraux de l’analyse bayésienne impliquent que les modèles pour les résultats d’enquête devraient être conditionnés par toutes les variables influant sur les probabilités d’inclusion. Nous intégrons toutes les variables servant à l’ajustement de pondération dans un cadre de régression multiniveau et de poststratification pour obtenir un sous-produit générant des poids basés sur un modèle après lissage. Nous améliorons l’estimation sur petits domaines en traitant les divers problèmes complexes que posent les applications dans la vie réelle pour obtenir une inférence robuste à des niveaux plus fins pour les sous-domaines d’intérêt. Nous examinons les interactions profondes et introduisons des distributions a priori structurées pour le lissage et la stabilisation des estimations. Le calcul se fait par Stan et avec le paquet rstanarm du code source libre R, disponible pour utilisation publique. Nous évaluons les propriétés selon le plan de la procédure bayésienne. Nous recourons à des études en simulation pour illustrer comment la prédiction basée sur un modèle et l’inférence pondérée peuvent donner de meilleurs résultats que la pondération classique. Nous appliquons la méthode à la New York Longitudinal Study of Wellbeing (LSW). La nouvelle approche produit des poids lissés et rend plus efficace une inférence robuste de population finie, plus particulièrement pour des sous-ensembles de la population.

    Date de diffusion : 2020-12-15

  • Articles et rapports : 12-001-X202000200005
    Description :

    Dans les enquêtes, les réponses textuelles à des questions ouvertes ont de l’importance, puisqu’elles permettent aux répondants de livrer plus de renseignements sans contrainte. Dans une classification automatique des réponses à des questions ouvertes en apprentissage supervisé, la précision souvent n’est pas assez grande. Comme autre possibilité, une stratégie de classification semi-automatisée peut être envisagée : les réponses sont classifiées automatiquement dans le groupe facile à classer et classifiées manuellement dans le reste. Nous présentons ici une méthode de classification semi-automatisée des réponses à des questions ouvertes à étiquettes multiples pour les cas où les réponses textuelles peuvent appartenir simultanément à plusieurs classes. La méthode que nous proposons se trouve à combiner de multiples chaînes de classification probabiliste en évitant des coûts de calcul prohibitifs. L’évaluation du rendement sur trois ensembles de données démontre l’efficacité de cette méthode.

    Date de diffusion : 2020-12-15

  • Articles et rapports : 12-001-X202000100004
    Description :

    L’échantillonnage défini par un seuil d’inclusion est appliqué quand il est trop coûteux ou difficile d’obtenir les informations requises pour un sous-ensemble d’unités de la population et que, par conséquent, ces unités sont délibérément exclues de la sélection de l’échantillon. Si les unités exclues sont différentes des unités échantillonnées pour ce qui est des caractéristiques d’intérêt, les estimateurs naïfs peuvent être fortement biaisés. Des estimateurs par calage ont été proposés aux fins de réduction du biais sous le plan. Toutefois, dans les estimations sur petits domaines, ils peuvent être inefficaces y compris en l’absence d’échantillonnage défini par un seuil d’inclusion. Les méthodes d’estimation sur petits domaines fondées sur un modèle peuvent servir à réduire le biais causé par l’échantillonnage défini par un seuil d’inclusion si le modèle supposé se vérifie pour l’ensemble de la population. Parallèlement, pour les petits domaines, ces méthodes fournissent des estimateurs plus efficaces que les méthodes de calage. Étant donné qu’on obtient les propriétés fondées sur un modèle en supposant que le modèle se vérifie, mais qu’aucun modèle n’est exactement vrai, nous analysons ici les propriétés de plan des procédures de calage et des procédures fondées sur un modèle pour l’estimation de caractéristiques sur petits domaines sous échantillonnage défini par un seuil d’inclusion. Nos conclusions confirment que les estimateurs fondés sur un modèle réduisent le biais causé par un échantillonnage défini par un seuil d’inclusion et donnent des résultats significativement meilleurs en matière d’erreur quadratique moyenne du plan.

    Date de diffusion : 2020-06-30

  • Articles et rapports : 12-001-X201900200002
    Description :

    Le National Agricultural Statistics Service (NASS) du United States Department of Agriculture (USDA) est chargé d’estimer les taux moyens de location au comptant au niveau du comté. Par taux de location au comptant, on entend la valeur marchande des terres louées à l’acre contre argent comptant seulement. Les estimations des taux de location au comptant sont utilisées par les agriculteurs, les économistes et les responsables des politiques. Le NASS recueille des données sur les taux de location au comptant au moyen de la Cash Rent Survey. Comme les tailles d’échantillon réalisées au niveau du comté sont souvent trop petites pour permettre des estimateurs directs fiables, des prédicteurs fondés sur des modèles mixtes sont étudiés. Nous spécifions un modèle bivarié pour obtenir des prédicteurs des taux de location au comptant en 2010 pour les terres cultivées non irriguées à l’aide de données provenant de la Cash Rent Survey de 2009 et de variables auxiliaires provenant de sources externes, dont le Recensement de l’agriculture de 2007. Nous utilisons des méthodes bayésiennes pour l’inférence et présentons les résultats pour l’Iowa, le Kansas et le Texas. L’intégration des données de l’enquête de 2009 grâce à un modèle bivarié mène à des prédicteurs dont les erreurs quadratiques moyennes sont plus petites que celles des prédicteurs fondés sur un modèle univarié.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 12-001-X201900200003
    Description :

    Dans divers domaines, il est de plus en plus important de fusionner les sources d’information disponibles pour améliorer les estimations des caractéristiques de la population. En présence de plusieurs échantillons probabilistes indépendants d’une population finie, nous examinons plusieurs solutions d’estimateur combiné du total de la population, basé soit sur une combinaison linéaire d’estimateurs distincts, soit sur une méthode par échantillon combiné. L’estimateur en combinaison linéaire fondé sur des variances estimées est susceptible d’être biaisé, car les estimateurs distincts du total de la population peuvent être fortement corrélés à leurs estimateurs de la variance respectifs. Nous illustrons la possibilité d’utiliser un échantillon combiné pour estimer les variances des estimateurs distincts, ce qui donne des estimateurs de la variance groupés généraux. Ces estimateurs de la variance groupés utilisent tous les renseignements disponibles et peuvent réduire considérablement le biais d’une combinaison linéaire d’estimateurs distincts.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 12-001-X201800254953
    Description :

    La coordination d’échantillons vise à créer une dépendance probabiliste entre la sélection de deux ou plusieurs échantillons tirés d’une même population ou de populations qui chevauchent. La coordination positive augmente le chevauchement espéré des échantillons, tandis que la coordination négative le réduit. Il existe de nombreuses applications de la coordination d’échantillons dont les objectifs varient. Un échantillon spatialement équilibré est un échantillon bien étalé dans un espace donné. Forcer l’étalement des échantillons sélectionnés est une technique générale très efficace de réduction de la variance pour l’estimateur de Horvitz-Thompson. La méthode du pivot local et l’échantillonnage de Poisson spatialement corrélé sont deux plans généraux pour obtenir des échantillons bien étalés. Notre but est d’introduire une coordination basée sur le concept des nombres aléatoires permanents pour ces méthodes d’échantillonnage. L’objectif est de coordonner les échantillons tout en préservant l’équilibre spatial. Les méthodes proposées sont motivées par des exemples empruntés à la foresterie, aux études environnementales et à la statistique officielle.

    Date de diffusion : 2018-12-20
Revues et périodiques (0)

Revues et périodiques (0) (0 résultat)

Aucun contenu disponible actuellement

Date de modification :