Recherche par mot-clé

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Type

1 facets displayed. 0 facets selected.

Année de publication

1 facets displayed. 1 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (5)

Tout (5) ((5 résultats))

  • Articles et rapports : 12-001-X201800254953
    Description :

    La coordination d’échantillons vise à créer une dépendance probabiliste entre la sélection de deux ou plusieurs échantillons tirés d’une même population ou de populations qui chevauchent. La coordination positive augmente le chevauchement espéré des échantillons, tandis que la coordination négative le réduit. Il existe de nombreuses applications de la coordination d’échantillons dont les objectifs varient. Un échantillon spatialement équilibré est un échantillon bien étalé dans un espace donné. Forcer l’étalement des échantillons sélectionnés est une technique générale très efficace de réduction de la variance pour l’estimateur de Horvitz-Thompson. La méthode du pivot local et l’échantillonnage de Poisson spatialement corrélé sont deux plans généraux pour obtenir des échantillons bien étalés. Notre but est d’introduire une coordination basée sur le concept des nombres aléatoires permanents pour ces méthodes d’échantillonnage. L’objectif est de coordonner les échantillons tout en préservant l’équilibre spatial. Les méthodes proposées sont motivées par des exemples empruntés à la foresterie, aux études environnementales et à la statistique officielle.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 12-001-X201800254954
    Description :

    Ces dernières années, les techniques d’échantillonnage équilibré ont suscité un regain d’intérêt. Ces techniques contraignent les estimateurs d’Horvitz-Thompson des totaux des variables auxiliaires a égaler, du moins approximativement, les totaux vrais correspondants, pour éviter la présence de mauvais échantillons. Plusieurs procédures existent pour exécuter l’échantillonnage équilibré, dont la méthode du cube, élaborée par Deville et Tillé (2004), et l’algorithme réjectif, introduit par Hájek (1964). Après un bref examen de ces méthodes d’échantillonnage, motivé par la planification d’une enquête auprès des pêcheurs sportifs, nous étudions par simulations Monte Carlo les plans de sondage produits par ces deux algorithmes d’échantillonnage.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 12-001-X201800254959
    Description :

    Cet article propose un critère de calcul du paramètre de compromis dans les répartitions dites « mixtes », c’est-à-dire qui mélangent deux répartitions classiques en théorie des sondages. Dans les enquêtes auprès des entreprises de l’Insee (Institut National de la Statistique et des Études Économiques), il est courant d’utiliser la moyenne arithmétique d’une répartition proportionnelle et d’une répartition de Neyman (correspondant à un paramètre de compromis de 0,5). Il est possible d’obtenir une valeur du paramètre de compromis aboutissant à de meilleures propriétés pour les estimateurs. Cette valeur appartient à une région qui est obtenue en résolvant un programme d’optimisation. Différentes méthodes de calcul de ce paramètre seront présentées. Une application sur des enquêtes auprès des entreprises est présentée, avec comparaison avec d’autres répartitions de compromis usuelles.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 12-001-X201800154925
    Description :

    Le présent article traite de l’inférence statistique sous un modèle de superpopulation en population finie quand on utilise des échantillons obtenus par échantillonnage d’ensembles ordonnés (EEO). Les échantillons sont construits sans remise. Nous montrons que la moyenne d’échantillon sous EEO est sans biais par rapport au modèle et présente une plus petite erreur de prédiction quadratique moyenne (EPQM) que la moyenne sous échantillonnage aléatoire simple (EAS). Partant d’un estimateur sans biais de l’EPQM, nous construisons aussi un intervalle de confiance de prédiction pour la moyenne de population. Une étude en simulation à petite échelle montre que cet estimateur est aussi bon qu’un estimateur sur échantillon aléatoire simple (EAS) quand l’information pour le classement est de qualité médiocre. Par ailleurs, cet estimateur est plus efficace que l’estimateur EAS quand la qualité de l’information de classement est bonne et que le ratio des coûts de l’obtention d’une unité sous EEO et sous EAS n’est pas très élevé. L’étude en simulation indique aussi que les probabilités de couverture des intervalles de prédiction sont très proches des probabilités de couverture nominales. La procédure d’inférence proposée est appliquée à un ensemble de données réel.

    Date de diffusion : 2018-06-21

  • Articles et rapports : 12-001-X201800154929
    Description :

    Le U.S. Census Bureau étudie des stratégies de sous-échantillonnage des non-répondants en prévision de l’Economic Census de 2017. Les contraintes imposées au plan de sondage comprennent une borne inférieure obligatoire pour le taux de réponse totale, ainsi que des taux de réponse cibles par industrie. Le présent article expose la recherche sur les procédures de répartition de l’échantillon pour le sous-échantillonnage des non-répondants conditionnellement à ce que ce sous-échantillonnage soit systématique. Nous considérons deux approches, à savoir 1) l’échantillonnage avec probabilités égales et 2) la répartition optimisée avec contraintes sur les taux de réponse totale et la taille d’échantillon, avec pour objectif la sélection de plus grands échantillons dans les industries qui, au départ, affichent des taux de réponse plus faibles. Nous présentons une étude en simulation qui examine le biais relatif et l’erreur quadratique moyenne pour les répartitions proposées, en évaluant la sensibilité de chaque procédure à la taille du sous-échantillon, aux propensions à répondre et à la procédure d’estimation

    Date de diffusion : 2018-06-21
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (5)

Analyses (5) ((5 résultats))

  • Articles et rapports : 12-001-X201800254953
    Description :

    La coordination d’échantillons vise à créer une dépendance probabiliste entre la sélection de deux ou plusieurs échantillons tirés d’une même population ou de populations qui chevauchent. La coordination positive augmente le chevauchement espéré des échantillons, tandis que la coordination négative le réduit. Il existe de nombreuses applications de la coordination d’échantillons dont les objectifs varient. Un échantillon spatialement équilibré est un échantillon bien étalé dans un espace donné. Forcer l’étalement des échantillons sélectionnés est une technique générale très efficace de réduction de la variance pour l’estimateur de Horvitz-Thompson. La méthode du pivot local et l’échantillonnage de Poisson spatialement corrélé sont deux plans généraux pour obtenir des échantillons bien étalés. Notre but est d’introduire une coordination basée sur le concept des nombres aléatoires permanents pour ces méthodes d’échantillonnage. L’objectif est de coordonner les échantillons tout en préservant l’équilibre spatial. Les méthodes proposées sont motivées par des exemples empruntés à la foresterie, aux études environnementales et à la statistique officielle.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 12-001-X201800254954
    Description :

    Ces dernières années, les techniques d’échantillonnage équilibré ont suscité un regain d’intérêt. Ces techniques contraignent les estimateurs d’Horvitz-Thompson des totaux des variables auxiliaires a égaler, du moins approximativement, les totaux vrais correspondants, pour éviter la présence de mauvais échantillons. Plusieurs procédures existent pour exécuter l’échantillonnage équilibré, dont la méthode du cube, élaborée par Deville et Tillé (2004), et l’algorithme réjectif, introduit par Hájek (1964). Après un bref examen de ces méthodes d’échantillonnage, motivé par la planification d’une enquête auprès des pêcheurs sportifs, nous étudions par simulations Monte Carlo les plans de sondage produits par ces deux algorithmes d’échantillonnage.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 12-001-X201800254959
    Description :

    Cet article propose un critère de calcul du paramètre de compromis dans les répartitions dites « mixtes », c’est-à-dire qui mélangent deux répartitions classiques en théorie des sondages. Dans les enquêtes auprès des entreprises de l’Insee (Institut National de la Statistique et des Études Économiques), il est courant d’utiliser la moyenne arithmétique d’une répartition proportionnelle et d’une répartition de Neyman (correspondant à un paramètre de compromis de 0,5). Il est possible d’obtenir une valeur du paramètre de compromis aboutissant à de meilleures propriétés pour les estimateurs. Cette valeur appartient à une région qui est obtenue en résolvant un programme d’optimisation. Différentes méthodes de calcul de ce paramètre seront présentées. Une application sur des enquêtes auprès des entreprises est présentée, avec comparaison avec d’autres répartitions de compromis usuelles.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 12-001-X201800154925
    Description :

    Le présent article traite de l’inférence statistique sous un modèle de superpopulation en population finie quand on utilise des échantillons obtenus par échantillonnage d’ensembles ordonnés (EEO). Les échantillons sont construits sans remise. Nous montrons que la moyenne d’échantillon sous EEO est sans biais par rapport au modèle et présente une plus petite erreur de prédiction quadratique moyenne (EPQM) que la moyenne sous échantillonnage aléatoire simple (EAS). Partant d’un estimateur sans biais de l’EPQM, nous construisons aussi un intervalle de confiance de prédiction pour la moyenne de population. Une étude en simulation à petite échelle montre que cet estimateur est aussi bon qu’un estimateur sur échantillon aléatoire simple (EAS) quand l’information pour le classement est de qualité médiocre. Par ailleurs, cet estimateur est plus efficace que l’estimateur EAS quand la qualité de l’information de classement est bonne et que le ratio des coûts de l’obtention d’une unité sous EEO et sous EAS n’est pas très élevé. L’étude en simulation indique aussi que les probabilités de couverture des intervalles de prédiction sont très proches des probabilités de couverture nominales. La procédure d’inférence proposée est appliquée à un ensemble de données réel.

    Date de diffusion : 2018-06-21

  • Articles et rapports : 12-001-X201800154929
    Description :

    Le U.S. Census Bureau étudie des stratégies de sous-échantillonnage des non-répondants en prévision de l’Economic Census de 2017. Les contraintes imposées au plan de sondage comprennent une borne inférieure obligatoire pour le taux de réponse totale, ainsi que des taux de réponse cibles par industrie. Le présent article expose la recherche sur les procédures de répartition de l’échantillon pour le sous-échantillonnage des non-répondants conditionnellement à ce que ce sous-échantillonnage soit systématique. Nous considérons deux approches, à savoir 1) l’échantillonnage avec probabilités égales et 2) la répartition optimisée avec contraintes sur les taux de réponse totale et la taille d’échantillon, avec pour objectif la sélection de plus grands échantillons dans les industries qui, au départ, affichent des taux de réponse plus faibles. Nous présentons une étude en simulation qui examine le biais relatif et l’erreur quadratique moyenne pour les répartitions proposées, en évaluant la sensibilité de chaque procédure à la taille du sous-échantillon, aux propensions à répondre et à la procédure d’estimation

    Date de diffusion : 2018-06-21
Références (0)

Références (0) (0 résultat)

Aucun contenu disponible actuellement

Date de modification :