Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Année de publication

8 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (8)

Tout (8) ((8 résultats))

  • Articles et rapports : 12-001-X201800154929
    Description :

    Le U.S. Census Bureau étudie des stratégies de sous-échantillonnage des non-répondants en prévision de l’Economic Census de 2017. Les contraintes imposées au plan de sondage comprennent une borne inférieure obligatoire pour le taux de réponse totale, ainsi que des taux de réponse cibles par industrie. Le présent article expose la recherche sur les procédures de répartition de l’échantillon pour le sous-échantillonnage des non-répondants conditionnellement à ce que ce sous-échantillonnage soit systématique. Nous considérons deux approches, à savoir 1) l’échantillonnage avec probabilités égales et 2) la répartition optimisée avec contraintes sur les taux de réponse totale et la taille d’échantillon, avec pour objectif la sélection de plus grands échantillons dans les industries qui, au départ, affichent des taux de réponse plus faibles. Nous présentons une étude en simulation qui examine le biais relatif et l’erreur quadratique moyenne pour les répartitions proposées, en évaluant la sensibilité de chaque procédure à la taille du sous-échantillon, aux propensions à répondre et à la procédure d’estimation

    Date de diffusion : 2018-06-21

  • Articles et rapports : 12-001-X201600214676
    Description :

    Les procédures de winsorisation permettent de remplacer les valeurs extrêmes par des valeurs moins extrêmes, déplaçant en fait les valeurs extrêmes originales vers le centre de la distribution. La winsorisation sert donc à détecter ainsi qu’à traiter les valeurs influentes. Mulry, Oliver et Kaputa (2014) comparent la performance de la méthode de winsorisation unilatérale élaborée par Clark (1995) et décrite par Chambers, Kokic, Smith et Cruddas (2000) avec celle d' estimation M (Beaumont et Alavi 2004) dans le cas de données sur une population d’entreprises fortement asymétrique. Un aspect particulièrement intéressant des méthodes qui servent à détecter et à traiter des valeurs influentes est la plage de valeurs définies comme étant influentes, que l’on appelle « zone de détection ». L’algorithme de winsorisation de Clark est facile à mettre en œuvre et peut s’avérer très efficace. Cependant, la zone de détection qui en résulte dépend considérablement du nombre de valeurs influentes dans l’échantillon, surtout quand on s’attend à ce que les totaux d’enquête varient fortement selon la période de collecte. Dans la présente note, nous examinons l’effet du nombre de valeurs influentes et de leur taille sur les zones de détection produites par la winsorisation de Clark en utilisant des données simulées de manière à représenter raisonnablement les propriétés de la population visée par la Monthly Retail Trade Survey (MRTS) du U.S. Census Bureau. Les estimations provenant de la MRTS et d’autres enquêtes économiques sont utilisées dans le calcul d’indicateurs économiques, comme le produit intérieur brut (PIB).

    Date de diffusion : 2016-12-20

  • Articles et rapports : 12-001-X201300211868
    Description :

    Thompson et Sigman (2000) ont proposé une méthode d'estimation des médianes applicable à des données provenant de populations à forte asymétrie positive. Cette méthode comprend une interpolation sur des intervalles (classes) qui dépendent des données. Ils ont démontré qu'elle possède de bonnes propriétés statistiques pour les médianes calculées d'après un échantillon fortement asymétrique. La présente étude étend les travaux antérieurs aux méthodes d'estimation des déciles pour une population à asymétrie positive en utilisant des données d'enquête complexes. Nous présentons trois méthodes d'interpolation, ainsi que la méthode classique d'estimation des déciles (sans classes) et nous évaluons chaque méthode empiriquement au moyen d'une étude en simulation en utilisant les données sur les logements résidentiels provenant de l'Enquête sur la construction (Survey of Construction). Nous avons constaté qu'une variante de la méthode courante en utilisant le 95e centile comme facteur d'échelle produit les estimations des déciles ayant les meilleures propriétés statistiques.

    Date de diffusion : 2014-01-15

  • Articles et rapports : 12-001-X201000111246
    Description :

    Dans le cas de nombreux sondages, des procédures d'ajustement des poids sont utilisées pour réduire le biais de non-réponse. Ces ajustements s'appuient sur les données auxiliaires disponibles. Le présent article traite de l'estimation de la variance par la méthode du jackknife pour les estimateurs qui ont été corrigés de la non-réponse. En suivant l'approche inversée d'estimation de la variance proposée par Fay (1991), ainsi que par Shao et Steel (1999), nous étudions l'effet dû au fait de ne pas recalculer l'ajustement des poids pour la non-réponse dans chaque réplique jackknife. Nous montrons que l'estimateur de variance jackknife « simplifié » résultant a tendance à surestimer la variance réelle des estimateurs ponctuels dans le cas de plusieurs procédures d'ajustement des poids utilisées en pratique. Ces résultats théoriques sont confirmés au moyen d'une étude par simulation dans laquelle nous comparons l'estimateur de variance jackknife simplifié à l'estimateur de variance jackknife complet obtenu en recalculant l'ajustement des poids pour la non-réponse dans chaque réplique jackknife.

    Date de diffusion : 2010-06-29

  • Articles et rapports : 12-001-X200900211043
    Description :

    Les enquêtes-entreprises sont souvent réalisées selon un plan d'échantillonnage aléatoire simple stratifié à un degré sans remise comportant certaines strates à tirage complet. Bien que l'on recoure habituellement à l'ajustement de la pondération pour traiter la non-réponse totale, la variabilité due à la non-réponse est parfois omise en pratique quand on estime les variances. Cette situation pose surtout problème lorsqu'il existe des strates à tirage complet. Nous élaborons des estimateurs de variance qui sont convergents quand le nombre d'unités échantillonnées est grand dans chaque classe de pondération, en utilisant les méthodes du jackknife, de la linéarisation et du jackknife modifié. Nous commençons par appliquer les estimateurs ainsi obtenus à des données empiriques provenant de l'Annual Capital Expenditures Survey réalisé par le U.S. Census Bureau, puis nous examinons leur performance dans une étude en simulation.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 11-522-X20010016304
    Description :

    Cette publication comporte une description détaillée des questions techniques entourant la conception et la réalisation d'enquêtes et s'adresse surtout à des méthodologistes.

    Cet article porte sur l'évaluation de deux ensembles de procédures de vérification selon le ratio et l'imputation, lesquels sont fondés sur l'utilisation du sous-système de vérification et d'imputation Plain Vanilla du US Census Bureau, à partir des données de l'Economic Census de 1997. Nous comparons, après vérification et imputation, la qualité des macro et des microdonnées produites par les deux ensembles de procédures, et décrivons la manière dont nos méthodes quantitatives nous ont permis de recommander certaines modifications de procédures courantes.

    Date de diffusion : 2002-09-12

  • Articles et rapports : 12-001-X20000025535
    Description :

    Le Bureau of the Census des États-Unis publie des estimations de la médiane pour plusieurs caractéristiques des maisons neuves, une estimation clé étant le prix de vente des maisons vendues. Ces estimations sont calculées à partir de données acquises par voie d'interview des constructeurs de maisons dans le cadre de l'enquête SOC (Survey of Construction). La SOC est une enquête probabiliste à plusieurs degrès dont le plan d'échantillonnage se prête bien à la méthode MHS (répétition modifiée avec demi-échantillon) d'estimation de la variance.

    Date de diffusion : 2001-02-28

  • Articles et rapports : 12-001-X19960022981
    Description :

    Les résultats des études du panel partiel de la Current Population Survey révèlent que l'interview téléphonique assistée par ordinateur centralisée (ITAOC) a un effet sur l'estimation de la population active. Une hypothèse est que l'ITAOC accroît la probabilité que le répondant modifie sa déclaration au sujet de sa situation vis-à-vis de l'activité. Le test de McNemar à double échantillon permet de tester cette hypothèse: celle qui nous intéresse est que les changements marginaux relevés dans les tableaux des deux échantillons indépendants sont égaux. Les auteurs présentent deux variantes du test adaptées aux données d'enquêtes complexes, ainsi que leur application aux données du panel partiel de l'enquête parallèle à la Current Population Survey et à celles du projet d'intégration de l'ITAOC à la Current Population Survey.

    Date de diffusion : 1997-01-30
Stats en bref (0)

Stats en bref (0) (0 résultat)

Aucun contenu disponible actuellement

Articles et rapports (8)

Articles et rapports (8) ((8 résultats))

  • Articles et rapports : 12-001-X201800154929
    Description :

    Le U.S. Census Bureau étudie des stratégies de sous-échantillonnage des non-répondants en prévision de l’Economic Census de 2017. Les contraintes imposées au plan de sondage comprennent une borne inférieure obligatoire pour le taux de réponse totale, ainsi que des taux de réponse cibles par industrie. Le présent article expose la recherche sur les procédures de répartition de l’échantillon pour le sous-échantillonnage des non-répondants conditionnellement à ce que ce sous-échantillonnage soit systématique. Nous considérons deux approches, à savoir 1) l’échantillonnage avec probabilités égales et 2) la répartition optimisée avec contraintes sur les taux de réponse totale et la taille d’échantillon, avec pour objectif la sélection de plus grands échantillons dans les industries qui, au départ, affichent des taux de réponse plus faibles. Nous présentons une étude en simulation qui examine le biais relatif et l’erreur quadratique moyenne pour les répartitions proposées, en évaluant la sensibilité de chaque procédure à la taille du sous-échantillon, aux propensions à répondre et à la procédure d’estimation

    Date de diffusion : 2018-06-21

  • Articles et rapports : 12-001-X201600214676
    Description :

    Les procédures de winsorisation permettent de remplacer les valeurs extrêmes par des valeurs moins extrêmes, déplaçant en fait les valeurs extrêmes originales vers le centre de la distribution. La winsorisation sert donc à détecter ainsi qu’à traiter les valeurs influentes. Mulry, Oliver et Kaputa (2014) comparent la performance de la méthode de winsorisation unilatérale élaborée par Clark (1995) et décrite par Chambers, Kokic, Smith et Cruddas (2000) avec celle d' estimation M (Beaumont et Alavi 2004) dans le cas de données sur une population d’entreprises fortement asymétrique. Un aspect particulièrement intéressant des méthodes qui servent à détecter et à traiter des valeurs influentes est la plage de valeurs définies comme étant influentes, que l’on appelle « zone de détection ». L’algorithme de winsorisation de Clark est facile à mettre en œuvre et peut s’avérer très efficace. Cependant, la zone de détection qui en résulte dépend considérablement du nombre de valeurs influentes dans l’échantillon, surtout quand on s’attend à ce que les totaux d’enquête varient fortement selon la période de collecte. Dans la présente note, nous examinons l’effet du nombre de valeurs influentes et de leur taille sur les zones de détection produites par la winsorisation de Clark en utilisant des données simulées de manière à représenter raisonnablement les propriétés de la population visée par la Monthly Retail Trade Survey (MRTS) du U.S. Census Bureau. Les estimations provenant de la MRTS et d’autres enquêtes économiques sont utilisées dans le calcul d’indicateurs économiques, comme le produit intérieur brut (PIB).

    Date de diffusion : 2016-12-20

  • Articles et rapports : 12-001-X201300211868
    Description :

    Thompson et Sigman (2000) ont proposé une méthode d'estimation des médianes applicable à des données provenant de populations à forte asymétrie positive. Cette méthode comprend une interpolation sur des intervalles (classes) qui dépendent des données. Ils ont démontré qu'elle possède de bonnes propriétés statistiques pour les médianes calculées d'après un échantillon fortement asymétrique. La présente étude étend les travaux antérieurs aux méthodes d'estimation des déciles pour une population à asymétrie positive en utilisant des données d'enquête complexes. Nous présentons trois méthodes d'interpolation, ainsi que la méthode classique d'estimation des déciles (sans classes) et nous évaluons chaque méthode empiriquement au moyen d'une étude en simulation en utilisant les données sur les logements résidentiels provenant de l'Enquête sur la construction (Survey of Construction). Nous avons constaté qu'une variante de la méthode courante en utilisant le 95e centile comme facteur d'échelle produit les estimations des déciles ayant les meilleures propriétés statistiques.

    Date de diffusion : 2014-01-15

  • Articles et rapports : 12-001-X201000111246
    Description :

    Dans le cas de nombreux sondages, des procédures d'ajustement des poids sont utilisées pour réduire le biais de non-réponse. Ces ajustements s'appuient sur les données auxiliaires disponibles. Le présent article traite de l'estimation de la variance par la méthode du jackknife pour les estimateurs qui ont été corrigés de la non-réponse. En suivant l'approche inversée d'estimation de la variance proposée par Fay (1991), ainsi que par Shao et Steel (1999), nous étudions l'effet dû au fait de ne pas recalculer l'ajustement des poids pour la non-réponse dans chaque réplique jackknife. Nous montrons que l'estimateur de variance jackknife « simplifié » résultant a tendance à surestimer la variance réelle des estimateurs ponctuels dans le cas de plusieurs procédures d'ajustement des poids utilisées en pratique. Ces résultats théoriques sont confirmés au moyen d'une étude par simulation dans laquelle nous comparons l'estimateur de variance jackknife simplifié à l'estimateur de variance jackknife complet obtenu en recalculant l'ajustement des poids pour la non-réponse dans chaque réplique jackknife.

    Date de diffusion : 2010-06-29

  • Articles et rapports : 12-001-X200900211043
    Description :

    Les enquêtes-entreprises sont souvent réalisées selon un plan d'échantillonnage aléatoire simple stratifié à un degré sans remise comportant certaines strates à tirage complet. Bien que l'on recoure habituellement à l'ajustement de la pondération pour traiter la non-réponse totale, la variabilité due à la non-réponse est parfois omise en pratique quand on estime les variances. Cette situation pose surtout problème lorsqu'il existe des strates à tirage complet. Nous élaborons des estimateurs de variance qui sont convergents quand le nombre d'unités échantillonnées est grand dans chaque classe de pondération, en utilisant les méthodes du jackknife, de la linéarisation et du jackknife modifié. Nous commençons par appliquer les estimateurs ainsi obtenus à des données empiriques provenant de l'Annual Capital Expenditures Survey réalisé par le U.S. Census Bureau, puis nous examinons leur performance dans une étude en simulation.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 11-522-X20010016304
    Description :

    Cette publication comporte une description détaillée des questions techniques entourant la conception et la réalisation d'enquêtes et s'adresse surtout à des méthodologistes.

    Cet article porte sur l'évaluation de deux ensembles de procédures de vérification selon le ratio et l'imputation, lesquels sont fondés sur l'utilisation du sous-système de vérification et d'imputation Plain Vanilla du US Census Bureau, à partir des données de l'Economic Census de 1997. Nous comparons, après vérification et imputation, la qualité des macro et des microdonnées produites par les deux ensembles de procédures, et décrivons la manière dont nos méthodes quantitatives nous ont permis de recommander certaines modifications de procédures courantes.

    Date de diffusion : 2002-09-12

  • Articles et rapports : 12-001-X20000025535
    Description :

    Le Bureau of the Census des États-Unis publie des estimations de la médiane pour plusieurs caractéristiques des maisons neuves, une estimation clé étant le prix de vente des maisons vendues. Ces estimations sont calculées à partir de données acquises par voie d'interview des constructeurs de maisons dans le cadre de l'enquête SOC (Survey of Construction). La SOC est une enquête probabiliste à plusieurs degrès dont le plan d'échantillonnage se prête bien à la méthode MHS (répétition modifiée avec demi-échantillon) d'estimation de la variance.

    Date de diffusion : 2001-02-28

  • Articles et rapports : 12-001-X19960022981
    Description :

    Les résultats des études du panel partiel de la Current Population Survey révèlent que l'interview téléphonique assistée par ordinateur centralisée (ITAOC) a un effet sur l'estimation de la population active. Une hypothèse est que l'ITAOC accroît la probabilité que le répondant modifie sa déclaration au sujet de sa situation vis-à-vis de l'activité. Le test de McNemar à double échantillon permet de tester cette hypothèse: celle qui nous intéresse est que les changements marginaux relevés dans les tableaux des deux échantillons indépendants sont égaux. Les auteurs présentent deux variantes du test adaptées aux données d'enquêtes complexes, ainsi que leur application aux données du panel partiel de l'enquête parallèle à la Current Population Survey et à celles du projet d'intégration de l'ITAOC à la Current Population Survey.

    Date de diffusion : 1997-01-30
Revues et périodiques (0)

Revues et périodiques (0) (0 résultat)

Aucun contenu disponible actuellement

Date de modification :