Analyses
Filtrer les résultats par
Aide à la rechercheMot(s)-clé(s)
Année de publication
Auteur(s)
- Sélectionné: Fuller, Wayne A. (14)
- Baker, Harold D. (1)
- Battese, George E. (1)
- Fecso, Ron (1)
- Francisco, Carol A. (1)
- Hasabelnaby, Nancy A. (1)
- Isaki, C.T. (1)
- Kennedy, William J. (1)
- Kim, Jae Kwang (1)
- Loughin, Marie M. (1)
- Osthus, Dave (1)
- Park, Heon Jin (1)
- Park, Mingue (1)
- Qu, Yongming (1)
- Rao, J.N.K. (1)
- Schnell, Dan (1)
- Sullivan, Gary (1)
- Tsay, Julie H. (1)
- Wang, Junyuan (1)
- Wu, Yu Y. (1)
Résultats
Tout (14)
Tout (14) (0 à 10 de 14 résultats)
- 1. Théorie et méthodologie des enquêtes par sondage : orientations passées, présentes et futures ArchivéArticles et rapports : 12-001-X201700254888Description :
L’exposé retrace l’évolution de la théorie et de la méthodologie des enquêtes par sondage au cours des 100 dernières années. Dans un article fondamental publié en 1934, Neyman jetait les bases théoriques de l’approche axée sur l’échantillonnage probabiliste pour l’inférence à partir d’échantillons d’enquête. Les traités d’échantillonnage classiques publiés par Cochran, Deming, Hansen, Hurwitz et Madow, Sukhatme, ainsi que Yates au début des années 1950 étendaient et étoffaient la théorie de l’échantillonnage probabiliste, en mettant l’accent sur l’absence de biais, les caractéristiques exemptes de modèle, ainsi que les plans de sondage qui minimisent la variance selon un coût fixe. De 1960 à 1970, l’attention s’est portée sur les fondements théoriques de l’inférence à partir de données d’enquêtes, contexte dans lequel l’approche dépendante d’un modèle a suscité d’importantes discussions. L’apparition de logiciels statistiques d’usage général a entraîné l’utilisation de ces derniers avec des données d’enquêtes, d’où la conception de méthodes spécialement applicables aux données d’enquêtes complexes. Parallèlement, des méthodes de pondération telles que l’estimation par la régression et le calage devenaient réalisables et la convergence par rapport au plan de sondage a remplacé la contrainte d’absence de biais comme critère pour les estimateurs classiques. Un peu plus tard, les méthodes de rééchantillonnage gourmandes en ressources informatiques sont également devenues applicables à des échantillons d’enquêtes à grande échelle. L’augmentation de la puissance informatique a permis des imputations plus avancées des données manquantes, l’utilisation d’une plus grande quantité de données auxiliaires, le traitement des erreurs de mesure dans l’estimation, et l’application de procédures d’estimation plus complexes. Une utilisation marquante de modèles a eu lieu dans le domaine en expansion de l’estimation sur petits domaines. Les orientations futures de la recherche et des méthodes seront influencées par les budgets, les taux de réponse, le degré d’actualité des données, les outils améliorés de collecte des données et l’existence de données auxiliaires, dont une partie proviendra des « mégadonnées ». L’évolution des comportements culturels et de l’environnement physico-technique aura une incidence sur la façon de réaliser les enquêtes.
Date de diffusion : 2017-12-21 - Articles et rapports : 11-522-X201300014266Description :
L’utilisation de moniteurs et l’autodéclaration sont deux méthodes de mesure de l’énergie dépensée durant l’activité physique, la variance de l’erreur étant habituellement beaucoup plus faible dans le cas des moniteurs que dans celui de l’autodéclaration. La Physical Activity Measurement Survey a été conçue pour comparer les deux procédures en utilisant des observations répétées sur une même personne. Ces observations répétées permettent de calibrer la mesure par autodéclaration sur la mesure par moniteur, ce qui rend possible l’estimation des composantes des variances des erreurs de mesure. Les estimations des composantes de la variance de l’erreur de mesure de la dépense d’énergie selon le moniteur et selon l’autodéclaration sont présentées pour les femmes qui ont participé à la Physical Activity Measurement Survey.
Date de diffusion : 2014-10-31 - Articles et rapports : 11-536-X200900110808Description :
Supposons que de l'information auxiliaire puisse être utilisée pour concevoir une enquête par échantillon. Supposons en outre que la procédure de sélection de l'échantillon consiste à sélectionner un échantillon probabiliste, à rejeter l'échantillon si la moyenne de l'échantillon d'une variable auxiliaire ne se situe pas à une distance précise de la moyenne de la population, et à continuer jusqu'à ce qu'un échantillon soit accepté. Il est prouvé que les propriétés d'un grand échantillon associées à l'estimateur de régression pour l'échantillon axé sur le rejet sont les mêmes que celles de l'estimateur de régression pour la procédure de sélection initiale. De même, l'estimateur habituel de la variance pour l'estimateur de régression est approprié pour l'échantillon axé sur le rejet. Dans une expérience de Monte Carlo, les propriétés d'un grand échantillon se maintiennent dans le cas des échantillons relativement petits. Par ailleurs, les résultats du test de Monte Carlo concordent avec les principes d'approximation théoriques. L'effet d'efficacité de l'échantillonnage axé sur le rejet, tel qu'il est décrit, correspond à o(n-1) par rapport à l'estimation par régression sans rejet, mais l'effet peut s'avérer important pour certains échantillons.
Date de diffusion : 2009-08-11 - Articles et rapports : 12-001-X200800110619Description :
La prédiction sur petits domaines fondée sur des effets aléatoires, appelée (MPLSBE), est une méthode de construction d'estimations pour de petites régions géographiques ou de petites sous populations en utilisant les données d'enquête existantes. Souvent, le total des prédicteurs sur petits domaines est forcé d'être égal à l'estimation par sondage directe et ces prédicteurs sont alors dits calés. Nous passons en revue plusieurs prédicteurs calés et présentons un critère qui unifie leur calcul. Nous dérivons celui qui est l'unique meilleur prédicteur linéaire sans biais sous ce critère et discutons de l'erreur quadratique moyenne des prédicteurs calés. L'imposition de la contrainte comporte implicitement la possibilité que le modèle de petit domaine soit spécifié incorrectement et que les prédicteurs présentent un biais. Nous étudions des modèles augmentés contenant une variable explicative supplémentaire pour lesquels les prédicteurs sur petits domaines ordinaires présentent la propriété d'autocalage. Nous démontrons à l'aide de simulations que les prédicteurs calés ont un biais un peu plus faible que le prédicteur MPLSBE habituel. Cependant, si le biais est une préoccupation, une meilleure approche consiste à utiliser un modèle augmenté contenant une variable auxiliaire supplémentaire qui est fonction de la taille du domaine. Dans les simulations, les prédicteurs fondés sur le modèle augmenté ont une EQM plus petite que MPLSBE quand le modèle incorrect est utilisé pour la prédiction. De surcroît, l'EQM augmente très légèrement comparativement à celle de MPLSBE si la variable auxiliaire est ajoutée au modèle correct.
Date de diffusion : 2008-06-26 - Articles et rapports : 11-522-X200600110417Description :
Les coefficients des équations de régression sont souvent des paramètres d'intérêt dans le cas des enquêtes sur la santé et ces dernières sont habituellement réalisées selon un plan de sondage complexe avec l'utilisation des taux d'échantillonnage différentiels. Nous présentons des estimateurs des coefficients de régression applicables aux enquêtes complexes qui sont supérieurs aux estimateurs à facteur d'extension ordinaires selon le modèle en question, mais retiennent aussi les propriétés souhaitables du plan. Nous présentons les propriétés théoriques et celles qui sont simulées par la méthode Monte Carlo.
Date de diffusion : 2008-03-17 - Articles et rapports : 12-001-X20050029041Description :
L'imputation hot deck est une procédure qui consiste à remplacer les réponses manquantes à certaines questions par des valeurs empruntées à d'autres répondants. L'un des modèles sur lesquels elle s'appuie est celui où l'on suppose que les probabilités de réponse sont égales dans les cellules d'imputation. Nous décrivons une version efficace de l'imputation hot deck pour le modèle de réponse dans les cellules et donnons un estimateur de la variance dont le traitement informatique est efficace. Nous détaillons une approximation de la procédure entièrement efficace dans laquelle un petit nombre de valeurs sont imputées pour chaque non répondant. Nous illustrons les procédures d'estimation de la variance dans une étude de Monte Carlo.
Date de diffusion : 2006-02-17 - Articles et rapports : 12-001-X20050018091Description :
Diverses procédures en vue de construire des vecteurs de poids de régression non négatifs sont considérées. Un vecteur de poids de régression dans lequel les poids initiaux sont les inverses des probabilités de sélection conditionnelles approximatives est présenté. Une étude par simulation permet de comparer les poids obtenus par la régression pondérée, la programmation quadratique, la méthode itérative du quotient, une procédure logit et la méthode du maximum de vraisemblance.
Date de diffusion : 2005-07-21 - Articles et rapports : 12-001-X20000015176Description :
À partir d'une méthode des composantes de variance et d'une structure estimative des erreurs de covariance, on a établi les variables explicatives des facteurs de correction pour le recensement décennal de 1990. On soupçonne que la variabilité de la matrice des covariances estimatives explique certaines anomalies dans l'estimation de régression et les facteurs de correction estimés. Nous avons étudié des méthodes de prédiction alternatives et proposé une façon de faire qui est moins sensible à la variabilité de la matrice des covariances estimatives. La méthode proposée est appliquée à un ensemble de données composé de 336 facteurs de correction à partir de l'enquête postsensitaire de 1990.
Date de diffusion : 2000-08-30 - Articles et rapports : 12-001-X199400114429Description :
Les auteurs appliquent une méthode de production de poids de régression à la Nationwide Food Consumption Survey réalisée en 1987-1988 par le Département de l’agriculture des États-Unis. Ils ont eu recours à l’estimation par régression à cause du taux de non-réponse élevé dans l’enquête. Les poids de régression sont des poids établis par la méthode des moindres carrés généralisés, modifiés de telle manière qu’ils soient tous positifs et que les plus élevés d’entre eux soient plus petits que les poids établis par les moindres carrés. Les auteurs montrent qu’en situation de non-réponse l’estimateur par régression peut avoir une erreur quadratique moyenne beaucoup moins élevée que l’estimateur direct ordinaire.
Date de diffusion : 1994-06-15 - 10. Analyse d’enquêtes à passages répétés ArchivéArticles et rapports : 12-001-X199000214537Description :
Dans cet article, nous nous intéressons principalement aux enquêtes à passages répétés où une partie des unités de l’échantillon est observée sur plusieurs périodes et une partie n’est pas observée à certaines périodes. Nous voyons en quoi consiste l’estimation par les moindres carrés pour de telles enquêtes. Nous nous arrêtons aussi à des méthodes d’estimation en vertu desquelles les estimations existantes n’ont pas à être révisées lorsque de nouvelles données sont connues. Par ailleurs, nous considérons des méthodes pour estimer des paramètres longitudinaux; mentionnons à cet égard les tableaux de variation brute. Nous décrivons aussi la méthode d’estimation utilisée dans une enquête à passages répétés sur l’utilisation du sol, réalisée par le U.S. Soil Conservation Service. Enfin, nous illustrons l’effet de l’erreur de mesure sur les estimations de la variation brute et montrons que les plans de sondage qui permettent d’estimer les paramètres du processus d’erreur de mesure peuvent être très efficients.
Date de diffusion : 1990-12-14
Stats en bref (0)
Stats en bref (0) (0 résultat)
Aucun contenu disponible actuellement
Articles et rapports (14)
Articles et rapports (14) (0 à 10 de 14 résultats)
- 1. Théorie et méthodologie des enquêtes par sondage : orientations passées, présentes et futures ArchivéArticles et rapports : 12-001-X201700254888Description :
L’exposé retrace l’évolution de la théorie et de la méthodologie des enquêtes par sondage au cours des 100 dernières années. Dans un article fondamental publié en 1934, Neyman jetait les bases théoriques de l’approche axée sur l’échantillonnage probabiliste pour l’inférence à partir d’échantillons d’enquête. Les traités d’échantillonnage classiques publiés par Cochran, Deming, Hansen, Hurwitz et Madow, Sukhatme, ainsi que Yates au début des années 1950 étendaient et étoffaient la théorie de l’échantillonnage probabiliste, en mettant l’accent sur l’absence de biais, les caractéristiques exemptes de modèle, ainsi que les plans de sondage qui minimisent la variance selon un coût fixe. De 1960 à 1970, l’attention s’est portée sur les fondements théoriques de l’inférence à partir de données d’enquêtes, contexte dans lequel l’approche dépendante d’un modèle a suscité d’importantes discussions. L’apparition de logiciels statistiques d’usage général a entraîné l’utilisation de ces derniers avec des données d’enquêtes, d’où la conception de méthodes spécialement applicables aux données d’enquêtes complexes. Parallèlement, des méthodes de pondération telles que l’estimation par la régression et le calage devenaient réalisables et la convergence par rapport au plan de sondage a remplacé la contrainte d’absence de biais comme critère pour les estimateurs classiques. Un peu plus tard, les méthodes de rééchantillonnage gourmandes en ressources informatiques sont également devenues applicables à des échantillons d’enquêtes à grande échelle. L’augmentation de la puissance informatique a permis des imputations plus avancées des données manquantes, l’utilisation d’une plus grande quantité de données auxiliaires, le traitement des erreurs de mesure dans l’estimation, et l’application de procédures d’estimation plus complexes. Une utilisation marquante de modèles a eu lieu dans le domaine en expansion de l’estimation sur petits domaines. Les orientations futures de la recherche et des méthodes seront influencées par les budgets, les taux de réponse, le degré d’actualité des données, les outils améliorés de collecte des données et l’existence de données auxiliaires, dont une partie proviendra des « mégadonnées ». L’évolution des comportements culturels et de l’environnement physico-technique aura une incidence sur la façon de réaliser les enquêtes.
Date de diffusion : 2017-12-21 - Articles et rapports : 11-522-X201300014266Description :
L’utilisation de moniteurs et l’autodéclaration sont deux méthodes de mesure de l’énergie dépensée durant l’activité physique, la variance de l’erreur étant habituellement beaucoup plus faible dans le cas des moniteurs que dans celui de l’autodéclaration. La Physical Activity Measurement Survey a été conçue pour comparer les deux procédures en utilisant des observations répétées sur une même personne. Ces observations répétées permettent de calibrer la mesure par autodéclaration sur la mesure par moniteur, ce qui rend possible l’estimation des composantes des variances des erreurs de mesure. Les estimations des composantes de la variance de l’erreur de mesure de la dépense d’énergie selon le moniteur et selon l’autodéclaration sont présentées pour les femmes qui ont participé à la Physical Activity Measurement Survey.
Date de diffusion : 2014-10-31 - Articles et rapports : 11-536-X200900110808Description :
Supposons que de l'information auxiliaire puisse être utilisée pour concevoir une enquête par échantillon. Supposons en outre que la procédure de sélection de l'échantillon consiste à sélectionner un échantillon probabiliste, à rejeter l'échantillon si la moyenne de l'échantillon d'une variable auxiliaire ne se situe pas à une distance précise de la moyenne de la population, et à continuer jusqu'à ce qu'un échantillon soit accepté. Il est prouvé que les propriétés d'un grand échantillon associées à l'estimateur de régression pour l'échantillon axé sur le rejet sont les mêmes que celles de l'estimateur de régression pour la procédure de sélection initiale. De même, l'estimateur habituel de la variance pour l'estimateur de régression est approprié pour l'échantillon axé sur le rejet. Dans une expérience de Monte Carlo, les propriétés d'un grand échantillon se maintiennent dans le cas des échantillons relativement petits. Par ailleurs, les résultats du test de Monte Carlo concordent avec les principes d'approximation théoriques. L'effet d'efficacité de l'échantillonnage axé sur le rejet, tel qu'il est décrit, correspond à o(n-1) par rapport à l'estimation par régression sans rejet, mais l'effet peut s'avérer important pour certains échantillons.
Date de diffusion : 2009-08-11 - Articles et rapports : 12-001-X200800110619Description :
La prédiction sur petits domaines fondée sur des effets aléatoires, appelée (MPLSBE), est une méthode de construction d'estimations pour de petites régions géographiques ou de petites sous populations en utilisant les données d'enquête existantes. Souvent, le total des prédicteurs sur petits domaines est forcé d'être égal à l'estimation par sondage directe et ces prédicteurs sont alors dits calés. Nous passons en revue plusieurs prédicteurs calés et présentons un critère qui unifie leur calcul. Nous dérivons celui qui est l'unique meilleur prédicteur linéaire sans biais sous ce critère et discutons de l'erreur quadratique moyenne des prédicteurs calés. L'imposition de la contrainte comporte implicitement la possibilité que le modèle de petit domaine soit spécifié incorrectement et que les prédicteurs présentent un biais. Nous étudions des modèles augmentés contenant une variable explicative supplémentaire pour lesquels les prédicteurs sur petits domaines ordinaires présentent la propriété d'autocalage. Nous démontrons à l'aide de simulations que les prédicteurs calés ont un biais un peu plus faible que le prédicteur MPLSBE habituel. Cependant, si le biais est une préoccupation, une meilleure approche consiste à utiliser un modèle augmenté contenant une variable auxiliaire supplémentaire qui est fonction de la taille du domaine. Dans les simulations, les prédicteurs fondés sur le modèle augmenté ont une EQM plus petite que MPLSBE quand le modèle incorrect est utilisé pour la prédiction. De surcroît, l'EQM augmente très légèrement comparativement à celle de MPLSBE si la variable auxiliaire est ajoutée au modèle correct.
Date de diffusion : 2008-06-26 - Articles et rapports : 11-522-X200600110417Description :
Les coefficients des équations de régression sont souvent des paramètres d'intérêt dans le cas des enquêtes sur la santé et ces dernières sont habituellement réalisées selon un plan de sondage complexe avec l'utilisation des taux d'échantillonnage différentiels. Nous présentons des estimateurs des coefficients de régression applicables aux enquêtes complexes qui sont supérieurs aux estimateurs à facteur d'extension ordinaires selon le modèle en question, mais retiennent aussi les propriétés souhaitables du plan. Nous présentons les propriétés théoriques et celles qui sont simulées par la méthode Monte Carlo.
Date de diffusion : 2008-03-17 - Articles et rapports : 12-001-X20050029041Description :
L'imputation hot deck est une procédure qui consiste à remplacer les réponses manquantes à certaines questions par des valeurs empruntées à d'autres répondants. L'un des modèles sur lesquels elle s'appuie est celui où l'on suppose que les probabilités de réponse sont égales dans les cellules d'imputation. Nous décrivons une version efficace de l'imputation hot deck pour le modèle de réponse dans les cellules et donnons un estimateur de la variance dont le traitement informatique est efficace. Nous détaillons une approximation de la procédure entièrement efficace dans laquelle un petit nombre de valeurs sont imputées pour chaque non répondant. Nous illustrons les procédures d'estimation de la variance dans une étude de Monte Carlo.
Date de diffusion : 2006-02-17 - Articles et rapports : 12-001-X20050018091Description :
Diverses procédures en vue de construire des vecteurs de poids de régression non négatifs sont considérées. Un vecteur de poids de régression dans lequel les poids initiaux sont les inverses des probabilités de sélection conditionnelles approximatives est présenté. Une étude par simulation permet de comparer les poids obtenus par la régression pondérée, la programmation quadratique, la méthode itérative du quotient, une procédure logit et la méthode du maximum de vraisemblance.
Date de diffusion : 2005-07-21 - Articles et rapports : 12-001-X20000015176Description :
À partir d'une méthode des composantes de variance et d'une structure estimative des erreurs de covariance, on a établi les variables explicatives des facteurs de correction pour le recensement décennal de 1990. On soupçonne que la variabilité de la matrice des covariances estimatives explique certaines anomalies dans l'estimation de régression et les facteurs de correction estimés. Nous avons étudié des méthodes de prédiction alternatives et proposé une façon de faire qui est moins sensible à la variabilité de la matrice des covariances estimatives. La méthode proposée est appliquée à un ensemble de données composé de 336 facteurs de correction à partir de l'enquête postsensitaire de 1990.
Date de diffusion : 2000-08-30 - Articles et rapports : 12-001-X199400114429Description :
Les auteurs appliquent une méthode de production de poids de régression à la Nationwide Food Consumption Survey réalisée en 1987-1988 par le Département de l’agriculture des États-Unis. Ils ont eu recours à l’estimation par régression à cause du taux de non-réponse élevé dans l’enquête. Les poids de régression sont des poids établis par la méthode des moindres carrés généralisés, modifiés de telle manière qu’ils soient tous positifs et que les plus élevés d’entre eux soient plus petits que les poids établis par les moindres carrés. Les auteurs montrent qu’en situation de non-réponse l’estimateur par régression peut avoir une erreur quadratique moyenne beaucoup moins élevée que l’estimateur direct ordinaire.
Date de diffusion : 1994-06-15 - 10. Analyse d’enquêtes à passages répétés ArchivéArticles et rapports : 12-001-X199000214537Description :
Dans cet article, nous nous intéressons principalement aux enquêtes à passages répétés où une partie des unités de l’échantillon est observée sur plusieurs périodes et une partie n’est pas observée à certaines périodes. Nous voyons en quoi consiste l’estimation par les moindres carrés pour de telles enquêtes. Nous nous arrêtons aussi à des méthodes d’estimation en vertu desquelles les estimations existantes n’ont pas à être révisées lorsque de nouvelles données sont connues. Par ailleurs, nous considérons des méthodes pour estimer des paramètres longitudinaux; mentionnons à cet égard les tableaux de variation brute. Nous décrivons aussi la méthode d’estimation utilisée dans une enquête à passages répétés sur l’utilisation du sol, réalisée par le U.S. Soil Conservation Service. Enfin, nous illustrons l’effet de l’erreur de mesure sur les estimations de la variation brute et montrons que les plans de sondage qui permettent d’estimer les paramètres du processus d’erreur de mesure peuvent être très efficients.
Date de diffusion : 1990-12-14
Revues et périodiques (0)
Revues et périodiques (0) (0 résultat)
Aucun contenu disponible actuellement
- Date de modification :