Aide à l'ordre
entrées

Résultats

Tout (16)

Tout (16) (0 à 10 de 16 résultats)

  • Articles et rapports : 12-001-X202100200003
    Description :

    La pondération par calage est un moyen statistiquement efficace de traiter la non-réponse totale. En supposant que le modèle (ou la sortie) de la réponse justifiant l’ajustement du poids de calage est exact, il est souvent possible de mesurer la variance des estimations de façon asymptotique et sans biais. Une des manières d’estimer la variance consiste à créer des poids de rééchantillonnage jackknife. Cependant, il arrive que la méthode classique de calcul des poids de rééchantillonnage jackknife pour les poids d’analyse calés échoue. Dans ce cas, il existe généralement une autre méthode de calcul des poids de rééchantillonnage jackknife. Cette méthode est décrite ici et appliquée à un exemple simple.

    Date de diffusion : 2022-01-06

  • Articles et rapports : 12-001-X201900200007
    Description :

    Quand on ajuste une variable catégorique ordonnée à L > 2 niveaux à un ensemble de covariables sur données d’enquêtes à plans complexes, on suppose communément que les éléments de la population suivent un modèle simple de régression logistique cumulative (modèle de régression logistique à cotes proportionnelles). Cela signifie que la probabilité que la variable catégorique se situe à un certain niveau ou au-dessous est une fonction logistique binaire des covariables du modèle. Ajoutons, sauf pour l’ordonnée à l’origine, les valeurs des paramètres de régression logistique sont les mêmes à chaque niveau. La méthode « fondée sur le plan » classique servant à ajuster le modèle à cotes proportionnelles est fondée sur le pseudo-maximum de vraisemblance. Nous comparons les estimations calculées par cette méthode à celles d’un traitement dans un cadre basé sur un modèle robuste sensible au plan. Nous indiquons par un simple exemple numérique en quoi les estimations tirées de ces deux traitements peuvent différer. La nouvelle méthode peut facilement s’élargir pour ajuster un modèle logistique cumulatif général où l’hypothèse du parallélisme peut ne pas se vérifier. Un test de cette hypothèse peut aisément s’ensuivre.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 12-001-X201800154928
    Description :

    Un processus à deux phases a été utilisé par la Substance Abuse and Mental Health Services Administration pour estimer la proportion d’Américains adultes atteints d’une maladie mentale grave (MMG). La première phase correspondait à la National Survey on Drug Use and Health (NSDUH) réalisée annuellement, tandis que la seconde phase consistait en un sous-échantillon aléatoire d’adultes ayant répondu à la NSDUH. Les personnes qui ont répondu à la deuxième phase d’échantillonnage ont été soumises à une évaluation clinique visant à déceler les maladies mentales graves. Un modèle de prédiction logistique a été ajusté à ce sous-échantillon en prenant la situation de MMG (oui ou non) déterminée au moyen de l’instrument de deuxième phase comme variable dépendante, et les variables connexes recueillies dans la NSDUH auprès de tous les adultes comme variables explicatives du modèle. Des estimations de la prévalence de la MMG chez l’ensemble des adultes et au sein de sous-populations d’adultes ont ensuite été calculées en attribuant à chaque participant à la NSDUH une situation de MMG établie en comparant sa probabilité estimée d’avoir une MMG avec un seuil diagnostique choisi sur la distribution des probabilités prédites. Nous étudions d’autres options que cet estimateur par seuil diagnostique classique, dont l’estimateur par probabilité. Ce dernier attribue une probabilité estimée d’avoir une MMG à chaque participant à la NSDUH. La prévalence estimée de la MMG est la moyenne pondérée de ces probabilités estimées. Au moyen des données de la NSDUH et de son sous-échantillon, nous montrons que, même si l’estimateur par probabilité donne une plus petite erreur quadratique moyenne quand on estime la prévalence de la MMG parmi l’ensemble des adultes, il a une plus grande tendance que l’estimateur par seuil diagnostique classique à présenter un biais au niveau de la sous-population.

    Date de diffusion : 2018-06-21

  • Articles et rapports : 12-001-X201700254872
    Description :

    La présente note expose les fondements théoriques de l’extension de l’intervalle de couverture bilatéral de Wilson à une proportion estimée à partir de données d’enquêtes complexes. Il est démontré que l’intervalle est asymptotiquement équivalent à un intervalle calculé en partant d’une transformation logistique. Une légèrement meilleure version est examinée, mais les utilisateurs pourraient préférer construire un intervalle unilatéral déjà décrit dans la littérature.

    Date de diffusion : 2017-12-21

  • Articles et rapports : 12-001-X201500114172
    Description :

    Quand un échantillon aléatoire tiré d’une base liste complète souffre de non-réponse totale, on peut faire appel à la pondération par calage sur des totaux de population pour éliminer le biais de non-réponse sous un modèle hypothétique de réponse (sélection) ou de prédiction (résultat). De cette façon, la pondération par calage peut non seulement procurer une double protection contre le biais de non-réponse, mais aussi réduire la variance. En employant une astuce simple, on peut estimer simultanément la variance sous le modèle hypothétique de prédiction et l’erreur quadratique moyenne sous la combinaison du modèle hypothétique de réponse et du mécanisme d’échantillonnage probabiliste. Malheureusement, il existe une limite pratique aux types de modèle de réponse que l’on peut supposer lorsque les poids de sondage sont calés sur les totaux de population en une seule étape. En particulier, la fonction de réponse choisie ne peut pas toujours être logistique. Cette limite ne gêne pas la pondération par calage lorsqu’elle est effectuée en deux étapes : de l’échantillon de répondants à l’échantillon complet pour éliminer le biais de réponse, et puis de l’échantillon complet à la population pour réduire la variance. Des gains d’efficacité pourraient découler de l’utilisation de l’approche en deux étapes, même si les variables de calage employées à chaque étape représentent un sous-ensemble des variables de calage de l’approche en une seule étape. L’estimation simultanée de l’erreur quadratique moyenne par linéarisation est possible, mais plus compliquée que lorsque le calage est effectué en une seule étape.

    Date de diffusion : 2015-06-29

  • Articles et rapports : 12-001-X201200111689
    Description :

    En cas de non-réponse totale d'une unité dans un échantillon tiré suivant les principes de l'échantillonnage probabiliste, une pratique courante consiste à diviser l'échantillon en groupes mutuellement exclusifs de manière qu'il soit raisonnable de supposer que toutes les unités échantillonnées dans un groupe ont la même probabilité de ne pas répondre. De cette façon, la réponse d'une unité peut être traitée comme une phase supplémentaire de l'échantillonnage probabiliste en se servant de l'inverse de la probabilité de réponse estimée d'une unité dans un groupe comme facteur de correction pour calculer les poids finaux pour les répondants du groupe. Si l'objectif est d'estimer la moyenne de population d'une variable d'enquête qui se comporte plus ou moins comme une variable aléatoire dont la moyenne est constante dans chaque groupe indépendamment des poids de sondage originaux, il est habituellement plus efficace d'intégrer les poids de sondage dans les facteurs de correction que de ne pas le faire. En fait, si la variable d'enquête se comportait exactement comme une telle variable aléatoire, l'estimation de la moyenne de population calculée en se servant des facteurs de correction pondérés selon le plan de sondage serait presque sans biais dans un certain sens (c'est-à-dire sous la combinaison du mécanisme d'échantillonnage probabiliste original et d'un modèle de prédiction), même si les unités échantillonnées dans un groupe n'ont pas toutes la même probabilité de répondre.

    Date de diffusion : 2012-06-27

  • Articles et rapports : 11-536-X200900110813
    Description :

    Le National Agricultural Statistics Service (NASS) utilise de plus en plus l'estimateur jackknife avec suppression d'un groupe pour estimer les variances. Dans le cas des enquêtes fondées sur cette technique, on attribue 16 poids à chaque élément échantillonné : le poids d'échantillonnage réel de l'élément après l'intégration de tous les ajustements de non-réponse et de calage, et 15 poids de rééchantillonnage jackknife. Le NASS recommande de construire un intervalle de confiance pour les statistiques univariées en supposant que l'estimateur jackknife avec suppression d'un groupe possède 14 degrés de liberté. Le document décrit les méthodes qui visent à modifier l'estimateur jackknife avec suppression d'un groupe en vue de réduire l'éventuel biais de l'échantillon fini. Il propose également une méthode qui sert à mesurer les degrés réels de liberté lorsque les 14 poids recommandés par le NASS pourraient s'avérer trop généreux.

    Date de diffusion : 2009-08-11

  • Articles et rapports : 12-001-X20060029547
    Description :

    La pondération par calage peut être utilisée pour corriger la non réponse totale et (ou) les erreurs de couverture sous des modèles appropriés de quasi randomisation. Divers ajustements par calage qui sont asymptotiquement identiques dans un contexte d'échantillonnage pur peuvent diverger lorsqu'ils sont utilisés de cette manière. L'introduction de variables instrumentales dans la pondération par calage permet que la non réponse (disons) soit une fonction d'un ensemble de caractéristiques différentes de celles comprises dans le vecteur de calage. Si l'ajustement par calage a une forme non linéaire, une variante du jackknife permet d'éliminer le besoin d'itération dans l'estimation de la variance.

    Date de diffusion : 2006-12-21

  • Articles et rapports : 11-522-X20030017601
    Description :

    Dans ce document, on utilise un échantillonnage de Poisson à intervalles séquentiels (PIS) dans plusieurs enquêtes pour limiter le nombre de fois qu'une ferme particulière est sélectionnée pour une enquête du National Agricultural Statistics Service (NASS).

    Date de diffusion : 2005-01-26

  • Articles et rapports : 11-522-X20020016714
    Description :

    Dans cet article de nature très technique, on illustre l'application de la méthode de l'estimateur de la variance par le jackknife avec suppression d'un groupe à une étude longitudinale complexe à plusieurs cycles, montrant son utilité pour les modèles de régression linéaire et d'autres modèles analytiques. L'estimateur de la variance par le jackknife avec suppression d'un groupe représente un outil fort utile de mesure de la variance en cas de plan d'échantillonnage complexe. Cette méthode consiste à : diviser l'échantillon de premier degré en groupes mutuellement exclusifs et de variances presque égales; supprimer un groupe à la fois pour créer un ensemble de répétitions; procéder, sur chaque répétition, à des redressements par pondération analogues à ceux effectués sur l'échantillon dans son ensemble. L'estimation de la variance se fait selon la méthode usuelle (non stratifiée) du jackknife.

    On applique la méthode au Chicago Health and Aging Project (CHAP), une étude longitudinale communautaire visant à examiner les facteurs de risque de problèmes de santé chroniques chez les personnes âgées. L'un des objectifs importants de l'étude est d'examiner les facteurs de risque de la manifestation de la maladie d'Alzheimer. Le plan de sondage courant du CHAP comprend deux composantes : (1) Tous les trois ans, l'ensemble des membres survivants de la cohorte sont interviewés sur divers sujets liés à la santé. Ces interviews incluent des mesures des fonctions cognitives et physiques. (2) Durant chaque cycle de collecte des données, un échantillon de Poisson stratifié est sélectionné parmi les répondants à l'interview couvrant la population dans son ensemble afin de procéder à un examen clinique détaillé et à des tests neuropsychologiques. Pour étudier les facteurs de risque liés aux nouveaux cas de maladie, on définit une cohorte de personnes « exemptes de la maladie » au point précédent dans le temps et celle-ci forme une strate importante dans la base de sondage.

    On donne des preuves de l'applicabilité théorique du jackknife avec suppression d'un groupe à des estimateurs particuliers dans les conditions de cet échantillonnage de Poisson, en accordant l'attention nécessaire à la distinction entre l'inférence en population finie et en population infinie (modèle). En outre, on examine le problème de la détermination du « nombre correct » des groupes de variance.

    Date de diffusion : 2004-09-13
Stats en bref (0)

Stats en bref (0) (0 résultat)

Aucun contenu disponible actuellement

Articles et rapports (16)

Articles et rapports (16) (0 à 10 de 16 résultats)

  • Articles et rapports : 12-001-X202100200003
    Description :

    La pondération par calage est un moyen statistiquement efficace de traiter la non-réponse totale. En supposant que le modèle (ou la sortie) de la réponse justifiant l’ajustement du poids de calage est exact, il est souvent possible de mesurer la variance des estimations de façon asymptotique et sans biais. Une des manières d’estimer la variance consiste à créer des poids de rééchantillonnage jackknife. Cependant, il arrive que la méthode classique de calcul des poids de rééchantillonnage jackknife pour les poids d’analyse calés échoue. Dans ce cas, il existe généralement une autre méthode de calcul des poids de rééchantillonnage jackknife. Cette méthode est décrite ici et appliquée à un exemple simple.

    Date de diffusion : 2022-01-06

  • Articles et rapports : 12-001-X201900200007
    Description :

    Quand on ajuste une variable catégorique ordonnée à L > 2 niveaux à un ensemble de covariables sur données d’enquêtes à plans complexes, on suppose communément que les éléments de la population suivent un modèle simple de régression logistique cumulative (modèle de régression logistique à cotes proportionnelles). Cela signifie que la probabilité que la variable catégorique se situe à un certain niveau ou au-dessous est une fonction logistique binaire des covariables du modèle. Ajoutons, sauf pour l’ordonnée à l’origine, les valeurs des paramètres de régression logistique sont les mêmes à chaque niveau. La méthode « fondée sur le plan » classique servant à ajuster le modèle à cotes proportionnelles est fondée sur le pseudo-maximum de vraisemblance. Nous comparons les estimations calculées par cette méthode à celles d’un traitement dans un cadre basé sur un modèle robuste sensible au plan. Nous indiquons par un simple exemple numérique en quoi les estimations tirées de ces deux traitements peuvent différer. La nouvelle méthode peut facilement s’élargir pour ajuster un modèle logistique cumulatif général où l’hypothèse du parallélisme peut ne pas se vérifier. Un test de cette hypothèse peut aisément s’ensuivre.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 12-001-X201800154928
    Description :

    Un processus à deux phases a été utilisé par la Substance Abuse and Mental Health Services Administration pour estimer la proportion d’Américains adultes atteints d’une maladie mentale grave (MMG). La première phase correspondait à la National Survey on Drug Use and Health (NSDUH) réalisée annuellement, tandis que la seconde phase consistait en un sous-échantillon aléatoire d’adultes ayant répondu à la NSDUH. Les personnes qui ont répondu à la deuxième phase d’échantillonnage ont été soumises à une évaluation clinique visant à déceler les maladies mentales graves. Un modèle de prédiction logistique a été ajusté à ce sous-échantillon en prenant la situation de MMG (oui ou non) déterminée au moyen de l’instrument de deuxième phase comme variable dépendante, et les variables connexes recueillies dans la NSDUH auprès de tous les adultes comme variables explicatives du modèle. Des estimations de la prévalence de la MMG chez l’ensemble des adultes et au sein de sous-populations d’adultes ont ensuite été calculées en attribuant à chaque participant à la NSDUH une situation de MMG établie en comparant sa probabilité estimée d’avoir une MMG avec un seuil diagnostique choisi sur la distribution des probabilités prédites. Nous étudions d’autres options que cet estimateur par seuil diagnostique classique, dont l’estimateur par probabilité. Ce dernier attribue une probabilité estimée d’avoir une MMG à chaque participant à la NSDUH. La prévalence estimée de la MMG est la moyenne pondérée de ces probabilités estimées. Au moyen des données de la NSDUH et de son sous-échantillon, nous montrons que, même si l’estimateur par probabilité donne une plus petite erreur quadratique moyenne quand on estime la prévalence de la MMG parmi l’ensemble des adultes, il a une plus grande tendance que l’estimateur par seuil diagnostique classique à présenter un biais au niveau de la sous-population.

    Date de diffusion : 2018-06-21

  • Articles et rapports : 12-001-X201700254872
    Description :

    La présente note expose les fondements théoriques de l’extension de l’intervalle de couverture bilatéral de Wilson à une proportion estimée à partir de données d’enquêtes complexes. Il est démontré que l’intervalle est asymptotiquement équivalent à un intervalle calculé en partant d’une transformation logistique. Une légèrement meilleure version est examinée, mais les utilisateurs pourraient préférer construire un intervalle unilatéral déjà décrit dans la littérature.

    Date de diffusion : 2017-12-21

  • Articles et rapports : 12-001-X201500114172
    Description :

    Quand un échantillon aléatoire tiré d’une base liste complète souffre de non-réponse totale, on peut faire appel à la pondération par calage sur des totaux de population pour éliminer le biais de non-réponse sous un modèle hypothétique de réponse (sélection) ou de prédiction (résultat). De cette façon, la pondération par calage peut non seulement procurer une double protection contre le biais de non-réponse, mais aussi réduire la variance. En employant une astuce simple, on peut estimer simultanément la variance sous le modèle hypothétique de prédiction et l’erreur quadratique moyenne sous la combinaison du modèle hypothétique de réponse et du mécanisme d’échantillonnage probabiliste. Malheureusement, il existe une limite pratique aux types de modèle de réponse que l’on peut supposer lorsque les poids de sondage sont calés sur les totaux de population en une seule étape. En particulier, la fonction de réponse choisie ne peut pas toujours être logistique. Cette limite ne gêne pas la pondération par calage lorsqu’elle est effectuée en deux étapes : de l’échantillon de répondants à l’échantillon complet pour éliminer le biais de réponse, et puis de l’échantillon complet à la population pour réduire la variance. Des gains d’efficacité pourraient découler de l’utilisation de l’approche en deux étapes, même si les variables de calage employées à chaque étape représentent un sous-ensemble des variables de calage de l’approche en une seule étape. L’estimation simultanée de l’erreur quadratique moyenne par linéarisation est possible, mais plus compliquée que lorsque le calage est effectué en une seule étape.

    Date de diffusion : 2015-06-29

  • Articles et rapports : 12-001-X201200111689
    Description :

    En cas de non-réponse totale d'une unité dans un échantillon tiré suivant les principes de l'échantillonnage probabiliste, une pratique courante consiste à diviser l'échantillon en groupes mutuellement exclusifs de manière qu'il soit raisonnable de supposer que toutes les unités échantillonnées dans un groupe ont la même probabilité de ne pas répondre. De cette façon, la réponse d'une unité peut être traitée comme une phase supplémentaire de l'échantillonnage probabiliste en se servant de l'inverse de la probabilité de réponse estimée d'une unité dans un groupe comme facteur de correction pour calculer les poids finaux pour les répondants du groupe. Si l'objectif est d'estimer la moyenne de population d'une variable d'enquête qui se comporte plus ou moins comme une variable aléatoire dont la moyenne est constante dans chaque groupe indépendamment des poids de sondage originaux, il est habituellement plus efficace d'intégrer les poids de sondage dans les facteurs de correction que de ne pas le faire. En fait, si la variable d'enquête se comportait exactement comme une telle variable aléatoire, l'estimation de la moyenne de population calculée en se servant des facteurs de correction pondérés selon le plan de sondage serait presque sans biais dans un certain sens (c'est-à-dire sous la combinaison du mécanisme d'échantillonnage probabiliste original et d'un modèle de prédiction), même si les unités échantillonnées dans un groupe n'ont pas toutes la même probabilité de répondre.

    Date de diffusion : 2012-06-27

  • Articles et rapports : 11-536-X200900110813
    Description :

    Le National Agricultural Statistics Service (NASS) utilise de plus en plus l'estimateur jackknife avec suppression d'un groupe pour estimer les variances. Dans le cas des enquêtes fondées sur cette technique, on attribue 16 poids à chaque élément échantillonné : le poids d'échantillonnage réel de l'élément après l'intégration de tous les ajustements de non-réponse et de calage, et 15 poids de rééchantillonnage jackknife. Le NASS recommande de construire un intervalle de confiance pour les statistiques univariées en supposant que l'estimateur jackknife avec suppression d'un groupe possède 14 degrés de liberté. Le document décrit les méthodes qui visent à modifier l'estimateur jackknife avec suppression d'un groupe en vue de réduire l'éventuel biais de l'échantillon fini. Il propose également une méthode qui sert à mesurer les degrés réels de liberté lorsque les 14 poids recommandés par le NASS pourraient s'avérer trop généreux.

    Date de diffusion : 2009-08-11

  • Articles et rapports : 12-001-X20060029547
    Description :

    La pondération par calage peut être utilisée pour corriger la non réponse totale et (ou) les erreurs de couverture sous des modèles appropriés de quasi randomisation. Divers ajustements par calage qui sont asymptotiquement identiques dans un contexte d'échantillonnage pur peuvent diverger lorsqu'ils sont utilisés de cette manière. L'introduction de variables instrumentales dans la pondération par calage permet que la non réponse (disons) soit une fonction d'un ensemble de caractéristiques différentes de celles comprises dans le vecteur de calage. Si l'ajustement par calage a une forme non linéaire, une variante du jackknife permet d'éliminer le besoin d'itération dans l'estimation de la variance.

    Date de diffusion : 2006-12-21

  • Articles et rapports : 11-522-X20030017601
    Description :

    Dans ce document, on utilise un échantillonnage de Poisson à intervalles séquentiels (PIS) dans plusieurs enquêtes pour limiter le nombre de fois qu'une ferme particulière est sélectionnée pour une enquête du National Agricultural Statistics Service (NASS).

    Date de diffusion : 2005-01-26

  • Articles et rapports : 11-522-X20020016714
    Description :

    Dans cet article de nature très technique, on illustre l'application de la méthode de l'estimateur de la variance par le jackknife avec suppression d'un groupe à une étude longitudinale complexe à plusieurs cycles, montrant son utilité pour les modèles de régression linéaire et d'autres modèles analytiques. L'estimateur de la variance par le jackknife avec suppression d'un groupe représente un outil fort utile de mesure de la variance en cas de plan d'échantillonnage complexe. Cette méthode consiste à : diviser l'échantillon de premier degré en groupes mutuellement exclusifs et de variances presque égales; supprimer un groupe à la fois pour créer un ensemble de répétitions; procéder, sur chaque répétition, à des redressements par pondération analogues à ceux effectués sur l'échantillon dans son ensemble. L'estimation de la variance se fait selon la méthode usuelle (non stratifiée) du jackknife.

    On applique la méthode au Chicago Health and Aging Project (CHAP), une étude longitudinale communautaire visant à examiner les facteurs de risque de problèmes de santé chroniques chez les personnes âgées. L'un des objectifs importants de l'étude est d'examiner les facteurs de risque de la manifestation de la maladie d'Alzheimer. Le plan de sondage courant du CHAP comprend deux composantes : (1) Tous les trois ans, l'ensemble des membres survivants de la cohorte sont interviewés sur divers sujets liés à la santé. Ces interviews incluent des mesures des fonctions cognitives et physiques. (2) Durant chaque cycle de collecte des données, un échantillon de Poisson stratifié est sélectionné parmi les répondants à l'interview couvrant la population dans son ensemble afin de procéder à un examen clinique détaillé et à des tests neuropsychologiques. Pour étudier les facteurs de risque liés aux nouveaux cas de maladie, on définit une cohorte de personnes « exemptes de la maladie » au point précédent dans le temps et celle-ci forme une strate importante dans la base de sondage.

    On donne des preuves de l'applicabilité théorique du jackknife avec suppression d'un groupe à des estimateurs particuliers dans les conditions de cet échantillonnage de Poisson, en accordant l'attention nécessaire à la distinction entre l'inférence en population finie et en population infinie (modèle). En outre, on examine le problème de la détermination du « nombre correct » des groupes de variance.

    Date de diffusion : 2004-09-13
Revues et périodiques (0)

Revues et périodiques (0) (0 résultat)

Aucun contenu disponible actuellement

Date de modification :