Recherche par mot-clé

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Type

1 facets displayed. 0 facets selected.

Année de publication

1 facets displayed. 1 facets selected.

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (4)

Tout (4) ((4 résultats))

  • Articles et rapports : 12-001-X202100100001
    Description :

    Dans un article précédent, nous avons élaboré un modèle pour effectuer une inférence sur des proportions de petits domaines en cas de biais de sélection dans lequel les réponses binaires et les probabilités de sélection sont corrélées. Il s’agit du modèle de sélection non ignorable homogène; une sélection non ignorable signifie que les probabilités de sélection et les réponses binaires sont corrélées. Il a été montré que le modèle de sélection non ignorable homogène donne de meilleurs résultats qu’un modèle de sélection ignorable de référence. Toutefois, l’une des limites du modèle de sélection non ignorable homogène réside dans le fait que les distributions des probabilités de sélection sont supposées identiques dans tous les domaines. C’est pourquoi nous introduisons un modèle plus général, le modèle de sélection non ignorable hétérogène, dans lequel les probabilités de sélection ne sont pas distribuées identiquement dans tous les domaines. Nous avons utilisé des méthodes de Monte Carlo par chaînes de Markov pour ajuster les trois modèles. Nous illustrons notre méthodologie et comparons nos modèles à l’aide d’un exemple sur la limitation d’activité sévère de la U.S. National Health Interview Survey (Enquête nationale sur la santé réalisée par interviews aux États-Unis). Nous réalisons également une étude par simulations pour démontrer que notre modèle de sélection non ignorable hétérogène est nécessaire en présence d’un biais de sélection modéré ou fort.

    Date de diffusion : 2021-06-24

  • Articles et rapports : 12-001-X202100100005
    Description :

    Les stratégies bayésiennes de regroupement servent à résoudre les problèmes de précision liés aux analyses statistiques des données sur petits domaines. Dans ces cas, les échantillons des sous-populations sont généralement petits, même si la population ne l’est pas nécessairement. Une autre solution consiste à regrouper des données semblables en vue de réduire le nombre de paramètres dans le modèle. De nombreuses enquêtes recueillent des données catégoriques par domaine, lesquelles sont ensuite réunies dans un tableau de contingence. Nous examinons les modèles de regroupement bayésiens hiérarchisés avec une loi a priori de processus de Dirichlet pour analyser les données catégoriques sur de petits domaines. Toutefois, la loi a priori utilisée aux fins de regroupement de ces données entraîne souvent un problème de rétrécissement excessif. Pour corriger le problème, nous séparons les paramètres en effets globaux et locaux. Cette étude porte sur le regroupement de données au moyen d’un processus de Dirichlet. Nous comparons les modèles de regroupement utilisant des données sur la densité minérale osseuse (DMO) tirées de la Third National Health and Nutrition Examination Survey, portant sur la période de 1988 à 1994 aux États-Unis. Nos analyses des données sur la DMO sont effectuées au moyen d’un échantillonneur de Gibbs et d’un échantillonnage par tranche pour effectuer les calculs a posteriori.

    Date de diffusion : 2021-06-24

  • Articles et rapports : 12-001-X202100100007
    Description :

    Nous examinons l’estimation d’une moyenne sur petits domaines sous le modèle de base au niveau de l’unité. La somme des estimateurs dépendant d’un modèle qui en résultent peut ne pas correspondre aux estimations obtenues au moyen d’un estimateur d’enquête direct qui est considéré comme précis pour l’ensemble de ces petits domaines. La réconciliation force la concordance des estimateurs fondés sur un modèle avec l’estimateur direct au niveau du domaine agrégé. L’estimateur par la régression généralisée est l’estimateur direct que nous utilisons pour réaliser la réconciliation. Dans le présent document, nous comparons des estimateurs sur petits domaines réconciliés d’après quatre procédures. La première procédure permet d’obtenir des estimateurs réconciliés au moyen d’un ajustement par le ratio. La deuxième procédure repose sur le meilleur estimateur linéaire sans biais empirique obtenu sous le modèle au niveau de l’unité augmenté à l’aide d’une variable adéquate qui assure la réconciliation. La troisième procédure utilise des estimateurs pseudo-empiriques construits au moyen de poids de sondage convenablement choisis de sorte que, une fois agrégés, ils concordent avec l’estimateur direct fiable pour le plus grand domaine. La quatrième procédure permet d’obtenir des estimateurs réconciliés qui résultent d’un problème de minimisation sous la contrainte donnée par la condition de réconciliation. Ces procédures de réconciliation sont appliquées aux estimateurs sur petits domaines lorsque les taux d’échantillonnage sont non négligeables. Les estimateurs réconciliés qui en résultent sont comparés quant au biais relatif et à l’erreur quadratique moyenne dans une étude par simulations fondée sur un plan de sondage ainsi qu’un exemple fondé sur des données d’enquête réelles.

    Date de diffusion : 2021-06-24

  • Articles et rapports : 12-001-X202100100008
    Description :

    Les changements dans le plan d’une enquête répétée entraînent généralement des effets systématiques dans les estimations de l’échantillon, qu’on appellera discontinuités dans la suite du texte. Pour ne pas confondre les changements réels d’une période à l’autre avec les effets d’un remaniement, on quantifie souvent les discontinuités en mettant en œuvre parallèlement le plan précédent et le nouveau pendant un certain temps. Les tailles d’échantillon de ces exécutions parallèles sont généralement trop petites pour que des estimateurs directs puissent être appliqués aux discontinuités des domaines. On propose un modèle de Fay-Herriot (FH) hiérarchique bayésien bivarié pour prédire plus précisément les discontinuités de domaine et on l’applique à un remaniement de l’enquête néerlandaise sur la victimisation criminelle (Dutch Crime Victimzation Survey). Cette méthode est comparée à un modèle de FH univarié où les estimations directes selon l’approche ordinaire sont utilisées comme covariables dans un modèle de FH pour l’autre approche appliquée sur une taille d’échantillon réduite et un modèle de FH univarié où les estimations directes des discontinuités sont modélisées directement. On propose une procédure de sélection ascendante corrigée qui minimise le critère d’information de Watanabe-Akaike (Watanabe-Akaike Information Criterion ou WAIC) jusqu’à ce que la réduction du WAIC soit inférieure à l’erreur-type de ce critère. Au moyen de cette approche, on choisit des modèles plus parcimonieux, ce qui empêche de sélectionner des modèles complexes qui tendent à surajuster les données.

    Date de diffusion : 2021-06-24
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (4)

Analyses (4) ((4 résultats))

  • Articles et rapports : 12-001-X202100100001
    Description :

    Dans un article précédent, nous avons élaboré un modèle pour effectuer une inférence sur des proportions de petits domaines en cas de biais de sélection dans lequel les réponses binaires et les probabilités de sélection sont corrélées. Il s’agit du modèle de sélection non ignorable homogène; une sélection non ignorable signifie que les probabilités de sélection et les réponses binaires sont corrélées. Il a été montré que le modèle de sélection non ignorable homogène donne de meilleurs résultats qu’un modèle de sélection ignorable de référence. Toutefois, l’une des limites du modèle de sélection non ignorable homogène réside dans le fait que les distributions des probabilités de sélection sont supposées identiques dans tous les domaines. C’est pourquoi nous introduisons un modèle plus général, le modèle de sélection non ignorable hétérogène, dans lequel les probabilités de sélection ne sont pas distribuées identiquement dans tous les domaines. Nous avons utilisé des méthodes de Monte Carlo par chaînes de Markov pour ajuster les trois modèles. Nous illustrons notre méthodologie et comparons nos modèles à l’aide d’un exemple sur la limitation d’activité sévère de la U.S. National Health Interview Survey (Enquête nationale sur la santé réalisée par interviews aux États-Unis). Nous réalisons également une étude par simulations pour démontrer que notre modèle de sélection non ignorable hétérogène est nécessaire en présence d’un biais de sélection modéré ou fort.

    Date de diffusion : 2021-06-24

  • Articles et rapports : 12-001-X202100100005
    Description :

    Les stratégies bayésiennes de regroupement servent à résoudre les problèmes de précision liés aux analyses statistiques des données sur petits domaines. Dans ces cas, les échantillons des sous-populations sont généralement petits, même si la population ne l’est pas nécessairement. Une autre solution consiste à regrouper des données semblables en vue de réduire le nombre de paramètres dans le modèle. De nombreuses enquêtes recueillent des données catégoriques par domaine, lesquelles sont ensuite réunies dans un tableau de contingence. Nous examinons les modèles de regroupement bayésiens hiérarchisés avec une loi a priori de processus de Dirichlet pour analyser les données catégoriques sur de petits domaines. Toutefois, la loi a priori utilisée aux fins de regroupement de ces données entraîne souvent un problème de rétrécissement excessif. Pour corriger le problème, nous séparons les paramètres en effets globaux et locaux. Cette étude porte sur le regroupement de données au moyen d’un processus de Dirichlet. Nous comparons les modèles de regroupement utilisant des données sur la densité minérale osseuse (DMO) tirées de la Third National Health and Nutrition Examination Survey, portant sur la période de 1988 à 1994 aux États-Unis. Nos analyses des données sur la DMO sont effectuées au moyen d’un échantillonneur de Gibbs et d’un échantillonnage par tranche pour effectuer les calculs a posteriori.

    Date de diffusion : 2021-06-24

  • Articles et rapports : 12-001-X202100100007
    Description :

    Nous examinons l’estimation d’une moyenne sur petits domaines sous le modèle de base au niveau de l’unité. La somme des estimateurs dépendant d’un modèle qui en résultent peut ne pas correspondre aux estimations obtenues au moyen d’un estimateur d’enquête direct qui est considéré comme précis pour l’ensemble de ces petits domaines. La réconciliation force la concordance des estimateurs fondés sur un modèle avec l’estimateur direct au niveau du domaine agrégé. L’estimateur par la régression généralisée est l’estimateur direct que nous utilisons pour réaliser la réconciliation. Dans le présent document, nous comparons des estimateurs sur petits domaines réconciliés d’après quatre procédures. La première procédure permet d’obtenir des estimateurs réconciliés au moyen d’un ajustement par le ratio. La deuxième procédure repose sur le meilleur estimateur linéaire sans biais empirique obtenu sous le modèle au niveau de l’unité augmenté à l’aide d’une variable adéquate qui assure la réconciliation. La troisième procédure utilise des estimateurs pseudo-empiriques construits au moyen de poids de sondage convenablement choisis de sorte que, une fois agrégés, ils concordent avec l’estimateur direct fiable pour le plus grand domaine. La quatrième procédure permet d’obtenir des estimateurs réconciliés qui résultent d’un problème de minimisation sous la contrainte donnée par la condition de réconciliation. Ces procédures de réconciliation sont appliquées aux estimateurs sur petits domaines lorsque les taux d’échantillonnage sont non négligeables. Les estimateurs réconciliés qui en résultent sont comparés quant au biais relatif et à l’erreur quadratique moyenne dans une étude par simulations fondée sur un plan de sondage ainsi qu’un exemple fondé sur des données d’enquête réelles.

    Date de diffusion : 2021-06-24

  • Articles et rapports : 12-001-X202100100008
    Description :

    Les changements dans le plan d’une enquête répétée entraînent généralement des effets systématiques dans les estimations de l’échantillon, qu’on appellera discontinuités dans la suite du texte. Pour ne pas confondre les changements réels d’une période à l’autre avec les effets d’un remaniement, on quantifie souvent les discontinuités en mettant en œuvre parallèlement le plan précédent et le nouveau pendant un certain temps. Les tailles d’échantillon de ces exécutions parallèles sont généralement trop petites pour que des estimateurs directs puissent être appliqués aux discontinuités des domaines. On propose un modèle de Fay-Herriot (FH) hiérarchique bayésien bivarié pour prédire plus précisément les discontinuités de domaine et on l’applique à un remaniement de l’enquête néerlandaise sur la victimisation criminelle (Dutch Crime Victimzation Survey). Cette méthode est comparée à un modèle de FH univarié où les estimations directes selon l’approche ordinaire sont utilisées comme covariables dans un modèle de FH pour l’autre approche appliquée sur une taille d’échantillon réduite et un modèle de FH univarié où les estimations directes des discontinuités sont modélisées directement. On propose une procédure de sélection ascendante corrigée qui minimise le critère d’information de Watanabe-Akaike (Watanabe-Akaike Information Criterion ou WAIC) jusqu’à ce que la réduction du WAIC soit inférieure à l’erreur-type de ce critère. Au moyen de cette approche, on choisit des modèles plus parcimonieux, ce qui empêche de sélectionner des modèles complexes qui tendent à surajuster les données.

    Date de diffusion : 2021-06-24
Références (0)

Références (0) (0 résultat)

Aucun contenu disponible actuellement

Date de modification :