Inférence bayésienne pour les données multinomiales issues de petits domaines et intégrant l’incertitude sur la restriction d’ordre
Section 6. Conclusion
Le
modèle multinomial de Dirichlet comportant des restrictions d’ordre mixte
constitue une extension de Il augmente la robustesse et la souplesse
grâce à son incertitude. Nous avons également montré la façon d’obtenir des
échantillons du modèle comportant une restriction d’ordre mixte. Dans notre
application et notre simulation, nous trouvons que, avec l’incertitude, le
modèle multinomial de Dirichlet comportant des restrictions d’ordre mixte peut
s’avérer le meilleur modèle pour tous les cas ayant une unimodalité variée et
inconnue. Dans la plupart des cas, nous ne pourrions pas connaître la
restriction d’ordre unimodal, même si nous croyons qu’elle existe. Il est
nécessaire d’introduire l’incertitude dans le modèle. Nous remarquons aussi
qu’en raison de sa complexité, il est difficile de calculer sa vraisemblance
marginale. Nous montrons une méthode pour estimer les probabilités a posteriori de l’emplacement du
mode, qui est Il y a toutefois un compromis entre la
précision et l’efficacité.
Cependant,
comme le montrent les figures 4.2 et 4.3, la même restriction d’ordre
unimodal pour tous les comtés peut rester forte malgré l’incertitude. Certains
comtés ont plus de personnes se situant dans le niveau d’IMC normal, et
certains comtés ont plus de personnes dans le niveau d’IMC en surpoids. Nandram
et Sedransk (1995) et Nandram, Sedransk et Smith (1997) ont présenté une bonne
discussion sur la restriction d’ordre unimodal dans une population stratifiée.
À l’aide de l’incertitude, ils ont effectué des inférences sur la proportion
d’entreprises et de poissons appartenant à chacune des multiples catégories
lorsqu’il existe des relations d’ordre unimodal entre les proportions. Dans le
présent article, les hyperparamètres sont précisés et il n’existe aucun
problème d’estimation sur petits domaines; notre problème est beaucoup plus
difficile même si nous envisageons une structure de modèle d’incertitude
similaire.
Dans
la section 4.2.2, le modèle comportant des restrictions d’ordre fixe
constitue un meilleur modèle pour les données de l’IMC en raison de sa plus
grande PVML. Cependant, sans aucun contexte, assumer la position modale est
risqué et peut entraîner une inférence erronée. Le modèle multinomial de Dirichlet
comportant des restrictions d’ordre, et incorporant l’incertitude, peut réduire
le risque et est plus robuste. Dans la simulation, le modèle est le meilleur modèle pour les données IMC
simulées. Le modèle montre une meilleure cohérence pour les
données d’IMC simulées et les données d’IMC réelles.
L’ensemble
définitif de données relatives à l’IMC pour la présente étude repose uniquement
sur les 35 plus grands comtés ayant une population d’au moins 500 000 habitants
pour des catégories d’âge sélectionnées par sexe (hommes, femmes) et par race
(personnes blanches non hispaniques, personnes noires non hispaniques,
personnes hispaniques, autres). Nous pouvons facilement appliquer notre méthode
aux petits domaines formés par la race, l’âge et le sexe, comme les données sur
l’IMC des hommes hispaniques. Mais les cellules des tables multinomiales
deviendront clairsemées. Nous pouvons éliminer certains comtés qui deviennent
petits ou nous pouvons en combiner certains. Cependant, en raison des
structures des modèles multinomiaux de Dirichlet comportant des restrictions
d’ordre, nous ne pouvons pas ajouter la race, l’âge et le sexe comme
covariables dans le modèle.
Puisque
les données relatives à l’IMC proviennent de l’échantillonnage de l’enquête et
que les personnes sont sélectionnées avec des probabilités différentes, il nous
faut tenir compte des poids d’enquête. Il est également possible d’inclure les
poids d’enquête dans notre modèle. Laissons correspondre au poids d’enquête, ce qui
équivaut à la taille de la population dans chaque comté, à l’indice de l’échantillon et à l’indice des cellules Yang (2021) a fourni les poids ajustés
suivants :
et Yang (2021) a utilisé des
distributions de vraisemblance pondérées pour un modèle multinomial unique;
voir également Nandram, Choi et Liu (2021). Yang (2021) a découvert qu’il
existe une très petite différence entre la probabilité pondérée normalisée et
non normalisée.
Nous
pouvons transformer les données de l’IMC en utilisant les poids ajustés en comptes
ajustés. Laissons correspondre à l’indicateur de catégorie d’IMC
pour la personne dans le comté à la cellule Nous définissons ou 1 avec par exemple, si une personne répond dans la
cellule une valeur « 1 » est déclarée, et
toutes les autres cellules ont des valeurs « 0 ». Pour simplifier,
nous pouvons avoir la distribution conjointe a posteriori pondérée non normalisée sous la forme
suivante :
Nos approches peuvent être appliquées
directement aux comptes ajustés.
Il est
possible d’assouplir quelque peu la restriction de l’ordre unimodal. Il est
possible de restreindre la position du mode sans aucun ordre à sa gauche ou à
sa droite; nous pouvons toujours avoir le mode à 2 ou 3 pour les données
de l’IMC pour fournir un modèle comportant une incertitude sur la position
modale. Cela peut être fait dans le même esprit que celui de nos travaux actuels.
Nous
remarquons que la même structure unimodale pour tous les comtés n’est pas
respectée. L’emprunt de renseignements dans ces domaines peut avoir un effet
négatif sur l’inférence du modèle. Neuenschwander, Wandel, Roychoudhury et
Bailey (2016) ont présenté une approche différente pour augmenter la robustesse
du modèle dans la mise au point de médicaments. Ils ont proposé l’approche
échangeabilité non-échangeabilité (EXNEX) pour réduire le risque d’un
rétrécissement trop important et d’un emprunt excessif pour les strates
extrêmes. Nous pouvons emprunter leur approche pour accroître la robustesse de
notre modèle statistique. Nous pensons toutefois qu’il est très difficile de
faire des inférences en utilisant le modèle multinomial de Dirichlet comportant
une valeur a priori EXNEX,
puisque la complexité du modèle augmente considérablement.
Annexe
A.1 Échantillonneur de Gibbs pour et dans et
Nous
présentons l’échantillonneur de Gibbs à grille, un algorithme de la méthode de
Monte Carlo par chaîne de Markov (MCMC), pour avec la restriction d’ordre et
Liu et
Sabatti (2000) ont présenté une discussion complète de l’échantillonneur
général de Gibbs, qui est une MCMC plus efficace pour l’inférence bayésienne.
Ils ont étudié son lien avec la méthode Monte Carlo multigrille et son
utilisation pour concevoir des échantillonneurs plus efficaces. L’échantillonneur
de Gibbs peut être plus efficace dans notre modèle hiérarchique. Nous utilisons
donc l’échantillonneur de Gibbs pour générer les échantillons a posteriori pour l’inférence
bayésienne.
Nous
présentons l’échantillonneur de Gibbs modifié pour et La densité a posteriori
conjointe est :
où
Il
n’existe pas de distribution conditionnelle reconnaissable de et pour créer des échantillons. Nous utilisons
donc la méthode de la grille pour établir ainsi que à partir de après une intégration par rapport à nous obtenons :
Chen et
Shao (1997) ont mentionné que l’échantillonnage par importance pouvait être
utilisé pour estimer le rapport :
Nous considérons Dirichlet comme notre fonction
d’importance de tous les comtés, où est un rapport ajustable et où
Il combine des renseignements. Comme
notre fonction d’importance ne dépend pas des inconnues et nous pouvons créer un seul
ensemble de nombres pour toutes les itérations. Dans notre exemple numérique, il
a été prouvé qu’il s’agit d’un moyen efficace de générer des échantillons a posteriori.
Étapes de
l’échantillonneur Gibbs :
- Établissons à partir
de
- Pour de à 1,
établissons à partir
de où
- Pour de à établissons à partir de où
- Obtenons répétons l’étape 1 à l’étape 4
jusqu’à convergence,
A.2 Échantillonnage dans et
L’aspect
a posteriori de a une distribution reconnaissable, soit la
distribution de Dirichlet comportant la restriction d’ordre. Au lieu de tirer
des échantillons directement de la distribution de Dirichlet comportant la
restriction d’ordre, Chen et Nandram (2019) présentent un échantillonnage
direct à partir de distributions Gamma tronquées, où Nadarajah et Kotz (2006)
ont proposé une méthode pour les Gamma tronqués.
Désignons
si et le mode est alors nous supposons le mode est
Étapes de
l’échantillonnage de à partir de Dirichlet
- Établissons où
- Établissons à
partir de jusqu’à
Gamma tronqué où
Gamma tronqué où
- Établissons à
partir de jusqu’à
Gamma tronqué où
Gamma tronqué où
Alors,
A.3 Diagnostics bayésiens de et
Comme
la seule différence entre et est l’hypothèse de restriction d’ordre et que
les OPC de et sont similaires, nous ne présentons ici que
l’OPC de
où
est la fonction de densité de et
Nous
remarquons que et sont les échantillons a posteriori de la section 7.2. Pour chaque paire de et nous pouvons établir à partir de de Dirichlet,
où comportant une restriction
d’ordre. Nous obtenons alors la PVML comme
.
Cependant,
il n’est pas facile de calculer directement
ou
Nous présentons la façon d’utiliser les OPC
connues, telles que
et
pour calculer
puis
où
sont connus, comme
et
. Sans calcul supplémentaire, en
profitant des OPC connues de et nous pouvons facilement obtenir
l’OPC de
A.4 Sommaire a posteriori
de
Tableau A.1
Partie I : comtés 1 à 11
Sommaire du tableau
Le tableau montre les résultats de Partie I : comtés 1 à 11. Les données sont présentées selon ID du comté (titres de rangée) et Modèle, Poids insuffisant, Poids normal, Surpoids, Obésité de classe I et Obésité de classe II(figurant comme en-tête de colonne).
ID du comté |
Modèle |
Poids insuffisant |
Poids normal |
Surpoids |
Obésité de classe I |
Obésité de classe II |
MP |
ETP |
CV |
MP |
ETP |
CV |
MP |
ETP |
CV |
MP |
ETP |
CV |
MP |
ETP |
CV |
1 |
|
0,026 |
0,013 |
0,501 |
0,399 |
0,040 |
0,101 |
0,394 |
0,040 |
0,102 |
0,143 |
0,029 |
0,206 |
0,039 |
0,016 |
0,408 |
|
0,021 |
0,009 |
0,425 |
0,421 |
0,023 |
0,056 |
0,376 |
0,021 |
0,056 |
0,148 |
0,023 |
0,153 |
0,033 |
0,010 |
0,316 |
|
0,021 |
0,009 |
0,431 |
0,376 |
0,019 |
0,051 |
0,418 |
0,023 |
0,055 |
0,152 |
0,023 |
0,153 |
0,033 |
0,011 |
0,323 |
|
0,021 |
0,009 |
0,431 |
0,393 |
0,030 |
0,076 |
0,404 |
0,030 |
0,075 |
0,150 |
0,023 |
0,156 |
0,033 |
0,010 |
0,315 |
2 |
|
0,014 |
0,010 |
0,704 |
0,390 |
0,040 |
0,102 |
0,417 |
0,041 |
0,098 |
0,160 |
0,030 |
0,189 |
0,019 |
0,011 |
0,580 |
|
0,015 |
0,007 |
0,490 |
0,422 |
0,024 |
0,056 |
0,381 |
0,019 |
0,049 |
0,159 |
0,024 |
0,152 |
0,023 |
0,009 |
0,386 |
|
0,015 |
0,007 |
0,494 |
0,375 |
0,020 |
0,055 |
0,426 |
0,025 |
0,059 |
0,161 |
0,023 |
0,143 |
0,023 |
0,010 |
0,405 |
|
0,015 |
0,007 |
0,476 |
0,391 |
0,031 |
0,079 |
0,409 |
0,031 |
0,077 |
0,161 |
0,024 |
0,147 |
0,024 |
0,010 |
0,405 |
3 |
|
0,028 |
0,014 |
0,489 |
0,282 |
0,039 |
0,137 |
0,495 |
0,042 |
0,085 |
0,149 |
0,029 |
0,192 |
0,047 |
0,017 |
0,368 |
|
0,024 |
0,011 |
0,459 |
0,393 |
0,021 |
0,054 |
0,378 |
0,018 |
0,047 |
0,166 |
0,028 |
0,167 |
0,040 |
0,015 |
0,368 |
|
0,021 |
0,009 |
0,440 |
0,334 |
0,035 |
0,106 |
0,458 |
0,036 |
0,079 |
0,151 |
0,022 |
0,146 |
0,037 |
0,012 |
0,320 |
|
0,022 |
0,010 |
0,452 |
0,354 |
0,042 |
0,118 |
0,429 |
0,050 |
0,117 |
0,156 |
0,026 |
0,163 |
0,038 |
0,013 |
0,342 |
4 |
|
0,007 |
0,004 |
0,543 |
0,356 |
0,022 |
0,062 |
0,421 |
0,022 |
0,053 |
0,183 |
0,018 |
0,096 |
0,034 |
0,009 |
0,252 |
|
0,009 |
0,004 |
0,461 |
0,394 |
0,014 |
0,035 |
0,381 |
0,011 |
0,029 |
0,182 |
0,020 |
0,112 |
0,034 |
0,008 |
0,224 |
|
0,009 |
0,004 |
0,451 |
0,363 |
0,018 |
0,050 |
0,422 |
0,019 |
0,046 |
0,174 |
0,017 |
0,098 |
0,032 |
0,007 |
0,220 |
|
0,009 |
0,004 |
0,456 |
0,374 |
0,023 |
0,061 |
0,407 |
0,026 |
0,063 |
0,177 |
0,018 |
0,104 |
0,032 |
0,007 |
0,221 |
5 |
|
0,016 |
0,011 |
0,708 |
0,370 |
0,042 |
0,112 |
0,400 |
0,042 |
0,104 |
0,180 |
0,033 |
0,181 |
0,035 |
0,016 |
0,453 |
|
0,015 |
0,008 |
0,515 |
0,413 |
0,024 |
0,057 |
0,372 |
0,021 |
0,057 |
0,168 |
0,027 |
0,158 |
0,032 |
0,012 |
0,360 |
|
0,015 |
0,007 |
0,490 |
0,366 |
0,023 |
0,063 |
0,419 |
0,027 |
0,063 |
0,169 |
0,026 |
0,152 |
0,032 |
0,011 |
0,341 |
|
0,015 |
0,008 |
0,493 |
0,382 |
0,032 |
0,084 |
0,402 |
0,033 |
0,083 |
0,169 |
0,026 |
0,154 |
0,032 |
0,011 |
0,356 |
6 |
|
0,009 |
0,009 |
0,943 |
0,380 |
0,045 |
0,118 |
0,402 |
0,044 |
0,108 |
0,147 |
0,032 |
0,217 |
0,063 |
0,021 |
0,339 |
|
0,012 |
0,007 |
0,586 |
0,417 |
0,025 |
0,059 |
0,375 |
0,020 |
0,054 |
0,151 |
0,024 |
0,160 |
0,046 |
0,017 |
0,362 |
|
0,012 |
0,007 |
0,569 |
0,371 |
0,023 |
0,061 |
0,423 |
0,026 |
0,061 |
0,151 |
0,023 |
0,150 |
0,043 |
0,015 |
0,355 |
|
0,012 |
0,007 |
0,590 |
0,387 |
0,032 |
0,083 |
0,406 |
0,034 |
0,083 |
0,151 |
0,024 |
0,158 |
0,044 |
0,016 |
0,370 |
7 |
|
0,009 |
0,009 |
0,943 |
0,376 |
0,044 |
0,117 |
0,400 |
0,045 |
0,113 |
0,183 |
0,035 |
0,191 |
0,032 |
0,016 |
0,502 |
|
0,012 |
0,007 |
0,575 |
0,416 |
0,025 |
0,059 |
0,374 |
0,022 |
0,058 |
0,169 |
0,028 |
0,163 |
0,030 |
0,012 |
0,389 |
|
0,013 |
0,007 |
0,578 |
0,367 |
0,023 |
0,062 |
0,422 |
0,027 |
0,065 |
0,169 |
0,025 |
0,150 |
0,030 |
0,011 |
0,359 |
|
0,012 |
0,007 |
0,590 |
0,384 |
0,033 |
0,087 |
0,405 |
0,034 |
0,084 |
0,169 |
0,027 |
0,156 |
0,030 |
0,011 |
0,372 |
8 |
|
0,019 |
0,014 |
0,726 |
0,387 |
0,048 |
0,123 |
0,443 |
0,050 |
0,112 |
0,126 |
0,033 |
0,265 |
0,025 |
0,015 |
0,597 |
|
0,017 |
0,009 |
0,520 |
0,426 |
0,025 |
0,058 |
0,386 |
0,020 |
0,051 |
0,143 |
0,024 |
0,170 |
0,027 |
0,011 |
0,406 |
|
0,016 |
0,008 |
0,488 |
0,376 |
0,023 |
0,061 |
0,437 |
0,029 |
0,066 |
0,144 |
0,023 |
0,160 |
0,027 |
0,010 |
0,387 |
|
0,017 |
0,009 |
0,520 |
0,394 |
0,035 |
0,088 |
0,418 |
0,035 |
0,083 |
0,144 |
0,023 |
0,162 |
0,027 |
0,011 |
0,401 |
9 |
|
0,016 |
0,011 |
0,686 |
0,391 |
0,045 |
0,116 |
0,398 |
0,044 |
0,110 |
0,174 |
0,035 |
0,203 |
0,021 |
0,012 |
0,584 |
|
0,015 |
0,008 |
0,504 |
0,421 |
0,027 |
0,064 |
0,373 |
0,021 |
0,058 |
0,165 |
0,025 |
0,152 |
0,026 |
0,010 |
0,389 |
|
0,016 |
0,008 |
0,492 |
0,372 |
0,021 |
0,056 |
0,420 |
0,025 |
0,059 |
0,167 |
0,025 |
0,149 |
0,025 |
0,010 |
0,389 |
|
0,015 |
0,008 |
0,496 |
0,390 |
0,033 |
0,084 |
0,403 |
0,033 |
0,081 |
0,166 |
0,025 |
0,148 |
0,026 |
0,010 |
0,383 |
10 |
|
0,008 |
0,007 |
0,940 |
0,396 |
0,041 |
0,103 |
0,403 |
0,042 |
0,104 |
0,180 |
0,033 |
0,184 |
0,013 |
0,010 |
0,760 |
|
0,011 |
0,007 |
0,574 |
0,423 |
0,024 |
0,057 |
0,377 |
0,022 |
0,058 |
0,167 |
0,025 |
0,151 |
0,021 |
0,010 |
0,453 |
|
0,012 |
0,007 |
0,573 |
0,376 |
0,021 |
0,055 |
0,422 |
0,024 |
0,057 |
0,169 |
0,025 |
0,146 |
0,021 |
0,009 |
0,438 |
|
0,012 |
0,007 |
0,579 |
0,393 |
0,033 |
0,083 |
0,406 |
0,032 |
0,079 |
0,168 |
0,025 |
0,146 |
0,021 |
0,009 |
0,447 |
11 |
|
0,026 |
0,013 |
0,515 |
0,365 |
0,037 |
0,102 |
0,385 |
0,038 |
0,098 |
0,181 |
0,030 |
0,167 |
0,044 |
0,016 |
0,366 |
|
0,021 |
0,009 |
0,420 |
0,407 |
0,024 |
0,058 |
0,367 |
0,021 |
0,057 |
0,169 |
0,025 |
0,148 |
0,036 |
0,012 |
0,323 |
|
0,021 |
0,009 |
0,435 |
0,363 |
0,022 |
0,062 |
0,411 |
0,026 |
0,064 |
0,169 |
0,024 |
0,144 |
0,037 |
0,012 |
0,326 |
|
0,021 |
0,009 |
0,440 |
0,379 |
0,031 |
0,081 |
0,395 |
0,031 |
0,078 |
0,169 |
0,024 |
0,140 |
0,036 |
0,012 |
0,322 |
Tableau A.2
Partie II : comtés 12 à 23
Sommaire du tableau
Le tableau montre les résultats de Partie II : comtés 12 à 23. Les données sont présentées selon ID du comté (titres de rangée) et Modèle, Poids insuffisant, Poids normal, Surpoids, Obésité de classe I et Obésité de classe II(figurant comme en-tête de colonne).
ID du comté |
Modèle |
Poids insuffisant |
Poids normal |
Surpoids |
Obésité de classe I |
Obésité de classe II |
MP |
ETP |
CV |
MP |
ETP |
CV |
MP |
ETP |
CV |
MP |
ETP |
CV |
MP |
PSD |
CV |
12 |
|
0,008 |
0,007 |
0,937 |
0,415 |
0,041 |
0,099 |
0,439 |
0,042 |
0,095 |
0,113 |
0,027 |
0,235 |
0,026 |
0,013 |
0,507 |
|
0,012 |
0,007 |
0,581 |
0,434 |
0,024 |
0,055 |
0,392 |
0,020 |
0,050 |
0,135 |
0,023 |
0,171 |
0,028 |
0,010 |
0,360 |
|
0,012 |
0,007 |
0,557 |
0,386 |
0,022 |
0,056 |
0,438 |
0,026 |
0,059 |
0,137 |
0,024 |
0,173 |
0,027 |
0,010 |
0,355 |
|
0,012 |
0,007 |
0,583 |
0,403 |
0,033 |
0,082 |
0,422 |
0,033 |
0,078 |
0,135 |
0,024 |
0,176 |
0,028 |
0,010 |
0,357 |
13 |
|
0,012 |
0,007 |
0,563 |
0,432 |
0,030 |
0,070 |
0,378 |
0,029 |
0,076 |
0,142 |
0,021 |
0,146 |
0,036 |
0,012 |
0,323 |
|
0,013 |
0,006 |
0,426 |
0,434 |
0,023 |
0,053 |
0,375 |
0,020 |
0,053 |
0,146 |
0,018 |
0,123 |
0,033 |
0,009 |
0,272 |
|
0,013 |
0,006 |
0,423 |
0,388 |
0,014 |
0,037 |
0,413 |
0,017 |
0,042 |
0,152 |
0,019 |
0,122 |
0,034 |
0,009 |
0,277 |
|
0,013 |
0,006 |
0,426 |
0,405 |
0,028 |
0,069 |
0,399 |
0,025 |
0,063 |
0,150 |
0,019 |
0,124 |
0,033 |
0,009 |
0,273 |
14 |
|
0,024 |
0,013 |
0,545 |
0,425 |
0,045 |
0,106 |
0,399 |
0,044 |
0,110 |
0,131 |
0,030 |
0,228 |
0,022 |
0,012 |
0,567 |
|
0,019 |
0,009 |
0,465 |
0,434 |
0,027 |
0,062 |
0,378 |
0,023 |
0,059 |
0,144 |
0,023 |
0,162 |
0,025 |
0,010 |
0,380 |
|
0,019 |
0,009 |
0,463 |
0,383 |
0,021 |
0,055 |
0,426 |
0,024 |
0,057 |
0,147 |
0,024 |
0,162 |
0,026 |
0,010 |
0,389 |
|
0,019 |
0,009 |
0,465 |
0,400 |
0,033 |
0,082 |
0,409 |
0,032 |
0,078 |
0,146 |
0,024 |
0,162 |
0,025 |
0,010 |
0,378 |
15 |
|
0,022 |
0,012 |
0,532 |
0,357 |
0,041 |
0,114 |
0,444 |
0,041 |
0,093 |
0,131 |
0,028 |
0,214 |
0,047 |
0,018 |
0,384 |
|
0,018 |
0,008 |
0,438 |
0,412 |
0,021 |
0,050 |
0,384 |
0,017 |
0,045 |
0,148 |
0,025 |
0,166 |
0,039 |
0,013 |
0,334 |
|
0,018 |
0,008 |
0,462 |
0,368 |
0,025 |
0,068 |
0,433 |
0,028 |
0,064 |
0,145 |
0,023 |
0,155 |
0,037 |
0,012 |
0,325 |
|
0,018 |
0,008 |
0,448 |
0,383 |
0,032 |
0,083 |
0,416 |
0,035 |
0,083 |
0,146 |
0,024 |
0,167 |
0,037 |
0,012 |
0,327 |
16 |
|
0,013 |
0,009 |
0,695 |
0,372 |
0,037 |
0,100 |
0,439 |
0,041 |
0,092 |
0,158 |
0,029 |
0,183 |
0,018 |
0,010 |
0,584 |
|
0,015 |
0,007 |
0,482 |
0,416 |
0,020 |
0,048 |
0,386 |
0,017 |
0,044 |
0,160 |
0,024 |
0,150 |
0,023 |
0,009 |
0,406 |
|
0,014 |
0,007 |
0,480 |
0,371 |
0,023 |
0,062 |
0,436 |
0,028 |
0,063 |
0,157 |
0,021 |
0,135 |
0,023 |
0,009 |
0,383 |
|
0,014 |
0,007 |
0,481 |
0,386 |
0,031 |
0,080 |
0,418 |
0,035 |
0,083 |
0,158 |
0,023 |
0,147 |
0,023 |
0,009 |
0,381 |
17 |
|
0,039 |
0,016 |
0,405 |
0,351 |
0,039 |
0,111 |
0,426 |
0,041 |
0,095 |
0,161 |
0,030 |
0,187 |
0,024 |
0,012 |
0,507 |
|
0,028 |
0,012 |
0,418 |
0,406 |
0,021 |
0,051 |
0,378 |
0,017 |
0,045 |
0,161 |
0,025 |
0,153 |
0,027 |
0,010 |
0,362 |
|
0,026 |
0,011 |
0,420 |
0,362 |
0,024 |
0,066 |
0,428 |
0,028 |
0,064 |
0,157 |
0,021 |
0,132 |
0,027 |
0,009 |
0,351 |
|
0,027 |
0,012 |
0,425 |
0,377 |
0,030 |
0,080 |
0,410 |
0,034 |
0,083 |
0,159 |
0,023 |
0,142 |
0,027 |
0,010 |
0,365 |
18 |
|
0,009 |
0,009 |
0,964 |
0,420 |
0,045 |
0,108 |
0,376 |
0,043 |
0,114 |
0,164 |
0,036 |
0,220 |
0,032 |
0,017 |
0,519 |
|
0,012 |
0,007 |
0,581 |
0,430 |
0,028 |
0,065 |
0,370 |
0,024 |
0,066 |
0,158 |
0,026 |
0,163 |
0,030 |
0,011 |
0,373 |
|
0,013 |
0,007 |
0,552 |
0,378 |
0,019 |
0,051 |
0,417 |
0,024 |
0,056 |
0,162 |
0,025 |
0,153 |
0,031 |
0,011 |
0,362 |
|
0,013 |
0,007 |
0,568 |
0,396 |
0,034 |
0,086 |
0,400 |
0,033 |
0,082 |
0,161 |
0,025 |
0,159 |
0,031 |
0,011 |
0,366 |
19 |
|
0,019 |
0,013 |
0,693 |
0,416 |
0,048 |
0,116 |
0,384 |
0,047 |
0,123 |
0,164 |
0,035 |
0,214 |
0,016 |
0,012 |
0,767 |
|
0,016 |
0,008 |
0,507 |
0,431 |
0,030 |
0,070 |
0,372 |
0,025 |
0,066 |
0,157 |
0,026 |
0,162 |
0,023 |
0,010 |
0,430 |
|
0,017 |
0,009 |
0,532 |
0,378 |
0,020 |
0,053 |
0,420 |
0,025 |
0,059 |
0,162 |
0,025 |
0,158 |
0,024 |
0,010 |
0,407 |
|
0,017 |
0,009 |
0,533 |
0,397 |
0,036 |
0,091 |
0,402 |
0,034 |
0,085 |
0,161 |
0,027 |
0,166 |
0,024 |
0,010 |
0,422 |
20 |
|
0,009 |
0,009 |
0,935 |
0,335 |
0,044 |
0,132 |
0,494 |
0,047 |
0,095 |
0,139 |
0,031 |
0,225 |
0,023 |
0,013 |
0,564 |
|
0,013 |
0,008 |
0,610 |
0,413 |
0,020 |
0,048 |
0,390 |
0,017 |
0,043 |
0,157 |
0,027 |
0,171 |
0,027 |
0,011 |
0,406 |
|
0,012 |
0,007 |
0,551 |
0,359 |
0,029 |
0,082 |
0,454 |
0,035 |
0,077 |
0,149 |
0,023 |
0,156 |
0,026 |
0,010 |
0,380 |
|
0,012 |
0,007 |
0,599 |
0,378 |
0,037 |
0,098 |
0,432 |
0,043 |
0,100 |
0,152 |
0,025 |
0,166 |
0,026 |
0,010 |
0,396 |
21 |
|
0,048 |
0,021 |
0,431 |
0,431 |
0,050 |
0,116 |
0,353 |
0,051 |
0,145 |
0,123 |
0,033 |
0,269 |
0,046 |
0,021 |
0,453 |
|
0,029 |
0,012 |
0,432 |
0,436 |
0,032 |
0,074 |
0,363 |
0,029 |
0,079 |
0,138 |
0,025 |
0,179 |
0,035 |
0,013 |
0,363 |
|
0,029 |
0,014 |
0,485 |
0,377 |
0,020 |
0,052 |
0,412 |
0,024 |
0,058 |
0,146 |
0,025 |
0,174 |
0,036 |
0,013 |
0,364 |
|
0,029 |
0,014 |
0,459 |
0,398 |
0,038 |
0,096 |
0,394 |
0,035 |
0,090 |
0,143 |
0,026 |
0,180 |
0,036 |
0,013 |
0,372 |
22 |
|
0,016 |
0,010 |
0,660 |
0,431 |
0,044 |
0,102 |
0,391 |
0,043 |
0,109 |
0,134 |
0,030 |
0,226 |
0,029 |
0,015 |
0,512 |
|
0,015 |
0,008 |
0,500 |
0,434 |
0,027 |
0,062 |
0,378 |
0,023 |
0,060 |
0,145 |
0,024 |
0,163 |
0,028 |
0,010 |
0,369 |
|
0,015 |
0,008 |
0,500 |
0,384 |
0,019 |
0,050 |
0,423 |
0,023 |
0,055 |
0,149 |
0,023 |
0,151 |
0,029 |
0,011 |
0,362 |
|
0,015 |
0,008 |
0,508 |
0,402 |
0,034 |
0,083 |
0,407 |
0,032 |
0,078 |
0,147 |
0,024 |
0,160 |
0,029 |
0,011 |
0,376 |
23 |
|
0,011 |
0,011 |
0,979 |
0,379 |
0,048 |
0,126 |
0,426 |
0,048 |
0,112 |
0,149 |
0,034 |
0,230 |
0,035 |
0,018 |
0,516 |
|
0,013 |
0,007 |
0,560 |
0,422 |
0,025 |
0,060 |
0,379 |
0,021 |
0,055 |
0,155 |
0,026 |
0,171 |
0,031 |
0,011 |
0,352 |
|
0,013 |
0,007 |
0,568 |
0,371 |
0,024 |
0,064 |
0,431 |
0,029 |
0,068 |
0,154 |
0,025 |
0,162 |
0,032 |
0,012 |
0,378 |
|
0,013 |
0,007 |
0,570 |
0,388 |
0,035 |
0,089 |
0,413 |
0,037 |
0,089 |
0,155 |
0,026 |
0,171 |
0,032 |
0,012 |
0,365 |
Tableau A.3
Partie III : Comtés 24 à 35
Sommaire du tableau
Le tableau montre les résultats de Partie III : Comtés 24 à 35. Les données sont présentées selon ID du comté (titres de rangée) et Modèle, Poids insuffisant, Poids normal, Surpoids, Obésité de classe I et Obésité de classe II(figurant comme en-tête de colonne).
ID du comté |
Modèle |
Poids insuffisant |
Poids normal |
Surpoids |
Obésité de classe I |
Obésité de classe II |
MP |
ETP |
CV |
MP |
ETP |
CV |
MP |
ETP |
CV |
MP |
ETP |
CV |
MP |
ETP |
CV |
24 |
|
0,008 |
0,008 |
1,005 |
0,375 |
0,044 |
0,116 |
0,397 |
0,043 |
0,107 |
0,182 |
0,034 |
0,189 |
0,038 |
0,017 |
0,445 |
|
0,012 |
0,007 |
0,596 |
0,414 |
0,024 |
0,058 |
0,373 |
0,021 |
0,055 |
0,167 |
0,027 |
0,160 |
0,033 |
0,011 |
0,339 |
|
0,012 |
0,007 |
0,551 |
0,368 |
0,023 |
0,062 |
0,418 |
0,026 |
0,061 |
0,169 |
0,025 |
0,145 |
0,033 |
0,011 |
0,339 |
|
0,012 |
0,007 |
0,581 |
0,385 |
0,033 |
0,085 |
0,403 |
0,032 |
0,079 |
0,168 |
0,026 |
0,153 |
0,032 |
0,011 |
0,343 |
25 |
|
0,018 |
0,012 |
0,676 |
0,449 |
0,047 |
0,103 |
0,402 |
0,045 |
0,112 |
0,117 |
0,029 |
0,248 |
0,015 |
0,011 |
0,751 |
|
0,016 |
0,008 |
0,483 |
0,444 |
0,030 |
0,068 |
0,383 |
0,023 |
0,060 |
0,135 |
0,025 |
0,185 |
0,022 |
0,010 |
0,435 |
|
0,016 |
0,008 |
0,512 |
0,390 |
0,020 |
0,050 |
0,428 |
0,024 |
0,055 |
0,143 |
0,025 |
0,177 |
0,023 |
0,010 |
0,422 |
|
0,016 |
0,008 |
0,510 |
0,411 |
0,036 |
0,087 |
0,412 |
0,033 |
0,080 |
0,139 |
0,026 |
0,188 |
0,023 |
0,009 |
0,421 |
26 |
|
0,027 |
0,016 |
0,595 |
0,373 |
0,045 |
0,120 |
0,432 |
0,046 |
0,107 |
0,136 |
0,032 |
0,232 |
0,032 |
0,016 |
0,514 |
|
0,021 |
0,010 |
0,483 |
0,417 |
0,023 |
0,056 |
0,383 |
0,019 |
0,050 |
0,148 |
0,026 |
0,173 |
0,031 |
0,012 |
0,378 |
|
0,020 |
0,009 |
0,477 |
0,370 |
0,025 |
0,066 |
0,433 |
0,029 |
0,066 |
0,148 |
0,024 |
0,161 |
0,029 |
0,010 |
0,357 |
|
0,020 |
0,009 |
0,463 |
0,387 |
0,034 |
0,087 |
0,415 |
0,035 |
0,084 |
0,148 |
0,025 |
0,168 |
0,030 |
0,011 |
0,365 |
27 |
|
0,030 |
0,018 |
0,582 |
0,302 |
0,045 |
0,148 |
0,473 |
0,049 |
0,103 |
0,170 |
0,037 |
0,219 |
0,026 |
0,016 |
0,600 |
|
0,022 |
0,011 |
0,492 |
0,401 |
0,023 |
0,056 |
0,378 |
0,019 |
0,050 |
0,171 |
0,030 |
0,176 |
0,028 |
0,011 |
0,377 |
|
0,020 |
0,009 |
0,463 |
0,346 |
0,034 |
0,099 |
0,446 |
0,037 |
0,082 |
0,160 |
0,024 |
0,150 |
0,027 |
0,011 |
0,386 |
|
0,021 |
0,010 |
0,479 |
0,366 |
0,041 |
0,112 |
0,423 |
0,046 |
0,109 |
0,163 |
0,027 |
0,163 |
0,028 |
0,011 |
0,391 |
28 |
|
0,019 |
0,013 |
0,687 |
0,410 |
0,047 |
0,115 |
0,389 |
0,048 |
0,122 |
0,156 |
0,035 |
0,221 |
0,025 |
0,015 |
0,594 |
|
0,017 |
0,008 |
0,494 |
0,429 |
0,028 |
0,066 |
0,374 |
0,025 |
0,066 |
0,154 |
0,026 |
0,168 |
0,027 |
0,010 |
0,389 |
|
0,017 |
0,008 |
0,504 |
0,377 |
0,022 |
0,058 |
0,421 |
0,025 |
0,059 |
0,159 |
0,027 |
0,167 |
0,027 |
0,010 |
0,373 |
|
0,017 |
0,009 |
0,508 |
0,395 |
0,034 |
0,087 |
0,404 |
0,035 |
0,086 |
0,157 |
0,026 |
0,168 |
0,027 |
0,011 |
0,394 |
29 |
|
0,009 |
0,008 |
0,980 |
0,391 |
0,042 |
0,107 |
0,429 |
0,041 |
0,096 |
0,150 |
0,032 |
0,211 |
0,022 |
0,013 |
0,575 |
|
0,012 |
0,007 |
0,621 |
0,424 |
0,023 |
0,055 |
0,384 |
0,020 |
0,051 |
0,155 |
0,024 |
0,156 |
0,025 |
0,010 |
0,394 |
|
0,012 |
0,007 |
0,566 |
0,376 |
0,023 |
0,060 |
0,433 |
0,027 |
0,062 |
0,154 |
0,023 |
0,147 |
0,025 |
0,009 |
0,370 |
|
0,012 |
0,007 |
0,591 |
0,393 |
0,033 |
0,083 |
0,416 |
0,033 |
0,081 |
0,155 |
0,023 |
0,149 |
0,025 |
0,009 |
0,372 |
30 |
|
0,015 |
0,010 |
0,702 |
0,338 |
0,041 |
0,121 |
0,420 |
0,044 |
0,104 |
0,207 |
0,034 |
0,166 |
0,020 |
0,012 |
0,590 |
|
0,016 |
0,007 |
0,471 |
0,401 |
0,022 |
0,055 |
0,373 |
0,019 |
0,052 |
0,186 |
0,032 |
0,171 |
0,025 |
0,010 |
0,380 |
|
0,015 |
0,007 |
0,466 |
0,355 |
0,027 |
0,075 |
0,427 |
0,028 |
0,066 |
0,179 |
0,028 |
0,155 |
0,024 |
0,009 |
0,386 |
|
0,015 |
0,007 |
0,468 |
0,371 |
0,033 |
0,090 |
0,407 |
0,037 |
0,090 |
0,183 |
0,030 |
0,165 |
0,025 |
0,009 |
0,386 |
31 |
|
0,023 |
0,013 |
0,578 |
0,399 |
0,043 |
0,107 |
0,391 |
0,043 |
0,110 |
0,158 |
0,031 |
0,199 |
0,030 |
0,015 |
0,491 |
|
0,019 |
0,009 |
0,462 |
0,423 |
0,026 |
0,062 |
0,373 |
0,022 |
0,060 |
0,156 |
0,025 |
0,161 |
0,029 |
0,011 |
0,374 |
|
0,019 |
0,009 |
0,478 |
0,373 |
0,022 |
0,058 |
0,420 |
0,025 |
0,060 |
0,160 |
0,025 |
0,155 |
0,028 |
0,010 |
0,351 |
|
0,019 |
0,009 |
0,472 |
0,391 |
0,033 |
0,083 |
0,403 |
0,033 |
0,082 |
0,159 |
0,025 |
0,158 |
0,029 |
0,010 |
0,355 |
32 |
|
0,007 |
0,007 |
0,941 |
0,319 |
0,037 |
0,116 |
0,450 |
0,039 |
0,086 |
0,200 |
0,032 |
0,159 |
0,024 |
0,012 |
0,511 |
|
0,012 |
0,007 |
0,569 |
0,397 |
0,020 |
0,051 |
0,378 |
0,016 |
0,042 |
0,186 |
0,031 |
0,164 |
0,027 |
0,010 |
0,370 |
|
0,011 |
0,006 |
0,576 |
0,348 |
0,029 |
0,084 |
0,439 |
0,030 |
0,068 |
0,177 |
0,026 |
0,144 |
0,026 |
0,009 |
0,345 |
|
0,011 |
0,006 |
0,579 |
0,365 |
0,036 |
0,097 |
0,417 |
0,039 |
0,094 |
0,181 |
0,029 |
0,159 |
0,026 |
0,009 |
0,352 |
33 |
|
0,011 |
0,007 |
0,662 |
0,367 |
0,037 |
0,101 |
0,419 |
0,035 |
0,084 |
0,177 |
0,029 |
0,164 |
0,026 |
0,012 |
0,458 |
|
0,014 |
0,007 |
0,510 |
0,411 |
0,020 |
0,049 |
0,381 |
0,017 |
0,044 |
0,168 |
0,024 |
0,140 |
0,027 |
0,009 |
0,331 |
|
0,013 |
0,006 |
0,502 |
0,370 |
0,021 |
0,058 |
0,424 |
0,024 |
0,056 |
0,167 |
0,022 |
0,133 |
0,027 |
0,009 |
0,346 |
|
0,013 |
0,007 |
0,519 |
0,384 |
0,029 |
0,076 |
0,408 |
0,031 |
0,076 |
0,169 |
0,023 |
0,135 |
0,027 |
0,009 |
0,352 |
34 |
|
0,015 |
0,010 |
0,695 |
0,373 |
0,041 |
0,110 |
0,452 |
0,042 |
0,092 |
0,134 |
0,030 |
0,222 |
0,026 |
0,013 |
0,503 |
|
0,015 |
0,008 |
0,496 |
0,420 |
0,021 |
0,051 |
0,389 |
0,017 |
0,044 |
0,148 |
0,023 |
0,158 |
0,028 |
0,011 |
0,390 |
|
0,015 |
0,007 |
0,485 |
0,372 |
0,024 |
0,065 |
0,443 |
0,029 |
0,065 |
0,144 |
0,022 |
0,153 |
0,027 |
0,010 |
0,363 |
|
0,015 |
0,007 |
0,495 |
0,388 |
0,033 |
0,086 |
0,424 |
0,036 |
0,085 |
0,145 |
0,023 |
0,157 |
0,028 |
0,011 |
0,381 |
35 |
|
0,014 |
0,010 |
0,705 |
0,419 |
0,040 |
0,095 |
0,435 |
0,040 |
0,092 |
0,121 |
0,028 |
0,228 |
0,012 |
0,010 |
0,790 |
|
0,015 |
0,007 |
0,488 |
0,436 |
0,024 |
0,055 |
0,392 |
0,020 |
0,050 |
0,138 |
0,022 |
0,162 |
0,020 |
0,009 |
0,447 |
|
0,014 |
0,007 |
0,474 |
0,388 |
0,021 |
0,055 |
0,437 |
0,026 |
0,059 |
0,140 |
0,023 |
0,166 |
0,020 |
0,009 |
0,433 |
|
0,015 |
0,007 |
0,486 |
0,406 |
0,032 |
0,080 |
0,421 |
0,033 |
0,077 |
0,139 |
0,023 |
0,167 |
0,020 |
0,009 |
0,439 |
Bibliographie
Chen,
X., et Nandram, B. (2019). Order-restricted Bayesian estimation of
multinomial cell counts for small areas. Dans JSM 2019, Section on
Bayesian Statistical Science, Alexandrie, VA: American Statistical Association,
1024-1030.
Chen, X., et Nandram, B. (2021). Bayesian order-restricted inference of
multinomial counts from small areas. Recent Advances in Applied Statistics.
David Hangal, Raosahed Laptate, Hukum Chandra et Girish Chandra, Springer
Nature (dans la presse).
Chen, M.-H., et Shao, Q.-M. (1997). On Monte Carlo
methods for estimating ratios of normalizing constants. The Annals of
Statistics, 25(4), 1563-1594.
Gelfand, A.E., Dey, D.K. et Chang, H. (1992). Model
determination using predictive distributions with implementation via
sampling-based methods. Rapport technique, Stanford University, Department of
Statistics.
Gelfand, A.E., Smith, A.F.M. et Lee, T.-M. (1992).
Bayesian analysis of constrained parameter and truncated data problems using
Gibbs sampling. Journal of the American Statistical Association,
87(418), 523-532.
Geweke, J. (1991). Evaluating the Accuracy of
Sampling-Based Approaches to the Calculation of Posterior Moments, Federal
Reserve Bank of Minneapolis, Research Department Minneapolis, MN, 196.
Ghosh,
M., et Rao, J.N.K. (1994). Small area estimation: An appraisal. Statistical
Science, 9(1), 55-76.
Heck, D.W., et Davis-Stober, C.P. (2019). Multinomial
models with linear inequality constraints: Overview and improvements of
computational methods for Bayesian inference. Journal of Mathematical
Psychology, 91, 70-87.
Liu, J., et Sabatti, C. (2000). Generalised Gibbs
sampler and multigrid Monte Carlo for Bayesian computation. Biometrika,
87(2), 353-369.
Mair, P., Hornik, K. et de Leeuw, J. (2009). Isotone
optimization in r: pool-adjacent-violators algorithm (PAVA) and active set
methods. Journal of Statistical Software, 32(5), 1-24.
Maples, J. (2019). Small area estimates for child
population and poverty in school districts using Dirichlet-Multinomial models. Dans JSM 2019. Alexandrie,
VA: American Statistical Association.
Nadarajah,
S., et Kotz, S. (2006). R programs for truncated distributions. Journal
of Statistical Software, 16(1), 1-8.
Nandram, B. (1997). Bayesian inference for the best
ordinal multinomial population in a taste test. Dans Case Studies in
Bayesian Statistics, (Éds., C. Gatsonis, J.S. Hodges,
R.E. Kass, R. McCulloch, P. Rossi et N.D. Singpurwalla),
New York: Springer, 399-418.
Nandram, B. (1998). A Bayesian analysis of the
three-stage hierarchical multinomial model. Journal of Statistical
Computation and Simulation, 61(1-2), 97-126.
Nandram, B., et Sedransk, J. (1995). Bayesian inference
for the mean of a stratified population when there are order restrictions. Dans
Case Studies in Bayesian Statistics, Volume II, Springer, 309-322.
Nandram, B., Choi, J.W. et Liu, Y. (2021). Integration
of nonprobability and probability samples via survey weights. International Journal of Statistics
and Probability,
10(6), 5-21.
Nandram,
B., Erciulescu, A.L. et Cruze, N.B. (2019). Réconciliation
bayésienne dans le modèle de Fay-Herriot par suppression aléatoire. Technique
d’enquête, 45, 2, 389-416. Article accessible à l’adresse https://www150.statcan.gc.ca/n1/fr/pub/12-001-x/2019002/article/00004-fra.pdf.
Nandram,
B., Kim, D. et Zhou, J. (2019). A pooled Bayes test of independence for
sparse contingency tables from small areas. Journal of Statistical
Computation and Simulation, 89(5), 899-926.
Nandram, B., Sedransk, J. et Smith, S.J. (1997).
Order-restricted Bayesian estimation of the age composition of a population of
Atlantic cod. Journal of the American Statistical Association, 92(437),
33-40.
Neuenschwander, B., Wandel, S., Roychoudhury, S. et
Bailey, S. (2016). Robust exchangeability designs for early phase clinical
trials with multiple strata. Pharmaceutical Statistics, 15(2), 123-134.
Rao, J., et Molina, I. (2015). Small Area Estimation.
Wiley Series in Survey Methodology, Wiley.
Sedransk, J., Monahan, J. et Chiu, H.Y. (1985). Bayesian
estimation of finite population parameters in categorical data models
incorporating order restrictions. Journal of the Royal Statistical Society.
Series B (Methodological), 47(3), 519-527.
Trevisani, M., et Torelli, N. (2007). Hierarchical
Bayesian models for small area estimation with count data. Open Journal of
Statistics, 07.
Wang, X., Berg, E., Zhu, Z., Sun, D. et Demuth, G.
(2018). Small area estimation of proportions with constraint for national resources
inventory survey. Journal of Agricultural, Biological and Environmental
Statistics, 23(4), 509-528.
Wu, J., Meyer, M.C. et Opsomer, J.D. (2016). Survey
estimation of domain means that respect natural orderings. The Canadian Journal of Statistics/La Revue
Canadienne de Statistique, 44(4), 431-444.
Yang, L. (2021). Bayesian predictive inference with
survey weights. Thèse de doctorat, Department of Mathematical Science,
Worcester Polytechnic Institute.
You,
Y., et Rao, J.N.K. (2002). A pseudo-empirical best linear unbiased
prediction approach to small area estimation using survey weights. The Canadian Journal of
Statistics/La Revue Canadienne de Statistique, 30(3), 431-439.