Inférence et fondements

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Type

1 facets displayed. 1 facets selected.

Géographie

1 facets displayed. 0 facets selected.

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (92)

Tout (92) (40 à 50 de 92 résultats)

  • Articles et rapports : 12-001-X201000111250
    Description :

    Nous proposons un estimateur de prédiction bayésien avec splines pénalisées (PBSP pour Bayesian Penalized Spline Predictive) pour une proportion de population finie sous échantillonnage avec probabilités inégales. Cette nouvelle méthode permet d'intégrer directement les probabilités d'inclusion dans l'estimation d'une proportion de population, en effectuant une régression probit du résultat binaire sur la fonction spline pénalisée des probabilités d'inclusion. La loi prédictive a posteriori de la proportion de population est obtenue en utilisant l'échantillonnage de Gibbs. Nous démontrons les avantages de l'estimateur PBSP comparativement à l'estimateur de Hájek (HK), à l'estimateur par la régression généralisée (RG) et aux estimateurs de prédiction fondés sur un modèle paramétrique au moyen d'études en simulation et d'un exemple réel de vérification fiscale. Les études en simulation montrent que l'estimateur PBSP est plus efficace et donne un intervalle de crédibilité à 95 % dont la probabilité de couverture est meilleure et dont la largeur moyenne est plus étroite que les estimateurs HK et RG, surtout quand la proportion de population est proche de zéro ou de un, ou que l'échantillon est petit. Comparativement aux estimateurs de prédiction fondés sur un modèle linéaire, les estimateurs PBSP sont robustes à l'erreur de spécification du modèle et à la présence d'observations influentes dans l'échantillon.

    Date de diffusion : 2010-06-29

  • Articles et rapports : 11-536-X200900110806
    Description :

    Les travaux récents qui utilisent la méthode du maximum de vraisemblance pseudo-empirique pour des inférences pour populations finies avec données d'enquêtes complexes se sont d'abord concentrées sur un échantillon d'enquête simple, non stratifié ou stratifié, avec de considérables efforts sur les procédures de calcul. Dans cet exposé, nous présentons une approche d'inférence par maximum de vraisemblance pseudo-empirique pour des enquêtes multiples et des enquêtes à bases multiples, deux problèmes souvent rencontrés en pratique dans les enquêtes. Nous montrons qu'il est possible de faire l'inférence à propos du paramètre d'intérêt commum et d'utiliser efficacement les divers types d'information auxiliaire de façon pratique par la maximisation sous contrainte de la fonction du maximum de vraisemblance pseudo-empirique. Nous obtenons les résultats asymptotiques qui sont utilisés pour construire des intervalles de confiance de ratio de maximum de vraisemblance pseudo-empiriques, soit en utilisant une approximation du chi-deux, soit en utilisant une calibration bootstrap. Tous les problèmes de calcul reliés peuvent être résolus en utilisant des algorithmes d'échantillonnage stratifié existants après avoir reformulé le problème de façon appropriée.

    Date de diffusion : 2009-08-11

  • Articles et rapports : 12-001-X200800110606
    Description :

    Aux États Unis, les données provenant des sondages électoraux sont habituellement présentées dans des tableaux de contingence à double entrée et de nombreux sondages sont réalisés avant qu'ait lieu l'élection réelle en novembre. Par exemple, pour l'élection du gouverneur de l'État de l'Ohio en 1998, trois sondages (Buckeye State Poll) ont eu lieu, un en janvier, un en avril et un en octobre; la première catégorie des tableaux représente les candidats (par exemple Fisher, Taft et autre) et la deuxième représente l'intention courante de vote (votera vraisemblablement ou ne votera vraisemblablement pas pour le gouverneur de l'Ohio). Le nombre d'électeurs indécis est important dans l'une ou dans les deux catégories pour les trois sondages et nous utilisons une méthode bayésienne pour les répartir entre les trois candidats. Nous pouvons ainsi modéliser divers scénarios de données manquantes sous les hypothèses d'ignorabilité et de non ignorabilité, et nous utilisons un modèle Dirichlet Multinomial pour estimer les probabilités de cellule qui nous aideront à prédire le gagnant. Nous proposons un modèle de non réponse non ignorable variable en fonction du temps pour les trois tableaux. Ici, un modèle de non réponse non ignorable est centré sur un modèle de non réponse ignorable afin d'induire une certaine souplesse et une certaine incertitude au sujet de l'ignorabilité ou de la non ignorabilité. Nous considérons également deux autres modèles concurrents, à savoir un modèle de non réponse ignorable et un modèle de non réponse non ignorable. Ces deux derniers modèles reposent sur l'hypothèse d'un processus stochastique commun pour obtenir un renforcement par emprunt de données au cours du temps. Nous utilisons des méthodes de Monte Carlo par chaîne de Markov pour ajuster les modèles. Nous construisons aussi un paramètre qui peut éventuellement être utilisé pour prédire le gagnant parmi les candidats à l'élection de novembre.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 11-522-X200600110392
    Description :

    Nous suivons une méthode bayésienne robuste pour analyser des données pouvant présenter un biais de non-réponse et un biais de sélection non ignorables. Nous utilisons un modèle de régression logistique robuste pour établir le lien entre les indicateurs de réponse (variable aléatoire de Bernoulli) et les covariables, dont nous disposons pour tous les membres de la population finie. Ce lien permet d'expliquer l'écart entre les répondants et les non-répondants de l'échantillon. Nous obtenons ce modèle robuste en élargissant le modèle de régression logistique conventionnel à un mélange de lois de Student, ce qui nous fournit des scores de propension (probabilité de sélection) que nous utilisons pour construire des cellules d'ajustement. Nous introduisons les valeurs des non-répondants en tirant un échantillon aléatoire à partir d'un estimateur à noyau de la densité, formé d'après les valeurs des répondants à l'intérieur des cellules d'ajustement. La prédiction fait appel à une régression linéaire spline, fondée sur les rangs, de la variable de réponse sur les covariables selon le domaine, en échantillonnant les erreurs à partir d'un autre estimateur à noyau de la densité, ce qui rend notre méthode encore plus robuste. Nous utilisons des méthodes de Monte-Carlo par chaînes de Markov (MCMC) pour ajuster notre modèle. Dans chaque sous-domaine, nous obtenons la loi a posteriori d'un quantile de la variable de réponse à l'intérieur de chaque sous-domaine en utilisant les statistiques d'ordre sur l'ensemble des individus (échantillonnés et non échantillonnés). Nous comparons notre méthode robuste à des méthodes paramétriques proposées récemment.

    Date de diffusion : 2008-03-17

  • Articles et rapports : 11-522-X200600110398
    Description :

    L'étude de données longitudinales est essentielle si l'on veut observer correctement l'évolution des variables d'intérêt chez les personnes, les collectivités et les populations plus importantes au cours du temps. Les modèles linéaires à effets mixtes (pour les réponses continues observées au fil du temps), ainsi que les modèles linéaires généralisés à effets mixtes et les équations d'estimation généralisées (pour les réponses plus générales, telles que les données binaires ou les dénombrements observés au fil du temps) sont les méthodes les plus répandues pour analyser les données longitudinales provenant d'études sur la santé, même si, comme toute méthode de modélisation, elles ont leurs limites, dues en partie aux hypothèses sous jacentes. Dans le présent article, nous discutons de certains progrès, dont l'utilisation de méthodes fondées sur des courbes, qui rendent la modélisation des données longitudinales plus souple. Nous présentons trois exemples d'utilisation de ces méthodes plus souples tirés de la littérature sur la santé, dans le but de démontrer que certaines questions par ailleurs difficiles peuvent être résolues raisonnablement lors de l'analyse de données longitudinales complexes dans les études sur la santé des populations.

    Date de diffusion : 2008-03-17

  • Articles et rapports : 11-522-X200600110419
    Description :

    La recherche sur les services de santé s'appuie habituellement sur des données d'observation afin de comparer les résultats chez des patients recevant des traitements différents. La comparaison de groupes de patients participant à des études par observation peut être biaisée, car les résultats diffèrent à la fois en raison des effets du traitement et de ceux liés au pronostic fait sur le patient. Dans certains cas, particulièrement lorsque les données recueillies ont trait à des facteurs de risque cliniques précis, il est possible de tenir compte de ces différences en utilisant des méthodes statistiques ou épidémiologiques. Dans d'autres cas, où des caractéristiques non mesurées de la population de patients ont une incidence sur la décision de prodiguer le traitement ainsi que sur le résultat, il est impossible d'éliminer ces différences par des techniques courantes. L'utilisation de données administratives sur la santé pour entreprendre des études par observation demande des précautions particulières, puisque d'importants renseignements cliniques font défaut. Nous discutons de plusieurs méthodes statistiques et épidémiologiques visant à éliminer le biais manifeste (mesurable) et caché (non mesurable) dans les études par observation. Ces méthodes comprennent l'ajustement de la composition des groupes de cas, l'appariement fondé sur la propension, la redéfinition des variables d'exposition d'intérêt et la technique économétrique d'analyse avec variables instrumentales (VI). Nous illustrons ces méthodes à l'aide d'exemples extraits de publications médicales, dont la prédiction de la mortalité un an après une crise cardiaque, le rendement des dépenses en soins de santé, en ce qui a trait aux avantages cliniques et financiers, dans les régions des États-Unis où les dépenses sont élevées, ainsi que les avantages du traitement effractif des patients ayant fait une crise cardiaque liés à la survie à long terme. Il est possible d'utiliser des données administratives sur la santé pour réaliser des études par observation à condition de veiller soigneusement à résoudre les problèmes liés à la causalité inverse et au facteur de confusion non mesuré.

    Date de diffusion : 2008-03-17

  • Articles et rapports : 92F0138M2008002
    Description :

    Le 26 novembre 2006, l'Organisation de coopération et de développement économiques (OCDE) a été l'hôte d'un atelier international sur la définition et la mesure des régions métropolitaines. Les raisons ayant amené l'OCDE à organiser cet atelier sont les suivantes :

    1. Dans le monde hautement intégré que nous connaissons aujourd'hui, les régions métropolitaines sont devenues des agents économiques clés. Outre leur rôle traditionnel de pôles de croissance au niveau national, les régions métropolitaines constituent des centres essentiels de l'économie mondiale.2. Les décideurs politiques, les organismes internationaux et les réseaux de recherche sont de plus en plus fréquemment amenés à comparer les résultats économiques et sociaux des régions métropolitaines d'un pays à l'autre. Entre autres exemples de travaux menés par des réseaux et des organismes internationaux, mentionnons Habitat ONU, l'initiative Urban Audit de l'UE, ESPON et les travaux de l'OCDE sur la compétitivité des villes.3. Toutefois, la portée des enseignements que l'on peut tirer de ces comparaisons internationales est limitée en raison de l'absence d'une définition comparable du concept de région métropolitaine. La plupart des pays ont leur propre définition, et celle-ci varie sensiblement d'un pays à l'autre. De plus, les initiatives internationales visant à améliorer la comparabilité entre pays ont conduit, un peu paradoxalement, à une prolifération de définitions.4. Il n'y a en principe aucune raison particulière de préconiser une définition plutôt qu'une autre. Chaque définition a été formulée pour des fins analytiques particulières et, de ce fait, rend compte de certaines caractéristiques des régions métropolitaines tout en ayant tendance à en passer certaines autres sous silence. Le fait est que nous ne connaissons pas les points forts et les points faibles des différentes définitions; plus important encore, nous ne savons pas quelle incidence l'utilisation d'une définition donnée plutôt que d'une autre peut avoir sur l'analyse. 5. C'est dans le but de répondre à ces questions que l'OCDE a organisé un atelier international sur la définition et la mesure des régions métropolitaines (« Defining and Measuring Metropolitan Regions »). Cet atelier a rassemblé de grandes organisations internationales (ONU, Eurostat, Banque mondiale et OCDE), des bureaux de statistique nationaux et des chercheurs qui s'intéressent à ce domaine. L'objectif était d'élaborer certains « principes directeurs » auxquels les participants pourraient souscrire et qui constitueraient en bout de ligne l'assise d'une « orientation internationale » permettant de comparer les régions métropolitaines d'un pays à l'autre.

    Ce document de travail a été présenté lors de l'atelier en question. Il expose le fondement conceptuel et méthodologique qui sous tend la définition des régions métropolitaines au Canada; également, on y compare de façon détaillée la méthodologie utilisée au Canada et celle employée aux États-Unis. L'objet du document était d'alimenter les débats sur l'approche adoptée par le Canada pour la définition des régions métropolitaines, dans le contexte des travaux destinés à mettre de l'avant les « principes directeurs » mentionnés précédemment. Si cette étude est offerte sous forme de document de travail, c'est pour faire progresser les discussions sur le sujet et pour fournir des données de base à la collectivité des utilisateurs afin de favoriser le dialogue et la formulation de commentaires à propos de la méthodologie canadienne relative aux régions métropolitaines.

    Date de diffusion : 2008-02-20

  • Articles et rapports : 92F0138M2007001
    Description :

    Statistique Canada crée des fichiers qui fournissent le couplage entre les codes postaux et les régions géographiques selon lesquelles les données statistiques sont diffusées. En couplant les codes postaux et ses régions géographiques, Statistique Canada facilite l'extraction et l'agrégation subséquente de données pour certaines régions géographiques de fichiers mis à la disposition des utilisateurs. Les utilisateurs peuvent alors totaliser les données de Statistique Canada pour leurs régions et d'autres données pour ces mêmes régions de manière à établir un profil statistique combiné de ces régions.

    La méthodologie utilisée par Statistique Canada pour le couplage des codes postaux et des régions géographiques a été questionnée. Pour régler la situation, Statistique Canada a décidé de créer un cadre conceptuel pour l'élaboration des règles régissant le couplage des codes postaux et des régions géographiques de Statistique Canada. Le présent document de travail expose le cadre conceptuel et les règles de géocodage. La méthodologie qui y est décrite servira de fondement pour le couplage des codes postaux aux régions géographiques du Recensement de 2006. Les utilisateurs des produits de Statistique Canada qui font appel aux codes postaux sont invités à formuler des commentaires sur le présent document.

    Date de diffusion : 2007-02-12

  • Articles et rapports : 12-001-X20060019257
    Description :

    En présence de non réponse partielle, deux approches sont généralement utilisées à des fins d'inférence des paramètres d'intérêt. La première repose sur l'hypothèse que la réponse est uniforme dans les classes d'imputation, tandis que la seconde s'appuie sur l'hypothèse que la réponse est ignorable, mais utilise un modèle pour la variable d'intérêt comme fondement de l'inférence. Dans le présent article, nous proposons une troisième approche qui se fonde sur l'hypothèse d'un mécanisme de réponse précisé ignorable sans que doive être spécifié un modèle de la variable d'intérêt. Dans ce cas, nous montrons comment obtenir des valeurs imputées qui mènent à des estimateurs d'un total approximativement sans biais sous l'approche proposée, ainsi que sous la deuxième des approches susmentionnées. Nous obtenons aussi des estimateurs de la variance des estimateurs imputés qui sont approximativement sans biais en suivant une approche proposée par Fay (1991) dans laquelle sont inversés l'ordre de l'échantillonnage et de la réponse. Enfin, nous effectuons des études par simulation afin d'étudier les propriétés des méthodes dans le cas d'échantillons finis, en termes de biais et d'erreur quadratique moyenne.

    Date de diffusion : 2006-07-20

  • Articles et rapports : 11F0024M20050008805
    Description :

    Le présent document fait état de l'élaboration possible d'indicateurs infra-annuels concernant des industries de services sélectionnées à l'aide des données sur la taxe sur les produits et services (TPS). Le secteur des services revêt maintenant une importance capitale pour les économies avancées; toutefois, notre connaissance de ce secteur demeure incomplète, notamment en raison d'un manque de données. Depuis presque vingt ans, le Groupe de Voorburg sur les statistiques des services poursuit ses travaux pour élaborer et intégrer de meilleures mesures relativement à ce secteur. Malgré cela, on continue de compter sur les données du secteur de production des biens et, à l'exception du secteur du commerce, sur les données relatives à l'emploi dans le secteur des industries de services pour établir de nombreuses mesures économiques infra-annuelles.

    L'établissement d'indicateurs infra-annuels concernant les industries de services soulève deux questions relativement au programme national de la statistique. Tout d'abord, avons nous besoin d'indicateurs sur la production de services pour compléter les mesures infra-annuelles existantes? Deuxièmement, quelles sont les industries de services qui se prêtent le plus à cet exercice? Les auteurs du présent document examinent premièrement l'importance des industries de services et leur comportement dans les périodes de récession. Leur attention se porte ensuite sur les points à prendre en considération pour déterminer quelles industries de services choisir pour établir des indicateurs infra-annuels fondés sur la TPS. Une étude de cas utilisant le secteur des services d'hébergement est présentée afin d'illustrer dans quelle mesure l'actualité et l'exactitude des données sont améliorées. Nous terminons en examinant les possibilités et les limites de ces indicateurs.

    Date de diffusion : 2005-10-20
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (92)

Analyses (92) (30 à 40 de 92 résultats)

  • Articles et rapports : 11-522-X201300014280
    Description :

    Au cours de la dernière décennie, on a vu les enquêtes par panel en ligne s’établir comme un moyen rapide et économique d’effectuer des études de marché. Les progrès dans le domaine des technologies de l’information, en particulier la croissance rapide continue de l’usage d’Internet et des ordinateurs par les membres du public, sont à la base de ce phénomène. La croissance des taux de non-réponse et des prix à laquelle doit faire face l’industrie des sondages sous-tend aussi ce changement. Toutefois, certains risques importants sont associés aux enquêtes par panel en ligne, le biais de sélection dû à l’autosélection des répondants n’étant pas le moindre. Il existe aussi des risques d’erreurs de couverture et de mesure. L’absence d’un cadre d’inférence et d’indicateurs de la qualité des données constitue un obstacle à l’utilisation de panels en ligne pour la production de statistiques de haute qualité au sujet de la population générale. Néanmoins, les enquêtes par panel en ligne pour la production de statistiques ponctuelles et même de statistiques officielles semblent représenter une nouvelle forme de concurrence posant de plus en plus de défis à certains instituts nationaux de statistique. Le présent article explore la question de la conception et de l’utilisation des panels en ligne de façon scientifiquement valable. On donne d’abord un aperçu d’une norme de mesure de la performance établie par la Société suédoise des enquêtes et des sondages pour évaluer certains aspects qualitatifs des résultats des enquêtes par panel en ligne. Puis, on discute en détail de la décomposition du biais et de l’atténuation des risques de biais. Enfin, on présente certaines idées en vue de combiner des enquêtes par panel en ligne et des enquêtes classiques pour obtenir une inférence contrôlée de manière rentable.

    Date de diffusion : 2014-10-31

  • Articles et rapports : 12-001-X201400114004
    Description :

    En 2009, deux enquêtes importantes réalisées par la division des administrations publiques du U.S. Census Bureau ont été remaniées afin de réduire la taille de l’échantillon, d’économiser des ressources et d’améliorer la précision des estimations (Cheng, Corcoran, Barth et Hogue 2009). Sous le nouveau plan de sondage, chaque strate habituelle, définie par l’État et le type d’administration publique, qui contient un nombre suffisant d’unités (administrations publiques) est divisée en deux sous strates en fonction de la masse salariale totale de chaque unité afin de tirer un plus petit échantillon de la sous strate des unités de petite taille. L’approche assistée par modèle est adoptée pour estimer les totaux de population. Des estimateurs par la régression utilisant des variables auxiliaires sont obtenus soit pour chaque sous strate ainsi créée soit pour la strate originale en regroupant des deux sous strates. Cheng, Slud et Hogue (2010) ont proposé une méthode fondée sur un test de décision qui consiste à appliquer un test d’hypothèse pour décider quel estimateur par la régression sera utilisé pour chaque strate originale. La convergence et la normalité asymptotique de ces estimateurs assistés par modèle sont établies ici sous un cadre asymptotique fondé sur le plan de sondage ou assisté par modèle. Nos résultats asymptotiques suggèrent aussi deux types d’estimateurs de variance convergents, l’un obtenu par substitution des quantités inconnues dans les variances asymptotiques et l’autre en appliquant la méthode du bootstrap. La performance de tous les estimateurs des totaux et des estimateurs de leur variance est examinée au moyen d’études empiriques. L’Annual Survey of Public Employment and Payroll (ASPEP) des États Unis est utilisé pour motiver et illustrer notre étude.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201300211887
    Description :

    Les modèles multiniveaux sont d'usage très répandu pour analyser les données d'enquête en faisant concorder la hiérarchie du plan de sondage avec la hiérarchie du modèle. Nous proposons une approche unifiée, basée sur une log-vraisemblance composite pondérée par les poids de sondage pour des modèles à deux niveaux, qui mène à des estimateurs des paramètres du modèle convergents sous le plan et sous le modèle, même si les tailles d'échantillon dans les grappes sont petites, à condition que le nombre de grappes échantillonnées soit grand. Cette méthode permet de traiter les modèles à deux niveaux linéaires ainsi que linéaires généralisés et requiert les probabilités d'inclusion de niveau 2 et de niveau 1, ainsi que les probabilités d'inclusion conjointe de niveau 1, où le niveau 2 représente une grappe et le niveau 1, un élément dans une grappe. Nous présentons aussi les résultats d'une étude en simulation qui donnent la preuve que la méthode proposée est supérieure aux méthodes existantes sous échantillonnage informatif.

    Date de diffusion : 2014-01-15

  • Articles et rapports : 82-003-X201300611796
    Géographie : Canada
    Description :

    La présente étude évalue la faisabilité d'utiliser des techniques de modélisation statistique pour combler les lacunes dans les données liées aux facteurs de risque, et plus particulièrement l'usage du tabac, dans les données de recensement couplées.

    Date de diffusion : 2013-06-19

  • Articles et rapports : 12-001-X201200211758
    Description :

    Le présent article décrit l'élaboration de deux méthodes bayésiennes d'inférence au sujet des quantiles de variables d'intérêt continues d'une population finie sous échantillonnage avec probabilités inégales. La première de ces méthodes consiste à estimer les fonctions de répartition des variables étudiées continues en ajustant un certain nombre de modèles de régression probit avec splines pénalisées sur les probabilités d'inclusion. Les quantiles de population finie sont alors obtenus par inversion des fonctions de répartition estimées. Cette méthode demande considérablement de calculs. La deuxième méthode consiste à prédire les valeurs pour les unités non échantillonnées en supposant qu'il existe une relation variant de façon lisse entre la variable étudiée continue et la probabilité d'inclusion, en modélisant la fonction moyenne ainsi que de la fonction de variance en se servant de splines. Les deux estimateurs bayésiens fondés sur un modèle avec splines donnent un compromis désirable entre la robustesse et l'efficacité. Des études par simulation montrent que les deux méthodes produisent une racine carrée de l'erreur quadratique moyenne plus faible que l'estimateur pondéré par les poids de sondage et que les estimateurs par le ratio et par différence décrits dans Rao, Kovar et Mantel (RKM 1990), et qu'ils sont plus robustes à la spécification incorrecte du modèle que l'estimateur fondé sur un modèle de régression passant par l'origine décrit dans Chambers et Dunstan (1986). Lorsque la taille de l'échantillon est petite, les intervalles de crédibilité à 95 % des deux nouvelles méthodes ont une couverture plus proche du niveau nominal que l'estimateur pondéré par les poids de sondage.

    Date de diffusion : 2012-12-19

  • Articles et rapports : 12-001-X201200111688
    Description :

    Nous étudions le problème de la non-réponse non ignorable dans un tableau de contingence bidimensionnel qui peut être créé individuellement pour plusieurs petits domaines en présence de non-réponse partielle ainsi que totale. En général, le fait de prendre en considération les deux types de non-réponse dans les données sur les petits domaines accroît considérablement la complexité de l'estimation des paramètres du modèle. Dans le présent article, nous conceptualisons le tableau complet des données pour chaque domaine comme étant constitué d'un tableau contenant les données complètes et de trois tableaux supplémentaires pour les données de ligne manquantes, les données de colonne manquantes et les données de ligne et de colonne manquantes, respectivement. Dans des conditions de non-réponse non ignorable, les probabilités totales de cellule peuvent varier en fonction du domaine, de la cellule et de ces trois types de « données manquantes ». Les probabilités de cellule sous-jacentes (c'est-à-dire celles qui s'appliqueraient s'il était toujours possible d'obtenir une classification complète) sont produites pour chaque domaine à partir d'une loi commune et leur similarité entre les domaines est quantifiée paramétriquement. Notre approche est une extension de l'approche de sélection sous non-réponse non ignorable étudiée par Nandram et Choi (2002a, b) pour les données binaires ; cette extension crée une complexité supplémentaire qui découle de la nature multivariée des données et de la structure des petits domaines. Comme dans les travaux antérieurs, nous utilisons un modèle d'extension centré sur un modèle de non-réponse ignorable de sorte que la probabilité totale de cellule dépend de la catégorie qui représente la réponse. Notre étude s'appuie sur des modèles hiérarchiques bayésiens et des méthodes Monte Carlo par chaîne de Markov pour l'inférence a posteriori. Nous nous servons de données provenant de la troisième édition de la National Health and Nutrition Examination Survey pour illustrer les modèles et les méthodes.

    Date de diffusion : 2012-06-27

  • Articles et rapports : 12-001-X201100211602
    Description :

    Cet article tente de répondre aux trois questions énoncées dans le titre. Il commence par une discussion des caractéristiques uniques des données d'enquêtes complexes qui diffèrent de celles des autres ensembles de données ; ces caractéristiques requièrent une attention spéciale, mais suggèrent une vaste gamme de procédures d'inférence. Ensuite, un certain nombre d'approches proposées dans la documentation pour traiter ces caractéristiques sont passées en revue en discutant de leurs mérites et de leurs limites. Ces approches diffèrent en ce qui a trait aux conditions qui sous-tendent leur utilisation, aux données additionnelles requises pour leur application, aux tests d'adéquation de l'ajustement du modèle, aux objectifs d'inférence qu'elles permettent de satisfaire, à l'efficacité statistique, aux demandes de ressources informatiques et aux compétences que doivent posséder les analystes qui ajustent les modèles. La dernière partie de l'article présente les résultats de simulations conçues pour comparer le biais, la variance et les taux de couverture des diverses approches dans le cas de l'estimation des coefficients de régression linéaire en partant d'un échantillon stratifié. Enfin, l'article se termine par une brève discussion des questions en suspens.

    Date de diffusion : 2011-12-21

  • Articles et rapports : 12-001-X201100211603
    Description :

    De nombreuses enquêtes par sondage comprennent des questions suscitant une réponse binaire (par exemple, obèse, non obèse) pour un certain nombre de petits domaines. Une inférence est requise au sujet de la probabilité d'une réponse positive (par exemple obèse) dans chaque domaine, la probabilité étant la même pour tous les individus dans chaque domaine et différente entre les domaines. Étant donné le peu de données dans les domaines, les estimateurs directs ne sont pas fiables et il est nécessaire d'utiliser des données provenant d'autres domaines pour améliorer l'inférence pour un domaine particulier. Essentiellement, il est supposé a priori que les domaines sont similaires, si bien que le choix d'un modèle hiérarchique bayésien, le modèle bêta-binomial standard, est naturel. L'innovation tient au fait qu'un praticien peut disposer d'information a priori supplémentaire qui est nécessaire au sujet d'une combinaison linéaire des probabilités. Par exemple, une moyenne pondérée des probabilités est un paramètre, et l'information peut être obtenue au sujet de ce paramètre, ce qui rend le paradigme bayésien approprié. Nous avons modifié le modèle bêta-binomial standard pour petits domaines afin d'y intégrer l'information a priori sur la combinaison linéraire des probabilités, que nous appelons une contrainte. Donc, il existe trois cas. Le practicien a) ne spécifie pas de contrainte, b) spécifie une contrainte et le paramètre entièrement et c) spécifie une contrainte et l'information qui peut être utilisée pour construire une loi a priori pour le paramètre. L'échantillonneur de Gibbs « griddy » est utilisé pour ajuster les modèles. Pour illustrer notre méthode, nous prenons l'exemple de l'obésité chez les enfants dans la National Health and Nutrition Examination Survey dans laquelle les petits domaines sont formés par croisement de l'école (cycle secondaire inférieur ou supérieur), de l'etnicité (blanche, noire, mexicaine) et du sexe (masculin, féminin). Nous procédons à une étude en simulation pour évaluer certaines caractéristiques statistiques de notre méthode. Nous avons montré que le gain de précision au-delà de (a) est dans l'ordre où (b) est plus grand que (c).

    Date de diffusion : 2011-12-21

  • Articles et rapports : 12-001-X201100111446
    Description :

    L'estimation sur petits domaines fondée sur des modèles linéaires mixtes est parfois inefficace quand les relations sous-jacentes ne sont pas linéaires. Nous présentons des techniques d'estimation sur petits domaines pour des variables qui peuvent être modélisées linéairement après une transformation non linéaire. En particulier, nous étendons l'estimateur direct fondé sur un modèle de Chandra et Chambers (2005, 2009) à des données qui concordent avec un modèle linéaire mixte sur l'échelle logarithmique, en utilisant le calage sur un modèle pour définir des poids pouvant être utilisés dans cet estimateur. Nos résultats montrent que l'estimateur fondé sur la transformation que nous obtenons est à la fois efficace et robuste à la distribution des effets aléatoires dans le modèle. Une application à des données d'enquêtes auprès des entreprises démontre la performance satisfaisante de la méthode.

    Date de diffusion : 2011-06-29

  • Articles et rapports : 12-001-X201100111451
    Description :

    Dans la méthode du calage de Deville et Särndal (1992), les équations de calage ne prennent en compte que les estimations exactes de totaux des variables auxiliaires. L'objectif de cet article est de s'intéresser à d'autres paramètres que le total pour caler. Ces paramètres que l'on qualifie de complexes sont par exemple le ratio, la médiane ou la variance de variables auxiliaires.

    Date de diffusion : 2011-06-29
Références (0)

Références (0) (0 résultat)

Aucun contenu disponible actuellement

Date de modification :