Inférence et fondements

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Type

1 facets displayed. 1 facets selected.

Géographie

1 facets displayed. 0 facets selected.

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (92)

Tout (92) (20 à 30 de 92 résultats)

  • Articles et rapports : 12-001-X201700114822
    Description :

    Nous utilisons une méthode bayésienne pour inférer sur une proportion dans une population finie quand des données binaires sont recueillies selon un plan d’échantillonnage double sur des petits domaines. Le plan d’échantillonnage double correspond à un plan d’échantillonnage en grappes à deux degrés dans chaque domaine. Un modèle bayésien hiérarchique établi antérieurement suppose que, pour chaque domaine, les réponses binaires de premier degré suivent des lois de Bernoulli indépendantes et que les probabilités suivent des lois bêta paramétrisées par une moyenne et un coefficient de corrélation. La moyenne varie selon le domaine, tandis que la corrélation est la même dans tous les domaines. En vue d’accroître la flexibilité de ce modèle, nous l’avons étendu afin de permettre aux corrélations de varier. Les moyennes et les corrélations suivent des lois bêta indépendantes. Nous donnons à l’ancien modèle le nom de modèle homogène et au nouveau, celui de modèle hétérogène. Tous les hyperparamètres possèdent des distributions a priori non informatives appropriées. Une complication supplémentaire tient au fait que certains paramètres sont faiblement identifiés, ce qui rend difficile l’utilisation d’un échantillonneur de Gibbs classique pour les calculs. Donc, nous avons imposé des contraintes unimodales sur les distributions bêta a priori et utilisé un échantillonneur de Gibbs par blocs pour effectuer les calculs. Nous avons comparé les modèles hétérogène et homogène au moyen d’un exemple et d’une étude en simulation. Comme il fallait s’y attendre, le modèle double avec corrélations hétérogènes est celui qui est privilégié.

    Date de diffusion : 2017-06-22

  • Articles et rapports : 12-001-X201600214662
    Description :

    Les plans d’échantillonnage à deux phases sont souvent utilisés dans les enquêtes lorsque la base de sondage ne contient que peu d’information auxiliaire, voire aucune. Dans la présente note, nous apportons certains éclaircissements sur le concept d’invariance souvent mentionné dans le contexte des plans d’échantillonnage à deux phases. Nous définissons deux types de plans d’échantillonnage à deux phases invariants, à savoir les plans fortement invariants et les plans faiblement invariants, et donnons des exemples. Enfin, nous décrivons les implications d’une forte ou d’une faible invariance du point de vue de l’inférence.

    Date de diffusion : 2016-12-20

  • Articles et rapports : 12-001-X201600114545
    Description :

    L’estimation des quantiles est une question d’intérêt dans le contexte non seulement de la régression, mais aussi de la théorie de l’échantillonnage. Les expectiles constituent une solution de rechange naturelle ou un complément aux quantiles. En tant que généralisation de la moyenne, les expectiles ont gagné en popularité ces dernières années parce qu’en plus d’offrir un portrait plus détaillé des données que la moyenne ordinaire, ils peuvent servir à calculer les quantiles grâce aux liens étroits qui les associent à ceux-ci. Nous expliquons comment estimer les expectiles en vertu d’un échantillonnage à probabilités inégales et comment les utiliser pour estimer la fonction de répartition. L’estimateur ajusté de la fonction de répartition obtenu peut être inversé pour établir les estimations des quantiles. Nous réalisons une étude par simulations pour examiner et comparer l’efficacité de l’estimateur fondé sur des expectiles.

    Date de diffusion : 2016-06-22

  • Articles et rapports : 11-522-X201700014704
    Description :

    Il existe plusieurs domaines et sujets de recherche méthodologique en statistiques officielles. Nous expliquons pourquoi ils sont importants, et pourquoi il s’agit des plus importants pour les statistiques officielles. Nous décrivons les principaux sujets dans ces domaines de recherche et nous donnons un aperçu de ce qui semble le plus prometteur pour les aborder. Nous nous penchons ici sur: (i) la qualité des comptes nationaux, et plus particulièrement le taux de croissance du revenu national brut; (ii) les mégadonnées, et plus particulièrement la façon de créer des estimations représentatives et de tirer le meilleur parti possible des mégadonnées, lorsque cela semble difficile ou impossible; Nous abordons aussi : (i) l’amélioration de l’actualité des estimations statistiques provisoires et finales; (ii) l’analyse statistique, plus particulièrement des phénomènes complexes et cohérents. Ces sujets font partie de l’actuel programme de recherche méthodologique stratégique qui a été adopté récemment à Statistique Pays-Bas.

    Date de diffusion : 2016-03-24

  • Articles et rapports : 11-522-X201700014713
    Description :

    Le terme mégadonnées peut signifier différentes choses pour différentes personnes. Pour certaines, il s’agit d’ensembles de données que nos systèmes classiques de traitement et d’analyse ne peuvent plus traiter. Pour d’autres, cela veut simplement dire tirer parti des ensembles de données existants de toutes tailles et trouver des façons de les fusionner, avec comme objectif de produire de nouveaux éléments de connaissance. La première perspective présente un certain nombre de défis importants pour les études traditionnelles de marché, recherches sur l’opinion et recherches sociales. Dans l’un ou l’autre cas, il existe des répercussions pour l’avenir des enquêtes, qu’on commence à peine à explorer.

    Date de diffusion : 2016-03-24

  • Articles et rapports : 11-522-X201700014727
    Description :

    "Des échantillons probabilistes tirés de bases de sondage quasi-universelles de ménages et de personnes, des mesures normalisées, qui donnent lieu à des enregistrements de données multivariées, analysés au moyen de procédures statistiques reflétant le plan de sondage – c’est-ce qui a constitué le fondement des sciences sociales empiriques pendant 75 ans. C’est cette structure de mesure qui a donné au monde développé la grande majorité de nos connaissances actuelles sur nos sociétés et leurs économies. Les données d’enquête conservées actuellement constituent un dossier historique unique. Cependant, nous vivons maintenant dans un monde de données bien différent de celui dans lequel les dirigeants des organismes statistiques et des sciences sociales ont grandi. Nous produisons maintenant des données multidimensionnelles à partir de recherches sur Internet, de dispositifs mobiles connectés à Internet, des médias sociaux, de différents capteurs, de lecteurs optiques de magasins de détails et d’autres dispositifs. Certains estiment que la taille de ces sources de données augmente de 40 % par année. La taille totale de ces nouvelles sources de données éclipse celle des enquêtes fondées sur un échantillon probabiliste. De plus, les enquêtes fondées sur des échantillons ne se portent pas très bien dans le monde développé. La baisse des taux de participation aux enquêtes est liée aux coûts de plus en plus élevés de la collecte des données. Malgré des besoins en information croissants, la création de nouveaux instruments d’enquête est entravée par les restrictions budgétaires imposées aux organismes de statistique officielle et aux sources de financement de la recherche en sciences sociales. Toutes ces observations représentent des défis sans précédent pour le paradigme de base de l’inférence dans les sciences sociales et économiques. L’article propose de nouvelles approches à mettre en œuvre pour ce moment charnière historique. "

    Date de diffusion : 2016-03-24

  • Articles et rapports : 11-522-X201700014738
    Description :

    Sous l’approche classique de traitement des observations manquantes fondée sur le plan de sondage, la construction de classes de pondération et le calage sont utilisés pour ajuster les poids de sondage pour les répondants présents dans l’échantillon. Ici, nous utilisons ces poids ajustés pour définir une loi de Dirichlet qui peut servir à faire des inférences au sujet de la population. Des exemples montrent que les procédures résultantes possèdent de meilleures propriétés de performance que les méthodes classiques quand la population est asymétrique.

    Date de diffusion : 2016-03-24

  • Articles et rapports : 11-522-X201700014759
    Description :

    Nombre des possibilités et des défis de la science des données moderne découlent d’éléments dynamiques, dont l’évolution des populations, la croissance du volume de données administratives et commerciales sur les particuliers et les établissements, les flux continus de données et la capacité de les analyser et de les résumer en temps réel, ainsi que la détérioration des données faute de ressources pour les tenir à jour. Le domaine de la statistique officielle, qui met l’accent sur la qualité des données et l’obtention de résultats défendables, se prête parfaitement à la mise en relief des questions statistiques et liées à la science des données dans divers contextes. L’exposé souligne l’importance des bases de sondage de population et de leur tenue à jour, la possibilité d’utiliser des méthodes à bases de sondage multiples et des couplages d’enregistrements, la façon dont l’utilisation de données à grande échelle non issues d’enquêtes comme information auxiliaire façonne les objets de l’inférence, la complexité des modèles pour les grands ensembles de données, l’importance des méthodes récursives et de la régularisation, et les avantages des outils évolués de visualisation des données en ce qui concerne la détection des changements.

    Date de diffusion : 2016-03-24

  • Articles et rapports : 11-522-X201300014251
    Description :

    Dans la perspective d’un modélisateur, je décris la situation actuelle en matière d’inférence fondée sur les enquêtes pour la production de statistiques officielles. Ce faisant, je tente de dégager les forces et les faiblesses des approches inférentielles fondées sur le plan de sondage, d’une part, et sur un modèle, d’autre part, appliquées aujourd’hui à l’échantillonnage, du moins en ce qui concerne les statistiques officielles. Je termine par un exemple tiré d’un plan de collecte adaptatif qui illustre pourquoi l’adoption d’une perspective fondée sur un modèle (fréquentiste ou bayésien) représente le meilleur moyen pour les statistiques officielles d’éviter la « schizophrénie inférentielle » débilitante qui semble inévitable si l’on applique les méthodes actuelles pour répondre aux nouvelles demandes d’information du monde d’aujourd’hui (et peut-être même de demain).

    Date de diffusion : 2014-10-31

  • Articles et rapports : 11-522-X201300014252
    Description :

    Même si l’estimation de caractéristiques de populations finies à partir d’échantillons probabilistes a obtenu beaucoup de succès pour les grands échantillons, des inférences à partir d’échantillons non probabilistes sont également possibles. Les échantillons non probabilistes ont été critiqués en raison du biais d’auto-sélection et de l’absence de méthodes pour estimer la précision des estimations. L’accès plus vaste à Internet et la capacité de procéder à des collectes de données très peu coûteuses en ligne ont ravivé l’intérêt pour ce sujet. Nous passons en revue des stratégies d’échantillonnage non probabiliste et nous résumons certains des enjeux clés. Nous proposons ensuite des conditions à respecter pour que l’échantillonnage non probabiliste puisse constituer une approche raisonnable. Nous concluons par des idées de recherches futures.

    Date de diffusion : 2014-10-31
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (92)

Analyses (92) (50 à 60 de 92 résultats)

  • Articles et rapports : 12-002-X20050018030
    Description :

    Il arrive souvent qu'on veuille utiliser des microdonnées d'enquête pour déterminer si le taux de fréquence d'une caractéristique donnée dans une sous-population est le même que celui dans l'ensemble de la population. Le présent document expose diverses façons de procéder pour faire des inférences au sujet d'une différence entre les taux et montre si et comment ces options peuvent être mises en oeuvre dans trois différents progiciels d'enquête. Tous les progiciels illustrés, soit SUDAAN, WesVar et Bootvar, peuvent utiliser les poids bootstrap fournis par l'analyste pour procéder à l'estimation de la variance.

    Date de diffusion : 2005-06-23

  • Articles et rapports : 12-001-X20040027753
    Description :

    Les échantillonneurs se méfient souvent des approches d'inférence fondées sur un modèle, parce qu'ils craignent que soient commises des erreurs de spécification lorsque les modèles sont appliqués à de grands échantillons provenant de populations complexes. Nous soutenons que le paradigme de l'inférence fondée sur un modèle peut donner de très bons résultats dans les conditions d'enquête, à condition que les modèles soient choisis de façon à tenir compte du plan d'échantillonnage et d'éviter de faire des hypothèses fortes au sujet des paramètres. L'estimateur d'Horvitz Thompson (HT) est un estimateur simple sans biais par rapport au plan de sondage du total de population finie. Du point de vue de la modélisation, l'estimateur HT fonctionne bien lorsque les ratios des valeurs de la variable de résultat et des probabilités d'inclusion sont interchangeables. Si cette hypothèse n'est pas satisfaite, l'estimateur HT peut être très inefficace. Dans Zheng et Little (2003, 2004), nous avons utilisé des fonctions splines pénalisées (p splines) pour modéliser des relations à variation lisse entre le résultat et les probabilités d'inclusion sous échantillonnage à un degré avec probabilité proportionnelle à la taille (PPT). Nous avons montré que les estimateurs fondés sur un modèle à fonction p spline sont généralement plus efficaces que l'estimateur HT et peuvent fournir des intervalles de confiance plus étroits dont la couverture est proche du niveau de confiance nominal. Dans le présent article, nous étendons cette approche aux plans d'échantillonnage à deux degrés. Nous utilisons un modèle mixte fondé sur une p spline qui est ajusté à une relation non paramétrique entre les moyennes des unités primaires d'échantillonnage (UPE) et une mesure de la taille des UPE, et auquel sont intégrés des effets aléatoires pour modéliser la mise en grappes. Pour l'estimation de la variance, nous considérons les méthodes d'estimation de la variance fondées sur un modèle bayésien empirique, la méthode du jackknife et la méthode des répliques répétées équilibrées (BRR). Des études en simulation portant sur des données simulées et des échantillons tirés des microdonnées à grande diffusion du Recensement de 1990 montrent que l'estimateur fondé sur un modèle à fonction p spline donne de meilleurs résultats que l'estimateur HT et que les estimateurs linéaires assistés par un modèle. Les simulations montrent aussi que les méthodes d'estimation de la variance produisent des intervalles de confiance dont la couverture est satisfaisante. Fait intéressant, ces progrès peuvent être observés pour un plan d'échantillonnage courant à probabilités de sélection égales, où la sélection à la première étape est PPT et où les probabilités de sélection à la deuxième étape sont proportionnelles à l'inverse des probabilités de sélection à la première étape, et où l'estimateur HT mène à la moyenne non pondérée. Dans les situations favorisant le plus l'utilisation de l'estimateur HT, les estimateurs fondés sur un modèle ont une efficacité comparable.

    Date de diffusion : 2005-02-03

  • Articles et rapports : 11-522-X20030017700
    Description :

    Ce document propose un cadre utile pour examiner l'incidence des écarts modérés à partir de conditions idéalisées. On présente également des critères d'évaluation pour les estimateurs ponctuels et les estimateurs d'intervalles.

    Date de diffusion : 2005-01-26

  • Articles et rapports : 11-522-X20030017722
    Description :

    Dans ce document, on montre comment adapter les cadres de travail basés sur le plan de sondage et basés sur un modèle dans le cas de l'échantillonnage à deux degrés

    Date de diffusion : 2005-01-26

  • Articles et rapports : 11-522-X20020016708
    Description :

    Cette étude traite de l'analyse des données d'enquêtes complexes sur la santé par des méthodes de modélisation multivariées. L'étude porte principalement sur diverses méthodes basées sur le plan d'échantillonnage ou basées sur un modèle qui visent à tenir compte de la complexité du plan d'échantillonnage, y compris la mise en grappes, la stratification et la pondération. Les méthodes étudiées incluent la modélisation linéaire généralisée fondée sur la pseudo-méthode de vraisemblance et les équations d'estimations généralisées, les modèles linéaires mixtes estimés par le maximum de vraisemblance restreint et les techniques hiérarchiques bayesiennes basées sur les méthodes de simulation de Monte Carlo d'une chaîne de Markov (MCMC). On compare empiriquement les méthodes sur des données provenant d'une grande enquête comprenant une interview sur la santé et un examen physique réalisés en Finlande en 2000 (Health 2000 Study).

    Les données de la Health 2000 Study ont été recueillies au moyen d'interviews sur place, de questionnaires et d'examens cliniques. L'enquête a été réalisée auprès d'un échantillon en grappes stratifié à deux degrés. Le plan d'échantillonnage comportait des corrélations intra grappes positives pour nombre de variables étudiées. En vue d'une étude plus approfondie, on a choisi un petit nombre de variables tirées des volets de l'interview sur la santé et de l'examen clinique. Dans de nombreux cas, les diverses méthodes ont produit des résultats numériques comparables et appuyés des conclusions statistiques similaires. Celles qui ne tenaient pas compte de la complexité du plan d'échantillonnage ont parfois produit des conclusions contradictoires. On discute aussi de l'application des méthodes lors de l'utilisation de logiciels statistiques standards.

    Date de diffusion : 2004-09-13

  • Articles et rapports : 11-522-X20020016717
    Description :

    Aux États-Unis, la National Health and Nutrition Examination Survey (NHANES) est couplée à la National Health Interview Survey (NHIS) au niveau de l'unité primaire d'échantillonnage (les mêmes comtés, mais pas nécessairement les mêmes personnes, participent aux deux enquêtes). La NHANES est réalisée auprès d'environ 5 000 personnes par année, tandis que la NHIS l'est auprès d'environ 100 000 personnes par année. Dans cet article, on expose les propriétés de modèles qui permettent d'utiliser les données de la NHIS et des données administratives comme information auxiliaire pour estimer les valeurs des variables étudiées dans le cadre de la NHANES. La méthode, qui est apparentée aux modèles régionaux de Fay Herriot (1979) et aux estimateurs par calage de Deville et Sarndal (1992), tient compte des plans de sondage dans la structure de l'erreur.

    Date de diffusion : 2004-09-13

  • Articles et rapports : 11-522-X20020016719
    Description :

    Dans cette étude, on examine les méthodes de modélisation utilisées pour les données sur la santé publique. Les spécialistes de la santé publique manifestent un regain d'intérêt pour l'étude des effets de l'environnement sur la santé. Idéalement, les études écologiques ou contextuelles explorent ces liens au moyen de données sur la santé publique étoffées de données sur les caractéristiques environnementales à l'aide de modèles multiniveaux ou hiérarchiques. Dans ces modèles, le premier niveau correspond aux données des personnes sur la santé et le deuxième, aux données des collectivités. La plupart des données sur la santé publique proviennent d'enquêtes à plan d'échantillonnage complexe qui obligent, lors de l'analyse, à tenir compte de la mise en grappes, de la non-réponse et de la post-stratification pour obtenir des estimations représentatives de la prévalence des comportements posant un risque pour la santé.

    Cette étude est basée sur le Behavioral Risk Factor Surveillance System (BRFSS). Il s'agit d'un système américain de surveillance des facteurs de risque pour la santé selon l'État exploité par les Centers for Disease Control and Prevention en vue d'évaluer chaque année les facteurs de risque pour la santé chez plus de 200 000 adultes. Les données du BRFSS sont maintenant produites à l'échelle de la région métropolitaine statistique (MSA pour metropolitan statistical area) et fournissent des données de qualité sur la santé pour les études des effets de l'environnement. Les exigences conjuguées du plan d'échantillonnage et des analyses à plusieurs niveaux compliquent encore davantage les analyses à l'échelle de la MSA combinant les données sur la santé et sur l'environnement.

    On compare trois méthodes de modélisation dans le cadre d'une étude sur l'activité physique et certains facteurs environnementaux à l'aide de données du BRFSS de 2000. Chaque méthode décrite ici est un moyen valide d'analyser des données d'enquête à plan d'échantillonnage complexe complétées de données environnementales, quoique chacune tienne compte de façon différente du plan d'échantillonnage et de la structure multiniveau des données. Ces méthodes conviennent donc à l'étude de questions légèrement différentes.

    Date de diffusion : 2004-09-13

  • Articles et rapports : 11-522-X20020016727
    Description :

    Les données tirées du recensement sont largement utilisées pour procéder à la répartition et au ciblage des ressources aux échelons national, régional et local. Au Royaume-Uni, un recensement de la population est mené tous les 10 ans. En s'éloignant de la date du recensement, les données du recensement deviennent périmées et moins pertinentes, ce qui rend la répartition des ressources moins équitable. Dans cette étude, on analyse les différentes méthodes pour résoudre ce problème.

    Plusieurs méthodes aréolaires ont été mises au point pour produire des estimations postcensitaires, y compris la technique d'estimation préservant la structure mise au point par Purcell et Kish (1980). Cette étude porte sur la méthode de modélisation linéaire variable pour produire des estimations postcensitaires. On teste la validité de la méthode au moyen de données simulées à partir du registre de population de la Finlande et on applique la technique aux données britanniques pour produire des estimations mises à jour pour plusieurs indicateurs du recensement de 1991.

    Date de diffusion : 2004-09-13

  • Articles et rapports : 11-522-X20020016730
    Description :

    Une vaste gamme de modèles utilisés dans le domaine de la recherche sociale et économique peuvent être représentés en spécifiant une structure paramétrique pour les covariances des variables observées. L'existence de logiciels tels que LISREL (Jöreskog et Sörbom, 1988) et EQS (Bentler, 1995) a permis d'ajuster ces modèles aux données d'enquêtes dans de nombreuses applications. Dans cet article, on étudie deux inférences au sujet de ce genre de modèle en utilisant des données d'enquêtes à plan d'échantillonnage complexe. On examine les preuves de l'existence de biais d'échantillon fini dans l'estimation des paramètres et les moyens de réduire ces biais (Altonji et Segal, 1996), ainsi que les questions connexes de l'efficacité de l'estimation, de l'estimation de l'erreur type et des tests. On utilise des données longitudinales provenant de la British Household Panel Survey en guise d'illustration. La collecte de ces données étant sujette à l'érosion de l'échantillon, on examine aussi comment utiliser des poids de non réponse dans la modélisation.

    Date de diffusion : 2004-09-13

  • Articles et rapports : 11-522-X20020016731
    Description :

    En recherche behavioriste, diverses techniques sont utilisées pour prédire les scores des répondants pour des facteurs ou des concepts que l'on ne peut observer directement. La satisfaction concernant l'emploi, le stress au travail, l'aptitude à poursuivre des études de deuxième ou de troisième cycle et les aptitudes mathématiques des enfants en sont des exemples. Les méthodes utilisées couramment pour modéliser ce genre de concepts incluent l'analyse factorielle, la modélisation d'équation structurelle, les échelles psychométriques classiques et la théorie de la réponse à l'item, et, pour chaque méthode, il existe souvent plusieurs stratégies distinctes permettant de produire des scores individuels. Cependant, les chercheurs se satisfont rarement de simples mesures de ces concepts. Souvent, ils utilisent des scores dérivés en tant que variables dépendantes ou indépendantes dans la régression multiple, l'analyse de la variance et de nombreuses autres procédures multivariées. Bien que ces applications de scores dérivés puissent produire des estimations biaisées des paramètres des modèles structuraux, ces difficultés sont mal comprises et souvent ignorées. Nous passerons en revue les publications qui traitent de la question, en mettant l'accent sur les méthodes de la TRI, en vue de déterminer quels sont les domaines problématiques et de formuler des questions à étudier dans l'avenir.

    Date de diffusion : 2004-09-13
Références (0)

Références (0) (0 résultat)

Aucun contenu disponible actuellement

Date de modification :