Recherche par mot-clé
Filtrer les résultats par
Aide à la rechercheMot(s)-clé(s)
Année de publication
Résultats
Tout (16)
Tout (16) (10 à 20 de 16 résultats)
- 11. Combinaison de données provenant d'enquêtes multiples par la méthode de vraisemblance empirique ArchivéArticles et rapports : 11-522-X20030017711Description :
Dans cet article, on utilise la méthode de la pseudo-vraisemblance empirique mise au point récemment pour construire des estimateurs qui non seulement satisfont aux exigences de cohérence et d'efficacité, mais qui ont aussi des propriétés plus intéressantes.
Date de diffusion : 2005-01-26 - 12. D'appariement sur l'inférence statistique impact d'erreurs lors d'études de mortalité par cohortes ArchivéArticles et rapports : 11-522-X20010016277Description :
Cette publication comporte une description détaillée des questions techniques entourant la conception et la réalisation d'enquêtes et s'adresse surtout à des méthodologistes.
Grâce aux méthodes de couplage d'enregistrements, il est désormais plus facile d'effectuer des études de mortalité par cohortes où il y a couplage électronique des données d'exposition d'une base d'information et des données de mortalité d'une autre base. Le présent article est consacré à l'incidence des erreurs de couplage sur les estimations d'indicateurs épidémiologiques de risque comme les taux comparatifs de mortalité et les paramètres de modèles de régression de risques relatifs. Il révèle que ces indicateurs peuvent être entachés d'un biais et d'un surcroît de variabilité à cause d'erreurs de couplage, les faux liens et les non-liens introduisant un biais respectivement positif et négatif dans les estimations de taux de mortalité normalisés. Ces erreurs accroissent toujours l'incertitude des estimations, mais on peut réussir à éliminer le biais dans le cas particulier d'une égalité des faux positifs et des faux négatifs pour des états homogènes définis par un classement recoupé des covariables d'intérêt.
Date de diffusion : 2002-09-12 - 13. Dans ce numéro (Vol. 25, no. 1) ArchivéArticles et rapports : 12-001-X199900111395Description :
La rubrique Dans ce numéro contient une brève présentation par le rédacteur en chef de chacun des articles contenus dans le présent numéro de Techniques d'enquête. Aussi, on y trouve parfois quelques commentaires sur des changements dans la structure ou la gestion de la revue.
Date de diffusion : 1999-10-08 - Articles et rapports : 12-001-X19970023613Description :
Dans bien des cas, les meilleures décisions en matière de politiques sont celles qui peuvent s'appuyer sur des données statistiques, elles-mêmes obtenues d'analyses de microdonnées pertinentes. Cependant, il arrive parfois que l'on dispose de toutes les données nécessaires mais que celles-ci soient réparties entre de multiples fichiers pour lesquels il n'existe pas d'identificateurs communs (p. ex. numéro d'assurance sociale, numéro d'identification de l'employeur ou numéro de sécurité sociale). Nous proposons ici une méthode pour analyser deux fichiers de ce genre: 1) lorsqu'il existe des informations communes non uniques, sujettes à de nombreuses erreurs et 2) lorsque chaque fichier de base contient des données quantitatives non communes qui peuvent être reliées au moyen de modèles appropriés. Une telle situation peut se produire lorsqu'on utilise des fichiers d'entreprises qui n'ont en commun que l'information - difficile à utiliser - sur le nom et l'adresse, par exemple un premier fichier portant sur les produits énergétiques consommés par les entreprises et l'autre fichier regroupant les données sur le type et la quantité de biens produits. Une autre situation similaire peut survenir avec des fichiers sur des particuliers, dont le premier contiendrait les données sur les gains, le deuxième, des renseignements sur les dépenses reliées à la santé et le troisième, des données sur les revenus complémentaires. Le but de la méthode présentée est de réaliser des analyses statistiques valables, avec production ou non de fichiers de microdonnées pertinentes.
Date de diffusion : 1998-03-12 - Articles et rapports : 12-001-X19970013100Description :
Les auteurs présentent un système de procédures qui peut servir à automatiser les calculs algébriques complexes que l'on retrouve souvent en théorie des enquêtes par échantillonnage. Ils montrent que trois techniques de base en théorie de l'échantillonnage dépendent de l'application répétée de règles donnant lieu à des partitions: le calcul des valeurs espérées dans un plan d'échantillonnage quelconque à un dégré, la détermination d'estimateurs non biaisés ou convergents dans le cadre de ces plans et le développement en séries de Taylor. La méthode est appliquée ici à des calculs de moments de la moyenne de l'échantillon, de l'estimateur de quotients et de l'estimateur de la régression dans le cas spécial d'un sondage aléatoire simple sans remise. L'innovation présentée ici est que les calculs peuvent désormais être exécutés instantanément par ordinateur sans erreur et sans recours à des formules existantes possiblement longues et complexes. Un autre avantage immédiat est que les calculs peuvent être exécutés là où il n'existe actuellement aucune formule. Le code machine élaboré en vue de la mise en œuvre de cette méthode est accessible par FTP anonyme au fisher.stats.uwo.ca.
Date de diffusion : 1997-08-18 - Articles et rapports : 12-001-X199300114476Description :
Le présent article s’intéresse à la façon de traiter les erreurs de couplage d’enregistrements lorsqu’on effectue une analyse de régression. Des travaux récents de Rubin et Belin (1991) et de Winkler et Thibaudeau (1991) fournissent la théorie, les algorithmes de calcul et le logiciel nécessaires à l’estimation des probabilités de concordance. Ces progrès nous permettent de mettre à jour les travaux de Neter, Maynes et Ramanathan (1965). Des méthodes de redressement sont présentées, et certaines simulations fructueuses sont décrites. Nos résultats sont préliminaires et visent en grande partie à susciter d’autres travaux.
Date de diffusion : 1993-06-15
Données (0)
Données (0) (0 résultat)
Aucun contenu disponible actuellement
Analyses (16)
Analyses (16) (0 à 10 de 16 résultats)
- Articles et rapports : 12-001-X202300100002Description : Nous envisageons ici l’analyse de régression dans le contexte de l’intégration de données. Pour combiner des renseignements partiels de sources externes, nous utilisons l’idée de calage assisté par un modèle qui introduit un modèle « de travail » réduit fondé sur les covariables observées. Ce modèle de travail réduit n’est pas nécessairement spécifié correctement, mais il peut être un outil utile pour intégrer les renseignements partiels provenant de données externes. La mise en œuvre en tant que telle est fondée sur une application nouvelle de la projection d’information et de la pondération par calage du modèle. La méthode proposée est particulièrement intéressante pour combiner des renseignements de plusieurs sources présentant différentes tendances en matière de données manquantes. La méthode est appliquée à un exemple de données réelles combinant les données d’enquête de l'enquête KNHANES (enquête nationale coréenne sur la santé et la nutrition) et les mégadonnées du NHISS (service national coréen de partage de l’assurance maladie).Date de diffusion : 2023-06-30
- Articles et rapports : 12-001-X201400114004Description :
En 2009, deux enquêtes importantes réalisées par la division des administrations publiques du U.S. Census Bureau ont été remaniées afin de réduire la taille de l’échantillon, d’économiser des ressources et d’améliorer la précision des estimations (Cheng, Corcoran, Barth et Hogue 2009). Sous le nouveau plan de sondage, chaque strate habituelle, définie par l’État et le type d’administration publique, qui contient un nombre suffisant d’unités (administrations publiques) est divisée en deux sous strates en fonction de la masse salariale totale de chaque unité afin de tirer un plus petit échantillon de la sous strate des unités de petite taille. L’approche assistée par modèle est adoptée pour estimer les totaux de population. Des estimateurs par la régression utilisant des variables auxiliaires sont obtenus soit pour chaque sous strate ainsi créée soit pour la strate originale en regroupant des deux sous strates. Cheng, Slud et Hogue (2010) ont proposé une méthode fondée sur un test de décision qui consiste à appliquer un test d’hypothèse pour décider quel estimateur par la régression sera utilisé pour chaque strate originale. La convergence et la normalité asymptotique de ces estimateurs assistés par modèle sont établies ici sous un cadre asymptotique fondé sur le plan de sondage ou assisté par modèle. Nos résultats asymptotiques suggèrent aussi deux types d’estimateurs de variance convergents, l’un obtenu par substitution des quantités inconnues dans les variances asymptotiques et l’autre en appliquant la méthode du bootstrap. La performance de tous les estimateurs des totaux et des estimateurs de leur variance est examinée au moyen d’études empiriques. L’Annual Survey of Public Employment and Payroll (ASPEP) des États Unis est utilisé pour motiver et illustrer notre étude.
Date de diffusion : 2014-06-27 - Articles et rapports : 12-001-X201200111685Description :
Les données d'enquêtes servent souvent à ajuster des modèles de régression linéaire. Les valeurs des covariables utilisées dans la modélisation n'étant toutefois pas contrôlées comme elles pourraient l'être dans une expérience, la colinéarité entre les covariables est un problème inévitable dans l'analyse des données d'enquêtes. Même si de nombreux livres et articles ont décrit le problème de la colinéarité et proposé des stratégies en vue de comprendre, d'évaluer et de traiter sa présence, la littérature sur les méthodes d'enquête n'a livré aucun outil diagnostique approprié pour évaluer son incidence sur l'estimation par la régression quand il est tenu compte de la complexité de l'enquête. Nous avons élaboré des facteurs d'inflation de la variance qui mesurent l'augmentation (« l'inflation ») de la variance des estimateurs des paramètres attribuable au fait que les variables explicatives ne sont pas orthogonales. Les facteurs d'inflation de la variance conviennent pour les estimateurs par la régression pondérée par les poids de sondage et tiennent compte des caractéristiques du plan de sondage complexe, par exemple, les pondérations, les grappes et les strates. Ces méthodes sont illustrées en utilisant un échantillon probabiliste provenant d'une enquête-ménage sur la santé et la nutrition.
Date de diffusion : 2012-06-27 - 4. Estimation de la variance sous imputation composite : méthodologie programmée dans le SEVANI ArchivéArticles et rapports : 12-001-X201100211605Description :
L'imputation composite est fréquemment employée dans les enquêtes auprès des entreprises. Le terme « composite » signifie que l'on utilise plus d'une méthode d'imputation pour remplacer les valeurs manquantes d'une variable d'intérêt. La littérature consacrée à l'estimation de la variance sous imputation composite est peu abondante. Afin de surmonter ce problème, nous examinons une extension de la méthodologie élaborée par Särndal (1992). Cette extension est de nature assez générale et est facile à mettre en oeuvre, à condition d'utiliser des méthodes d'imputation linéaires pour remplacer les valeurs manquantes. Cette catégorie de méthodes comprend l'imputation par régression linéaire, l'imputation par donneur et l'imputation par valeur auxiliaire, parfois appelée imputation « cold deck » ou imputation par substitution. Elle englobe donc les méthodes les plus couramment utilisées par les organismes statistiques nationaux pour imputer les valeurs manquantes. Notre méthodologie a été intégrée au Système d'estimation de la variance due à la non-réponse et à l'imputation (SEVANI), mis au point à Statistique Canada. Une étude par simulation est effectuée pour en évaluer les propriétés.
Date de diffusion : 2011-12-21 - Articles et rapports : 12-001-X201100111444Description :
L'appariement des données consiste à jumeler des enregistrements issus de deux fichiers ou plus que l'on pense appartenir à une même unité (par exemple une personne ou une entreprise). Il s'agit d'un moyen très courant de renforcer la dimension temporelle ou des aspects tels que la portée ou la profondeur des détails. Souvent, le processus d'appariement des données n'est pas exempt d'erreur et peut aboutir à la formation d'une paire d'enregistrements qui n'appartiennent pas à la même unité. Alors que le nombre d'applications d'appariement d'enregistrements croît exponentiellement, peu de travaux ont porté sur la qualité des analyses effectuées en se servant des fichiers de données ainsi appariées. Traiter naïvement ces fichiers comme s'ils ne contenaient pas d'erreurs mène, en général, à des estimations biaisées. Le présent article décrit l'élaboration d'un estimateur du maximum de vraisemblance pour les tableaux de contingence et la régression logistique en présence de données incorrectement appariées. Simple, cette méthode d'estimation est appliquée en utilisant l'algorithme EM bien connu. Dans le contexte qui nous occupe, l'appariement probabiliste des données est une méthode reconnue. Le présent article démontre l'efficacité des estimateurs proposés au moyen d'une étude empirique s'appuyant sur cet appariement probabiliste.
Date de diffusion : 2011-06-29 - 6. Dans ce numéro (Vol. 35, no. 2) ArchivéArticles et rapports : 12-001-X200900211056Description :
La rubrique Dans ce numéro contient une brève présentation par le rédacteur en chef de chacun des articles contenus dans le présent numéro de Techniques d'enquête. Aussi, on y trouve parfois quelques commentaires sur des changements dans la structure ou la gestion de la revue.
Date de diffusion : 2009-12-23 - 7. Dans ce numéro (Vol. 35, no. 1) ArchivéArticles et rapports : 12-001-X200900110892Description :
La rubrique Dans ce numéro contient une brève présentation par le rédacteur en chef de chacun des articles contenus dans le présent numéro de Techniques d'enquête. Aussi, on y trouve parfois quelques commentaires sur des changements dans la structure ou la gestion de la revue.
Date de diffusion : 2009-06-22 - 8. Dans ce numéro (Vol. 34, no. 1) ArchivéArticles et rapports : 12-001-X200800110642Description :
La rubrique Dans ce numéro contient une brève présentation par le rédacteur en chef de chacun des articles contenus dans le présent numéro de Techniques d'enquête. Aussi, on y trouve parfois quelques commentaires sur des changements dans la structure ou la gestion de la revue.
Date de diffusion : 2008-06-26 - Articles et rapports : 11-522-X20050019473Description :
La communication donnera un bref aperçu de certaines techniques, en soulignant les avantages et les inconvénients de chacune, et en insistant particulièrement sur les types de données habituellement rencontrés dans les sciences sociales. L'aperçu traitera des méthodes naïves fondées sur l'utilisation de scores pour variables latentes et sur des méthodes visant à corriger et/ou à éviter les biais associés à ce genre d'analyse. La communication se conclura par une brève description de certaine applications récentes à la régression probit et logistique avec variables prédictives latentes, et par des suggestions de futurs travaux de recherche.
Date de diffusion : 2007-03-02 - Articles et rapports : 12-001-X20050018083Description :
L'élaboration de la méthodologie de couplage informatisé d'enregistrements a facilité la réalisation d'études cohorte de mortalité dans lesquelles les données sur l'exposition provenant d'une base de données sont couplées électroniquement à celles sur la mortalité provenant d'une autre base de données. Cependant, cette méthode donne lieu à des erreurs de couplage causées par l'appariement incorrect d'une personne figurant dans l'une des bases de données à une personne différente dans l'autre base de données. Dans le présent article, nous examinons l'effet des erreurs de couplage sur les estimations d'indicateurs épidémiologiques du risque, comme les ratios standardisés de mortalité et les paramètres des modèles de régression du risque relatif. Nous montrons que les effets sur les nombres observé et attendu de décès sont de sens opposé et que, par conséquent, ces indicateurs peuvent présenter un biais et une variabilité supplémentaire en présence d'erreurs de couplage.
Date de diffusion : 2005-07-21
Références (0)
Références (0) (0 résultat)
Aucun contenu disponible actuellement
- Date de modification :