Recherche par mot-clé

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (139)

Tout (139) (0 à 10 de 139 résultats)

  • Articles et rapports : 12-001-X202300100002
    Description : Nous envisageons ici l’analyse de régression dans le contexte de l’intégration de données. Pour combiner des renseignements partiels de sources externes, nous utilisons l’idée de calage assisté par un modèle qui introduit un modèle « de travail » réduit fondé sur les covariables observées. Ce modèle de travail réduit n’est pas nécessairement spécifié correctement, mais il peut être un outil utile pour intégrer les renseignements partiels provenant de données externes. La mise en œuvre en tant que telle est fondée sur une application nouvelle de la projection d’information et de la pondération par calage du modèle. La méthode proposée est particulièrement intéressante pour combiner des renseignements de plusieurs sources présentant différentes tendances en matière de données manquantes. La méthode est appliquée à un exemple de données réelles combinant les données d’enquête de l'enquête KNHANES (enquête nationale coréenne sur la santé et la nutrition) et les mégadonnées du NHISS (service national coréen de partage de l’assurance maladie).
    Date de diffusion : 2023-06-30

  • Articles et rapports : 11-522-X202100100009
    Description :

    Le recours à des données auxiliaires pour améliorer l’efficacité d’estimateurs de totaux et de moyennes au moyen d’une procédure d’estimation d’enquête assistée par un modèle de régression a reçu une attention considérable ces dernières années. Des estimateurs par la régression généralisée (GREG), fondés sur un modèle de régression linéaire, sont actuellement utilisés dans le cadre d’enquêtes auprès d’établissements, à Statistique Canada et au sein de plusieurs autres organismes de statistiques. Les estimateurs GREG utilisent des poids d’enquête communs à toutes les variables d’étude et un calage aux totaux de population de variables auxiliaires. De plus en plus de variables auxiliaires sont disponibles et certaines peuvent être superflues. Cela mène à des poids GREG instables lorsque toutes les variables auxiliaires disponibles, y compris les interactions parmi les variables catégoriques, sont utilisées dans le modèle de régression linéaire. En revanche, de nouvelles méthodes d’apprentissage automatique, comme les arbres de régression et la méthode LASSO, sélectionnent automatiquement des variables auxiliaires significatives et mènent à des poids non négatifs stables et à d’éventuels gains d’efficacité par rapport à la méthode GREG. Dans cet article, une étude par simulations, fondée sur un ensemble de données-échantillon d’une enquête-entreprise réelle traité comme la population cible, est menée afin d’examiner le rendement relatif de la méthode GREG, d’arbres de régression et de la méthode LASSO sur le plan de l’efficacité des estimateurs.

    Mots-clés : inférence assistée par modèle; estimation par calage; sélection du modèle; estimateur par la régression généralisée.

    Date de diffusion : 2021-10-29

  • Articles et rapports : 12-001-X201600114541
    Description :

    Le présent travail a pour objet de comparer des estimateurs non paramétriques pour des fonctions de répartition de populations finies fondés sur deux types de valeurs prédites, à savoir celles données par l’estimateur bien connu de Kuo et une version modifiée de ces dernières, qui intègre une estimation non paramétrique de la fonction de régression à la moyenne. Pour chaque type de valeurs prédites, nous considérons l’estimateur fondé sur un modèle correspondant et, après incorporation des poids de sondage, l’estimateur par la différence généralisée. Nous montrons sous des conditions assez générales que le terme principal de l’erreur quadratique moyenne sous le modèle n’est pas affecté par la modification des valeurs prédites, même si cette modification réduit la vitesse de convergence pour le biais sous le modèle. Les termes d’ordre deux des erreurs quadratiques moyennes sous le modèle sont difficiles à obtenir et ne seront pas calculés dans le présent article. La question est de savoir si les valeurs prédites modifiées offrent un certain avantage du point de vue de l’approche fondée sur un modèle. Nous examinons aussi les propriétés des estimateurs sous le plan de sondage et proposons pour l’estimateur par la différence généralisée un estimateur de variance fondé sur les valeurs prédites modifiées. Enfin, nous effectuons une étude en simulation. Les résultats des simulations laissent entendre que les valeurs prédites modifiées entraînent

    Date de diffusion : 2016-06-22

  • Articles et rapports : 12-001-X201600114543
    Description :

    L’estimateur par régression est utilisé de façon intensive en pratique, car il peut améliorer la fiabilité de l’estimation des paramètres d’intérêt tels que les moyennes ou les totaux. Il utilise les totaux de contrôle des variables connues au niveau de la population qui sont incluses dans le modèle de régression. Dans cet article, nous examinons les propriétés de l’estimateur par régression qui utilise les totaux de contrôle estimés à partir de l’échantillon, ainsi que ceux connus au niveau de la population. Cet estimateur est comparé aux estimateurs par régression qui utilisent uniquement les totaux connus du point de vue théorique et par simulation.

    Date de diffusion : 2016-06-22

  • Articles et rapports : 12-001-X201600114545
    Description :

    L’estimation des quantiles est une question d’intérêt dans le contexte non seulement de la régression, mais aussi de la théorie de l’échantillonnage. Les expectiles constituent une solution de rechange naturelle ou un complément aux quantiles. En tant que généralisation de la moyenne, les expectiles ont gagné en popularité ces dernières années parce qu’en plus d’offrir un portrait plus détaillé des données que la moyenne ordinaire, ils peuvent servir à calculer les quantiles grâce aux liens étroits qui les associent à ceux-ci. Nous expliquons comment estimer les expectiles en vertu d’un échantillonnage à probabilités inégales et comment les utiliser pour estimer la fonction de répartition. L’estimateur ajusté de la fonction de répartition obtenu peut être inversé pour établir les estimations des quantiles. Nous réalisons une étude par simulations pour examiner et comparer l’efficacité de l’estimateur fondé sur des expectiles.

    Date de diffusion : 2016-06-22

  • Articles et rapports : 12-001-X201500214236
    Description :

    Nous proposons une extension assistée par modèle des mesures de l’effet de plan dû à la pondération. Nous élaborons une statistique de niveau sommaire pour différentes variables d’intérêt, sous échantillonnage à un degré et ajustement des poids par calage. La mesure de l’effet de plan que nous proposons traduit les effets conjoints d’un plan d’échantillonnage avec probabilités de sélection inégales, des poids inégaux produits en utilisant des ajustements par calage et de la force de l’association entre la variable d’analyse et les variables auxiliaires utilisées pour le calage. Nous comparons la mesure proposée aux mesures existantes de l’effet de plan au moyen de simulations en utilisant des variables semblables à celles pour lesquelles des données sont recueillies dans les enquêtes auprès des établissements et dans les enquêtes téléphoniques auprès des ménages.

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201500114160
    Description :

    L’estimation composite est une technique applicable aux enquêtes répétées avec chevauchement contrôlé entre les enquêtes successives. Le présent article examine les estimateurs par la régression modifiée qui permettent d’intégrer l’information provenant de périodes antérieures dans les estimations pour la période courante. La gamme d’estimateurs par la régression modifiée est étendue au cas des enquêtes-entreprises dont la base de sondage évolue avec le temps en raison de l’ajout des « nouvelles entreprises » et de la suppression des « entreprises disparues ». Puisque les estimateurs par la régression modifiée peuvent s’écarter de l’estimateur par la régression généralisée au cours du temps, il est proposé d’utiliser un estimateur par la régression modifiée de compromis correspondant à la moyenne pondérée de l’estimateur par la régression modifiée et de l’estimateur par la régression généralisée. Une étude par simulation Monte Carlo montre que l’estimateur par la régression modifiée de compromis proposé donne lieu à d’importants gains d’efficacité en ce qui concerne les estimations ponctuelles ainsi que les estimations des variations.

    Date de diffusion : 2015-06-29

  • Articles et rapports : 12-001-X201500114174
    Description :

    L’échantillonnage matriciel, aussi appelé échantillonnage avec questionnaire fractionné ou scindé, est un plan d’échantillonnage qui consiste à diviser un questionnaire en sous-ensembles de questions, éventuellement chevauchants, puis à administrer chaque sous-ensemble à un ou à plusieurs sous-échantillons aléatoires d’un échantillon initial. Ce type de plan, de plus en plus attrayant, répond aux préoccupations concernant les coûts de la collecte, le fardeau de réponse et la qualité des données, mais réduit le nombre d’unités échantillonnées auxquelles les questions sont posées. Un concept élargi du plan d’échantillonnage matriciel comprend l’intégration d’échantillons provenant d’enquêtes distinctes afin de rationaliser les opérations d’enquête et d’accroître la cohérence des données de sortie. Dans le cas de l’échantillonnage matriciel avec sous-ensembles chevauchants de questions, nous proposons une méthode d’estimation efficace qui exploite les corrélations entre les items étudiés dans les divers sous-échantillons afin d’améliorer la précision des estimations de l’enquête. La méthode proposée, fondée sur le principe de la meilleure estimation linéaire sans biais, produit des estimateurs par régression optimale composites des totaux de population en utilisant un scénario approprié de calage des poids d’échantillonnage de l’échantillon complet. Une variante de ce scénario de calage, d’usage plus général, produit des estimateurs par régression généralisée composites qui sont également très efficaces sur le plan des calculs.

    Date de diffusion : 2015-06-29

  • Articles et rapports : 12-001-X201500114200
    Description :

    Nous considérons la méthode de la meilleure prédiction observée (MPO; Jiang, Nguyen et Rao 2011) pour l’estimation sur petits domaines sous le modèle de régression à erreurs emboîtées, où les fonctions moyenne et variance peuvent toutes deux être spécifiées inexactement. Nous montrons au moyen d’une étude par simulation que la MPO peut donner de nettement meilleurs résultats que la méthode du meilleur prédicteur linéaire sans biais empirique (MPLSBE) non seulement en ce qui concerne l’erreur quadratique moyenne de prédiction (EQMP) globale, mais aussi l’EQMP au niveau du domaine pour chacun des petits domaines. Nous proposons, pour estimer l’EQMP au niveau du domaine basée sur le plan de sondage, une méthode du bootstrap simple qui produit toujours des estimations positives de l’EQMP. Nous évaluons les propriétés de l’estimateur de l’EQMP proposé au moyen d’une étude par simulation. Nous examinons une application à la Television School and Family Smoking Prevention and Cessation study.

    Date de diffusion : 2015-06-29

  • Articles et rapports : 12-001-X201400111886
    Description :

    L'estimateur bayésien linéaire en population finie est obtenu en partant d'un modèle de régression à deux degrés spécifié uniquement par les moyennes et les variances de certains paramètres du modèle associés à chaque degré de la hiérarchie. Nombre d'estimateurs fondés sur le plan de sondage usuels décrits dans la littérature peuvent être obtenus en tant que cas particuliers. Un nouvel estimateur par le ratio est également proposé pour la situation pratique où de l'information auxiliaire est disponible. L'application de la même approche bayésienne linéaire est proposée pour estimer des proportions pour des données catégoriques multiples associées aux unités de la population finie, ce qui constitue la principale contribution des présents travaux, et est illustrée au moyen d'un exemple numérique.

    Date de diffusion : 2014-06-27
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (129)

Analyses (129) (40 à 50 de 129 résultats)

  • Articles et rapports : 11-522-X200600110416
    Description :

    L'application des méthodes normalisées à des données d'enquête en omettant de tenir compte des caractéristiques du plan de sondage et des redressements de la pondération peut aboutir à des inférences erronées. Les méthodes bootstrap offrent une option intéressante à l'analyste qui veut en tenir compte. Le fichier de données comprend les poids de sondage finals pour l'échantillon complet et les poids bootstrap finals connexes pour un grand nombre de répliques bootstrap, ainsi que les données observées sur les unités de l'échantillon. Nous montrons comment ce genre de fichier peut être utilisé pour analyser les données d'enquête de façon simple à l'aide d'équations d'estimation pondérées. Nous discutons aussi d'une méthode bootstrap à fonction d'estimation en une étape qui permet d'éviter certaines difficultés que pose le bootstrap.

    Date de diffusion : 2008-03-17

  • Articles et rapports : 12-001-X200700210488
    Description :

    Le calage est le thème central de nombreux articles récents sur l'estimation dans le contexte de l'échantillonnage. Des expressions telles que « méthode de calage » et « estimateur par calage » sont fréquentes. Comme tiennent à le souligner les auteurs de ces articles, le calage offre un moyen systématique d'intégrer des données auxiliaires dans la procédure.

    Le calage est devenu un instrument méthodologique important dans la production de statistiques à grande échelle. Plusieurs organismes statistiques nationaux ont conçu des logiciels de calcul des poids, qui sont généralement calés sur les données auxiliaires disponibles dans les registres administratifs et d'autres sources de données fiables. Le présent article fait le point sur la méthode de calage en mettant l'accent sur les progrès accomplis depuis une dizaine d'années. Le nombre d'études sur le calage augmente rapidement et nous abordons ici certaines des questions soulevées.

    L'article débute par une définition de la méthode de calage, suivie d'une revue des caractéristiques importantes de cette méthode. L'estimation par calage est comparée à l'estimation par la régression (généralisée), qui est un autre moyen, conceptuellement différent, de tenir compte de l'information auxiliaire. Vient ensuite une discussion des aspects mathématiques du calage, y compris les méthodes permettant d'éviter les poids extrêmes. Dans les premières sections sont décrites des applications simples de la méthode, c'est-à-dire l'estimation d'un total de population sous échantillonnage direct, à une seule phase. Puis est envisagée la généralisation à des paramètres et à des plans d'échantillonnage plus complexes. Un trait commun de ces plans (à au moins deux phases ou deux degrés) est que l'information auxiliaire disponible peut comporter plusieurs composantes ou couches. L'application du calage dans de tels cas d'information composite est passée en revue. Plus loin, des exemples sont donnés pour illustrer comment les résultats de l'approche du calage peuvent différer de ceux obtenus grâce aux approches établies antérieurement. Enfin sont discutées des applications du calage en présence d'erreurs non dues à l'échantillonnage, en particulier les méthodes de correction du biais de non-réponse.

    Date de diffusion : 2008-01-03

  • Articles et rapports : 12-001-X20070019847
    Description :

    Nous étudions l'effet de l'échantillonnage en grappes sur les erreurs-types dans l'analyse des données d'enquête longitudinale. Nous considérons une classe de modèles de régression pour données longitudinales d'usage très répandu et une classe standard d'estimateurs ponctuels de type moindres carrés généralisés. Nous soutenons théoriquement que l'effet de la non prise en compte de la mise en grappes dans l'estimation de l'erreur type a tendance à augmenter avec le nombre de vagues de l'enquête incluses dans l'analyse, sous certains scénarios de mise en grappes raisonnables pour de nombreuses enquêtes sociales. La conséquence est qu'en général, il est au moins aussi important de tenir compte de la mise en grappes dans le calcul des erreurs types dans le cas des analyses longitudinales que dans celui des analyses transversales. Nous illustrons cet argument théorique à l'aide des résultats empiriques d'une analyse par régression de données longitudinales sur les attitudes à l'égard des rôles de l'homme et de la femme provenant de l'enquête par panel menée auprès des ménages au Royaume-Uni (British Household Panel Survey). Nous comparons aussi deux approches d'estimation de la variance dans l'analyse des données d'enquête longitudinale, à savoir une approche par plan de sondage basée sur la linéarisation et une approche par modélisation multiniveaux. Nous concluons que l'effet de la mise en grappes peut être sérieusement sous estimé si l'on se contente, en vue d'en tenir compte, d'inclure un effet aléatoire additif pour représenter la mise en grappes dans un modèle multiniveaux.

    Date de diffusion : 2007-06-28

  • Articles et rapports : 12-001-X20070019848
    Description :

    Nous étudions certaines modifications du modèle de Cox à période unique classique afin de traiter les périodes multiples chez une même personne lorsque les données sont recueillies dans le cadre d'une enquête longitudinale à plan d'échantillonnage complexe. L'une des modifications est l'utilisation d'une approche fondée sur le plan de sondage pour l'estimation des coefficients du modèle et de leurs variances; dans l'estimation de la variance, chaque individu est traité comme une grappe de périodes, ce qui ajoute un degré supplémentaire de mise en grappes dans le plan de sondage. D'autres modifications du modèle ont pour but de rendre souple la spécification du risque de base afin de tenir compte de la dépendance différentielle éventuelle du risque à l'égard de l'ordre et de la durée des périodes successives, et de tenir compte aussi des effets différentiels des covariables sur les périodes de différents ordres. Ces approches sont illustrées en utilisant des données provenant de l'Enquête sur la dynamique du travail et du revenu (EDTR) réalisée au Canada.

    Date de diffusion : 2007-06-28

  • Articles et rapports : 12-001-X20070019849
    Description :

    Dans les sondages où les unités ont des probabilités inégales d'inclusion dans l'échantillon, les associations entre la probabilité d'inclusion et la statistique d'intérêt peuvent causer un biais. Des poids égaux à l'inverse de la probabilité d'inclusion sont souvent utilisés pour neutraliser ce biais. Les plans de sondage fortement disproportionnels comportent des poids de valeur élevée qui peuvent introduire une variabilité indésirable dans les statistiques telles que l'estimateur de la moyenne de population ou l'estimateur de la pente de la régression de population. La réduction des poids consiste à modifier ceux dont la valeur est élevée à une valeur seuil fixe et à ajuster ceux inférieurs à cette valeur de façon à ce que la somme de ces poids réduits demeure égale à la somme des poids non réduits, ce qui réduit la variabilité au prix de l'introduction d'un certain biais. La plupart des approches ordinaires sont ponctuelles en ce sens qu'elles n'utilisent pas les données en vue d'optimiser le compromis entre le biais et la variance. Les approches dictées par les données qui sont décrites dans la littérature sont un peu plus efficaces que les estimateurs entièrement pondérés. Dans le présent article, nous élaborons des méthodes bayésiennes de réduction des poids d'estimateurs par la régression linéaire et par la régression linéaire généralisée sous des plans de sondage avec probabilités d'inclusion inégales. Nous décrivons une application à l'estimation du risque de blessure chez les enfants installés sur le siège arrière dans les camionnettes compactes à cabine allongée à l'aide des données de la Partners for Child Passenger Safety surveillance survey.

    Date de diffusion : 2007-06-28

  • Articles et rapports : 12-001-X20070019850
    Description :

    De l'information auxiliaire est souvent utilisée pour améliorer la précision des estimateurs des moyennes et des totaux de population finie grâce à des techniques d'estimation par le ratio ou par la régression linéaire. Les estimateurs résultants ont de bonnes propriétés théoriques et pratiques, dont l'invariance, le calage et la convergence par rapport au plan de sondage. Cependant, il n'est pas toujours certain que les modèles de ratio et les modèles linéaires sont de bonnes approximations de la relation réelle entre les variables auxiliaires et la variable d'intérêt, ce qui cause une perte d'efficacité si le modèle n'est pas approprié. Dans le présent article, nous expliquons comment on peut étendre l'estimation par la régression afin d'intégrer des modèles de régression semi­paramétriques dans le cas de plans de sondage simples ainsi que plus complexes. Tout en retenant les bonnes propriétés théoriques et pratiques des modèles linéaires, les modèles semi­paramétriques reflètent mieux les relations complexes entre les variables, ce qui se traduit souvent par des gains importants d'efficacité. Nous illustrerons l'applicabilité de l'approche à des plans de sondage complexes comportant de nombreux types de variables auxiliaires en estimant plusieurs caractéristiques liées à l'acidification dans le cas d'une enquête sur les lacs du Nord­Est des États­Unis.

    Date de diffusion : 2007-06-28

  • Articles et rapports : 12-001-X20070019852
    Description :

    Une classe courante de plans de sondage comprend la sélection de toutes les personnes dans les ménages échantillonnés. Des estimateurs par la régression généralisée peuvent être calculés au niveau de la personne ou du ménage. L'utilisation de l'estimateur au niveau du ménage est commode parce que la même pondération d'estimation est appliquée à tous les membres du ménage. Dans le présent article, nous comparons théoriquement et empiriquement les deux approches dans le cas de l'échantillonnage aléatoire simple de ménages et la sélection de toutes les personnes présentes dans chaque ménage échantillonné. Nous constatons que l'approche au niveau du ménage est théoriquement plus efficace dans le cas de grands échantillons et que toute inefficacité empirique dans les petits échantillons est limitée.

    Date de diffusion : 2007-06-28

  • Articles et rapports : 12-001-X20070019853
    Description :

    L'échantillonnage à deux phases est un plan utile lorsque l'on ne dispose pas de variables auxiliaires a priori. L'estimation de la variance sous ce plan est toutefois compliquée, particulièrement si les fractions d'échantillonnage sont grandes. Le présent article décrit une méthode bootstrap simple pour l'échantillonnage aléatoire simple à deux phases sans remise à chaque phase avec fraction d'échantillonnage élevée. Elle est applicable à l'estimation des fonctions de répartition et des quantiles, puisqu'aucune remise à l'échelle n'est effectuée. La méthode peut être étendue à l'échantillonnage à deux phases stratifié en répétant indépendamment la procédure proposée dans diverses strates. L'estimation de la variance de certains estimateurs classiques, comme les estimateurs par le ratio et par la régression, est étudiée à titre d'exemple. Une étude par simulation est réalisée pour comparer la méthode proposée aux estimateurs de la variance existants pour l'estimation des fonctions de répartition et des quantiles.

    Date de diffusion : 2007-06-28

  • Articles et rapports : 11-522-X20050019473
    Description :

    La communication donnera un bref aperçu de certaines techniques, en soulignant les avantages et les inconvénients de chacune, et en insistant particulièrement sur les types de données habituellement rencontrés dans les sciences sociales. L'aperçu traitera des méthodes naïves fondées sur l'utilisation de scores pour variables latentes et sur des méthodes visant à corriger et/ou à éviter les biais associés à ce genre d'analyse. La communication se conclura par une brève description de certaine applications récentes à la régression probit et logistique avec variables prédictives latentes, et par des suggestions de futurs travaux de recherche.

    Date de diffusion : 2007-03-02

  • Articles et rapports : 11-522-X20050019481
    Description :

    L'Enquête sur l'emploi, la rémunération et les heures est une enquête mensuelle utilisant deux sources de données, soit un recensement de dossiers administratifs et une enquête auprès d'établissements. Les données d'enquête permettent de construire des modèles qui servent à imputer massivement un éventail de variables dérivées sur la source administrative. Ce plan de sondage repose sur le fait que les concepts d'emploi et de paye mensuelle brute sont les mêmes sur les deux sources. Dans cette présentation, nous décrirons différentes solutions apportées au plan de sondage et au modèle d'imputation massive pour permettre de contourner cette différence de concepts et ainsi produire des estimations plus stables dans le temps. Des résultats sur l'estimation des gains hebdomadaires moyens à l'aide des différents scénarios complèteront l'exposé.

    Date de diffusion : 2007-03-02
Références (10)

Références (10) ((10 résultats))

  • Enquêtes et programmes statistiques — Documentation : 11-522-X20010016308
    Description :

    Cette publication comporte une description détaillée des questions techniques entourant la conception et la réalisation d'enquêtes et s'adresse surtout à des méthodologistes.

    Le Census Bureau utilise une analyse des erreurs de réponse pour évaluer l'efficacité des questions d'une enquête. Pour une enquête donnée, nous choisissons les questions à analyser que nous jugeons essentielles à l'enquête ou qui sont considérées comme problématiques à la suite d'une analyse antérieure. Les questions nouvelles ou révisées sont les plus susceptibles de faire l'objet d'une réinterview, c'est-à-dire d'une nouvelle interview qui consiste à poser de nouveau à un échantillon des répondants à l'enquête un sous-ensemble de questions provenant de l'interview originale. Pour chaque question de la réinterview, nous évaluons la proportion des répondants qui donnent des réponses incohérentes. Nous utilisons l'« indice d'incohérence » pour mesurer la variance de réponse. Pour chaque question, nous indiquons si la variance de réponse est faible, moyenne ou élevée. Dans le cas d'une variance élevée, les questions font l'objet d'un test cognitif et nous recommandons des modifications à apporter aux questions.

    Pour l'analyse des erreurs de réponse de la Schools and Staffing Survey (SASS) parrainée par le National Center for Education Statistics (NCES), nous étudions également les liens possibles entre les réponses incohérentes et les caractéristiques des écoles et des enseignants qui participent à l'enquête. On peut utiliser les résultats de cette analyse pour modifier la méthode d'enquête en vue d'améliorer la qualité des données.

    Date de diffusion : 2002-09-12

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015656
    Description :

    Les études de séries chronologiques montrent qu'il existe une association entre la concentration des polluants atmosphériques, d'une part, et la morbidité et la mortalité, d'autre part. En général, ces études sont réalisées dans une seule ville, en appliquant diverses méthodes. Les critiques concernant ces études ont trait à la validité des ensembles de données utilisés et aux méthodes statistiques qui leur sont appliquées, ainsi qu'au manque de cohérence des résultats des études menées dans des villes différentes et même des nouvelles analyses indépendantes des données d'une ville particulière. Dans le présent article, nous examinons certaines des méthodes statistiques utilisées pour analyser un sous-ensemble de données nationales sur la pollution atmosphérique, la mortalité et les conditions météorologiques recueillies durant la National Morbidity and Mortality Air Pollution Study (NMMAPS).

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015668
    Description :

    À la suite des problèmes d'estimation du sous-dénombrement qu'a posé le Recensement de l'Angleterre et du Pays de Galles de 1991, on s'est fixé comme objectif pour le Recensement de 2001 de créer une base de données entièrement corrigée pour tenir compte du sous-dénombrement net. Dans la présente communication, on examine l'application d'une méthode d'imputation pondérée par donneur qui se fonde sur des renseignements provenant tant du recensement que de l'Enquête sur la couverture du recensement (ECR). Le US Census Bureau envisage une approche similaire pour le Recensement des États-Unis de l'an 2000 (voir Isaki et coll. 1998). La méthode proposée fait la distinction entre les personnes qui ne sont pas dénombrées lors du recensement parce qu'on a manqué leur ménage et celles qui ne sont pas dénombrées dans les ménages qui ont été recensés. Les données de recensement sont couplées aux données de l'ECR. On utilise la régression logistique multinominale pour estimer la probabilité que des ménages soient omis dans le recensement, ainsi que la probabilité que des personnes ne soient pas dénombrées au sein de ménages recensés. On calcule des poids de couverture pour les ménages et pour les personnes d'après les probabilités estimatives, puis on les inègre à la méthode d'imputation par donneur.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015682
    Description :

    L'application de la méthode d'estimation à double système (EDS) aux données appariées du recensement et de l'enquête postcensitaire (EPC) afin de déterminer le sous-dénombrement net est bien comprise (Hogan, 1993). Cependant, cette méthode n'a pas été utilisée jusqu'à présent pour évaluer le sous-dénombrement net au Royaume-Uni. On l'appliquera pour la première fois à l'occasion de l'EPC de 2001. Le présent article décrit la méthodologie générale employée pour la conception de l'enquête et pour l'estimation de cette EPC (baptisée Enquête sur la couverture du Recensement de 2001). L'estimation combine l'EDS et un estimateur par quotient ou par régression. Une étude par simulations utilisant les données du Recensement de 1991 de l'Angleterre et du pays de Galles montre que le modèle du quotient est en général plus robuste que le modèle de régression.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015684
    Description :

    Il arrive souvent qu'on recueille, de façon pratiquement simultaée, la même information sur plusieurs enquêtes différentes. En France, cela est institutionnalisé dans les enquêtes auprès des ménages qui comportent un tronc commun de variables portant sur la situation démographique, l'emploi, le logement et les revenus. Ces variables sont des cofacteurs importants des variables d'intérêt de chacune des enquêtes et leur utilisation judicieuse peut permettre un renforcement des estimations dans chacune d'elle. Les techniques de calage sur information incertaine peuvent s'appliquer de façon naturelle dans ce contexte. Cela revient à rechercher le meilleur estimateur sans biais des variables communes et à caler chacune des enquêtes sur cet estimateur. Il se trouve que l'estimateur ainsi obtenu dans chaque enquête est toujours un estimateur linéaire dont les pondérations sont faciles à expliciter, que la variance s'obtient sans problème nouveau de même que l'estimation de variance. Si on veut compléter la panoplie des estimateurs par régression, on peut aussi voir cette technique comme un estimateur par ridge-regression, ou encore comme une estimation par régression bayésienne.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015688
    Description :

    Des données de sources multiples sont couplées pour examiner les liens géographique et temporel entre la pollution atmosphérique et l'asthme. Ces sources incluent les dossiers administratifs établis par 59 cabinets de médecins généralistes répartis à travers l'Angleterre et le Pays de Galles au sujet d'un demi million de patients venus à la consultation pour cause d'asthme, ainsi que des renseignements socioéconomiques recueillis dans le cadre d'une enquête par interview. Les codes postaux permettent de coupler ces données à celles sur i) la densité routière calculée pour les routes locales, ii) les émissions estimatives de dioxyde de soufre et d'oxydes d'azote, iii) la concentration de fumée noire, de dioxyde de soufre, de dioxyde d'azote et d'autres polluants mesurée ou interpolée aux emplacements des cabinets de médecins. Parallèlement, on analyse des séries chronologiques de Poisson, en tenant compte des variations entre cabinets de médecins, pour examiner les corrélations quotidiennes dans le cas des cabinets situés près des stations de surveillance de la qualité de l'air. Les analyses préliminaires montrent une association faible, en général non significative, entre les taux de consultations et les marqueurs de pollution. On examine les problèmes méthodologiques que posent la combinaison de données de ce genre et l'interprétation des résultats.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015692
    Description :

    Les tarifs d'électricité qui varient selon la période de la journée, appelés aussi tarifs horaires ou tarifs multiples, sont susceptibles d'accroître considérablement l'efficacité économique du marché de l'énergie. Plusieurs services publics d'électricité ont étudié les effets économiques des programmes de tarification selon la période de consommation offerts à leur clientèle résidentielle. On recourt ici à la méta-analyse pour regrouper les résultats de trente-huit programmes distincts en vue d'étudier l'effet des tarifs multiples sur la demande d'électricité. Quatre constations importantes se dégagent de l'analyse. Premièrement, le rapport entre le tarif de période de pointe et le tarif en période creuse doit être élevé pour que l'effet sur la demande de pointe soit important. Deuxièmement, les tarifs de période de pointe ontune incidence relativement plus importante sur la demande en été qu'en hiver. Troisièmement, les tarifs sont relativement plus efficaces s'ils sont sur une base permanente plutôt qu'expérimentale. Quatrièmement, la perception de frais en fonction de la demande concurrence les tarifs multiples ordinaires sur la demande de pointe.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19980015017
    Description :

    Les études longitudinales avec observations répétées sur des individus permettent de mieux caractériser les changements et de mieux évaluer les facteurs de risque éventuels. On possède toutefois peu d'expérience sur l'application de modèles perfectionnés à des données longitudinales avec plan d'échantillonnage complexe. Nous présentons ici les résultats d'une comparaison de différentes méthodes d'estimation de la variance applicables à des modèles à effets aléatoires évaluant l'évolution de la fonction cognitive chez les personnes âgées. Le plan d'échantillonnage consiste en un échantillon stratifié de personnes âgées de 65 ans et plus, prélevé dans le cadre d'une étude communautaire visant à examiner les facteurs de risque de la démence. Le modèle résume l'hétérogénéité de la population, en ce qui a trait au niveau global et au taux d'évolution de la fonction cognitive, en utilisant des effets aléatoires comme coordonnée à l'origine et comme pente. Nous discutons d'une méthode de régression non pondérée avec covariables représentant les variables de stratification, d'une méthode de régression pondérée et de la méthode bootstrap; nous présentons également quelques travaux préliminaires sur la méthode de répétition équilibrée et celle du jackknife.

    Date de diffusion : 1999-10-22

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19980015029
    Description :

    Dans le cas des enquêtes longitudinales, les sujets qui font partie de l'échantillon sont observés pendant plusieurs périodes. En général, cette caractéristique produit des observations dépendantes sur le même sujet, plus des corrélations ordinaires entre sujets résultant du plan d'échantillonnage. Nombre des travaux décrits dans la littérature portent surtout sur la modélisation de la moyenne marginale d'une réponse en fonction de covariables. Liang et Zeger (1986) se sont servis d'équations d'estimation généralisées nécessitant uniquement la spécification correcte de la moyenne marginale et ont obtenu les erreurs-types des estimations des paramètres de régression et les critères connexes du test de Wald, en supposant que les mesures répétées effectuées sur un sujet de l'échantillon présentent une structure de corrélation provisoire. Rotnitzky et Jewell (1990) ont développé des tests de quasi-résultat et des corrections de Rao-Scott aux tests de quasi-résultat provisoire dans le cadre de modèles marginaux. Ces méthodes sont asymptotiquement robustes en regard de la spécification erronée de la structure des corrélations propre à un sujet, mais supposent que les sujets de l'échantillon sont indépendants, ce qui n'est pas toujours vrai dans le cas de donneées d'enquêtes longitudinales complexes fondées sur un échantillonnage stratifié à plusieurs degrés. Nous proposons des tests de Wald et des tests de quasi-score asymptotiquement valides pour les données d'enquêtes longitudinales, fondés sur la méthode de linéarisation de Taylor et sur la méthode jackknife. Nous élaborons aussi d'autres tests, fondés sur les corrections apportées par Rao-Scott à des tests naïfs qui ne tiennent pas compte des caractéristiques du plan de sondage et sur les t de Bonferroni. Ces tests sont particulièrement utiles quand le nombre réel de degrés de liberté, ordinairement considéré comme égal au nombre total d'unités primaires dans l'échantillon (grappes) moins le nombre de strates, est petit.

    Date de diffusion : 1999-10-22

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19980015035
    Description :

    Dans le cadre d'une enquête longitudinale effectuée pendant k périodes, certaines unités peuvent être observées pour un nombre de périodes inférieur à k. Les enquêtes avec sous-échantillons se chevauchant partiellement, les enquêtes par panel pur avec non-réponse (une enquête par panel pur étant une enquête par panel non-complétée d'échantillons supplémentaires) et les enquêtes par panel complétées par des échantillons supplémentaires pour certaines périodes en sont des exemples. Nous présentons des estimateurs par régression pour des enquêtes de ce genre. Nous examinons une application aux études spéciales liées au National Resources Inventory.

    Date de diffusion : 1999-10-22
Date de modification :