Recherche par mot-clé

Aide à l'ordre
entrées

Résultats

Tout (88)

Tout (88) (20 à 30 de 88 résultats)

  • Articles et rapports : 11-522-X200600110390
    Description :

    Nous proposons un modèle linéaire généralisé avec composantes aléatoires additives (GLMARC pour generalized linear model with additive random components) de niveau agrégé applicable aux dénombrements binaires provenant d'enquêtes. Ce modèle comporte une partie linéaire (pour les effets aléatoires) et une partie non linéaire (pour les effets fixes) pour la modélisation de la fonction de moyenne et appartient donc à la classe des modèles mixtes linéaires et non linéaires (MLNL). Il permet d'adopter une approche de type modèle linéaire mixte (LMM) pour l'estimation sur petits domaines (EPD) semblable dans une certaine mesure à la méthode bien connue de Fay Herriot (1979) et tient donc compte du plan d'échantillonnage. Contrairement à l'approche bayésienne hiérarchique (BH) de You et Rao (2002), la méthode proposée donne lieu à des estimations sur petits domaines et des diagnostics fréquentistes faciles à interpréter, ainsi qu'à un auto étalonnage reposant sur des estimations directes fiables sur grands domaines. La méthodologie habituelle des LMM ne convient pas dans le cas de dénombrements, à cause de l'absence de contraintes d'intervalle pour la fonction de moyenne et de la possibilité d'obtenir des estimations non raisonnables (p. ex. 0 dans le contexte de l'EPD) des composantes de variance, car le modèle ne permet pas que la partie des effets aléatoires de la fonction de moyenne conditionnelle dépende de la moyenne marginale. La méthode proposée est une amélioration de la méthode élaborée antérieurement par Vonesh et Carter (1992) qui s'appuyait aussi sur des modèles mixtes linéaires et non linéaires, mais qui ne tenait pas compte de la relation entre la variance et la moyenne, quoique cela se fasse habituellement par des contraintes d'intervalle pour les effets aléatoires. En outre, les effets du plan de sondage et l'estimation des effets aléatoires n'étaient pas envisagés. En revanche, dans notre application à l'estimation sur petits domaines, il est important d'obtenir des estimations appropriées des effets fixes ainsi qu'aléatoires. Il convient de souligner que, contrairement au modèle linéaire mixte généralisé (GLMM), le modèle GLMARC se caractérise, comme les LMM, par une grande simplicité d'ajustement. Cette dernière est due au remplacement des effets fixes et aléatoires originaux du GLMM par un nouvel ensemble de paramètres du GLMARC dont l'interprétation est assez différente, car l'effet aléatoire n'est plus intégré dans la fonction prédictrice non linéaire. Toutefois, cela n'a aucune conséquence pour estimation sur petits domaines, parce que les paramètres de petit domaine correspondent aux moyennes conditionnelles globales et non aux paramètres individuels du modèle. Nous proposons pour l'estimation des paramètres une méthode s'appuyant sur l'application itérative du meilleur prédicteur linéaire sans biais (BLUP pour best linear unbiased predictor) qui permet l'auto étalonnage après un agrandissement approprié du modèle. Le problème des petits domaines pour lesquels la taille d'échantillon est faible, voire nulle, ou des estimations directes nulles est résolu en regroupant les domaines pour l'étape de l'estimation des paramètres uniquement. L'application du modèle à l'Enquête sur la santé dans les collectivités canadiennes de 2000 2001 en vue d'estimer la proportion de fumeurs quotidiens dans les sous populations définies par les régions sociosanitaires provinciales selon le groupe âge sexe est présentée à titre d'illustration.

    Date de diffusion : 2008-03-17

  • Articles et rapports : 11-522-X200600110391
    Description :

    L'estimation sur petits domaines au moyen de modèles linéaires au niveau du domaine repose habituellement sur l'hypothèse de normalité des effets aléatoires au niveau du domaine (erreurs de modélisation) et des erreurs de sondage dans les estimations directes par sondage. Les observations aberrantes peuvent poser un problème et être dues à des valeurs aberrantes des erreurs de modélisation ou des erreurs de sondage, deux possibilités dont les incidences sont fort différentes. Nous considérons ici les deux possibilités et étudions empiriquement comment l'utilisation d'une approche bayésienne reposant sur l'hypothèse que l'une des composantes de l'erreur suit une loi t permet de traiter les valeurs aberrantes éventuelles. Les exemples empiriques reposent sur des modèles des rapports de pauvreté dans les États américains utilisés par le Small Area Income and Poverty Estimates program du U.S. Census Bureau, en étendant les modèles gaussiens habituels afin de supposer que l'erreur de modélisation ou l'erreur de sondage suit une loi t. Nous examinons comment les résultats sont influencés par la variation du nombre de degrés de liberté (supposé connu) de la loi t. Nous constatons que l'utilisation d'une loi t à faible nombre de degrés de liberté peut réduire les effets des valeurs aberrantes, mais dans les exemples discutés, les résultats ne vont pas jusqu'à s'approcher du rejet catégorique des observations.

    Date de diffusion : 2008-03-17

  • Articles et rapports : 11-522-X200600110392
    Description :

    Nous suivons une méthode bayésienne robuste pour analyser des données pouvant présenter un biais de non-réponse et un biais de sélection non ignorables. Nous utilisons un modèle de régression logistique robuste pour établir le lien entre les indicateurs de réponse (variable aléatoire de Bernoulli) et les covariables, dont nous disposons pour tous les membres de la population finie. Ce lien permet d'expliquer l'écart entre les répondants et les non-répondants de l'échantillon. Nous obtenons ce modèle robuste en élargissant le modèle de régression logistique conventionnel à un mélange de lois de Student, ce qui nous fournit des scores de propension (probabilité de sélection) que nous utilisons pour construire des cellules d'ajustement. Nous introduisons les valeurs des non-répondants en tirant un échantillon aléatoire à partir d'un estimateur à noyau de la densité, formé d'après les valeurs des répondants à l'intérieur des cellules d'ajustement. La prédiction fait appel à une régression linéaire spline, fondée sur les rangs, de la variable de réponse sur les covariables selon le domaine, en échantillonnant les erreurs à partir d'un autre estimateur à noyau de la densité, ce qui rend notre méthode encore plus robuste. Nous utilisons des méthodes de Monte-Carlo par chaînes de Markov (MCMC) pour ajuster notre modèle. Dans chaque sous-domaine, nous obtenons la loi a posteriori d'un quantile de la variable de réponse à l'intérieur de chaque sous-domaine en utilisant les statistiques d'ordre sur l'ensemble des individus (échantillonnés et non échantillonnés). Nous comparons notre méthode robuste à des méthodes paramétriques proposées récemment.

    Date de diffusion : 2008-03-17

  • Articles et rapports : 11-522-X200600110393
    Description :

    Dans le présent article, nous calculons un estimateur de deuxième ordre sans biais (ou presque sans biais) de l'erreur quadratique moyenne de prédiction (EQMP) du meilleur prédicteur linéaire sans biais empirique (MPLSBE) d'un total de petit domaine pour une extension, selon l'hypothèse de non-normalité, du modèle bien connu de Fay-Herriot. Plus précisément, nous calculons notre estimateur de l'EQMP en posant essentiellement certaines conditions de moment pour les distributions de l'erreur d'échantillonnage et des effets aléatoires. L'estimateur de l'EQMP de Prasad-Rao fondé sur l'hypothèse de normalité se révèle étonnamment robuste en ce sens qu'il reste un estimateur de deuxième ordre sans biais dans des conditions de non-normalité des effets aléatoires lorsqu'un estimateur simple de la méthode des moments est employé pour la composante de variance et lorsque l'erreur d'échantillonnage suit une distribution normale. Nous montrons que l'estimateur de l'EQMP fondé sur l'hypothèse de normalité n'est plus un estimateur de deuxième ordre sans biais lorsque l'erreur d'échantillonnage suit une distribution non normale ou lorsque la méthode des moments de Fay-Herriot est utilisée pour estimer la composante de variance même si l'erreur d'échantillonnage suit une distribution normale. Il est intéressant de noter que lorsque l'estimateur simple de la méthode des moments est utilisé pour la composante de variance, l'estimateur de l'EQMP que nous proposons n'exige pas une estimation du kurtosis des effets aléatoires. Les résultats d'une étude de simulation sur l'exactitude de l'estimateur de l'EQMP proposé, dans des conditions de non-normalité de la distribution tant de l'erreur d'échantillonnage que des effets aléatoires, sont également présentés.

    Date de diffusion : 2008-03-17

  • Articles et rapports : 11-522-X200600110394
    Description :

    Statistique Canada a mené en 2004 l'Enquête sur la santé dans les collectivités canadiennes sur la nutrition. L'objectif principal de l'enquête était d'estimer les distributions d'apports alimentaires habituels des Canadiens au niveau provincial pour 15 groupes d'âge et de sexe. En général, on estime de telles distributions à l'aide du logiciel SIDE, mais obtenir ces estimations en tenant compte des choix qui ont été faits en termes de plan d'échantillonnage et de méthode d'estimation de la variabilité d'échantillonnage n'est pas chose facile. Cet article traite des défis méthodologiques reliés à l'estimation de distributions d'apports habituels à l'aide de SIDE avec les données de l'enquête.

    Date de diffusion : 2008-03-17

  • Articles et rapports : 11-522-X200600110395
    Description :

    Cette étude a pour but d'examiner les facteurs associés à l'obésité au Canada et aux États-Unis à l'aide de données provenant de l'Enquête conjointe Canada-États-Unis sur la santé de 2002 2003, enquête téléphonique réalisée de concert par Statistique Canada et le National Center for Health Statistics des États-Unis. Les deux pays ont utilisé essentiellement le même questionnaire au même moment, ce qui a produit un ensemble de données garantissant une comparabilité sans précédent des estimations nationales calculées pour les deux pays. L'analyse des distributions empiriques de l'indice de masse corporelle (IMC) révèle que les Américaines sont sensiblement plus grosses que les Canadiennes, mais que la distribution de l'IMC est presque la même pour les hommes, qu'ils soient Américains ou Canadiens. Les facteurs susceptibles d'expliquer les écarts observés chez les femmes sont examinés.

    Date de diffusion : 2008-03-17

  • Articles et rapports : 11-522-X200600110396
    Description :

    À partir des données sur l'Enquête sur la santé dans les collectivités canadiennes, il est possible d'estimer les distributions des apports habituels de nutriments. Il est plus difficile d'estimer la consommation habituelle d'aliments. Cette dernière doit être estimée en jumelant la fréquence de consommation de l'aliment avec la distribution de l'apport habituel de l'aliment chez les consommateurs. Il peut être difficile d'estimer cette distribution pour des aliments plus rares et il est pratiquement impossible d'obtenir des estimations fiables de la fréquence de consommation de l'aliment en se fiant sur seulement deux jours de données par répondant. L'utilisation d'une source extérieure ou d'une hypothèse paramétrique peut solutionner en partie ce problème. Une alternative est d'utiliser une approche indirecte pour estimer l'impact d'un aliment sur la distribution de l'apport habituel d'un nutriment en éliminant ou en remplaçant en tout ou en partie l'aliment par un autre.

    Date de diffusion : 2008-03-17

  • Articles et rapports : 11-522-X200600110397
    Description :

    En pratique, il arrive souvent que certaines données recueillies comportent une erreur de mesure. Parfois, des covariables (ou facteurs de risque) d'intérêt sont difficiles à observer avec précision en raison de l'emplacement physique ou du coût. D'autres fois, il est impossible de mesurer précisément les covariables à cause de leur nature. Dans d'autres situations, une covariable peut représenter la moyenne d'une certaine grandeur mesurable au cours du temps, et tout moyen pratique de mesurer cette grandeur comporte nécessairement une erreur de mesure. Lorsqu'on procède à des inférences statistiques dans de telles conditions, il est important de tenir compte des effets des covariables mesurées incorrectement; sinon, les résultats risques d'être incorrects, voire même trompeurs. Dans le présent article, nous discutons de plusieurs exemples d'erreur de mesure survenant dans des contextes distincts. Nous accordons une attention particulière aux données sur la survie en présence de covariables sujettes à une erreur de mesure. Nous discutons d'une méthode de simulation extrapolation pour la correction des effets de l'erreur de mesure. Enfin, nous présentons une étude par simulation.

    Date de diffusion : 2008-03-17

  • Articles et rapports : 11-522-X200600110398
    Description :

    L'étude de données longitudinales est essentielle si l'on veut observer correctement l'évolution des variables d'intérêt chez les personnes, les collectivités et les populations plus importantes au cours du temps. Les modèles linéaires à effets mixtes (pour les réponses continues observées au fil du temps), ainsi que les modèles linéaires généralisés à effets mixtes et les équations d'estimation généralisées (pour les réponses plus générales, telles que les données binaires ou les dénombrements observés au fil du temps) sont les méthodes les plus répandues pour analyser les données longitudinales provenant d'études sur la santé, même si, comme toute méthode de modélisation, elles ont leurs limites, dues en partie aux hypothèses sous jacentes. Dans le présent article, nous discutons de certains progrès, dont l'utilisation de méthodes fondées sur des courbes, qui rendent la modélisation des données longitudinales plus souple. Nous présentons trois exemples d'utilisation de ces méthodes plus souples tirés de la littérature sur la santé, dans le but de démontrer que certaines questions par ailleurs difficiles peuvent être résolues raisonnablement lors de l'analyse de données longitudinales complexes dans les études sur la santé des populations.

    Date de diffusion : 2008-03-17

  • Articles et rapports : 11-522-X200600110399
    Description :

    Dans le contexte des études sur la santé, il est assez fréquent de recueillir des réponses binaires ou numériques répétées au moyen d'un ensemble de covariables multidimensionnelles durant une courte période auprès d'un grand nombre de familles indépendantes. Ces familles sont sélectionnées dans une population finie, conformément à certains plans de sondage complexes. Il est intéressant d'examiner les effets des covariables sur les réponses familiales longitudinales après voir tenu compte de la variation des effets familiaux et des corrélations longitudinales des réponses répétées. Cette communication traitera des avantages et des inconvénients des méthodes existantes d'estimation des effets de régression, de la variance des effets familiaux et des corrélations longitudinales. On décrira ensuite les avantages d'une nouvelle méthode unifiée généralisée de quasi vraisemblance pour analyser les données familiales longitudinales fondées sur un plan de sondage complexe. On analysera certaines études numériques existantes en vue d'illustrer les méthodes prises en considération dans la communication.

    Date de diffusion : 2008-03-17
Données (1)

Données (1) ((1 résultat))

  • Tableau : 71-585-X
    Description :

    Ce compendium fournit les données de la nouvelle Enquête sur le milieu de travail et les employés (EMTE) qui est effectuée par Statistique Canada avec le soutien de Développement des ressources humaines Canada L'EMTE compte deux volets: (1) une enquête auprès des établissements sur les changements organisationnels, la formation et d' autres pratiques en matière de ressources humaines, les stratégies d'entreprise ainsi que le roulement de la main-d'oeuvre au sein du milieu de travail; et (2) une enquête auprès des employés de ces mêmes milieux de travail, afin de recueillir des données sur leurs salaires, leurs heures de travail, le genre de travail qu'ils effectuent, le capital humain, l'utilisation de la technologie et la formation. Il en résulte une riche source nouvelle de renseignements interreliés sur les milieux de travail et leurs employés.

    Date de diffusion : 2008-09-24
Analyses (84)

Analyses (84) (0 à 10 de 84 résultats)

  • Articles et rapports : 12-001-X200800210755
    Description :

    L'interview avec rétroinformation (IRI) est utilisée dans de nombreuses enquêtes longitudinales pour « reporter » les données d'une vague à la suivante. Bien qu'il s'agisse d'une technique prometteuse qui a permis d'améliorer la qualité des données à certains égards, on en sait assez peu sur la façon dont elle est effectivement appliquée sur le terrain. La présente étude a pour but d'aborder cette question par la voie du codage du comportement. Divers styles d'IRI ont été employés dans l'English Longitudinal Study of Ageing (ELSA) de janvier 2006 et les interviews pilotes sur le terrain ont été enregistrées. Les enregistrements ont été analysés afin de déterminer si les questions (particulièrement les éléments d'IRI) étaient administrées convenablement et d'explorer la réaction des répondants à l'égard des données reportées. Un des objectifs était de déterminer si les répondants confirmaient ou contestaient l'information déclarée antérieurement, si les données de la vague précédente jouaient un rôle quand les répondants fournissaient les réponses à la vague courante et la façon dont toute discordance était négociée par l'intervieweur et le répondant. Un autre objectif était d'examiner l'efficacité de divers styles d'IRI. Par exemple, dans certains cas, les données de la vague précédente ont été reportées et on a demandé aux répondants de les confirmer explicitement ; dans d'autres, les données antérieures ont été lues et ont a demandé aux répondants si la situation était encore la même. Les résultats révèlent divers niveaux de conformité en ce qui a trait à la lecture initiale de la question et donnent à penser que certains styles d'IRI pourraient être plus efficaces que d'autres.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210759
    Description :

    L'analyse des données recueillies auprès d'un échantillon stratifié à plusieurs degrés requiert de l'information sur le plan de sondage, telle que les identificateurs de strate et d'unité primaire d'échantillonnage (UPE), ou les poids de rééchantillonnage connexes, pour l'estimation de la variance. Dans certains fichiers de données à grande diffusion, l'information sur le plan de sondage est masquée en vue d'éviter le risque de divulgation, tout en permettant à l'utilisateur d'obtenir des estimations valides des variances. Par exemple, dans le cas des enquêtes aréolaires comptant un nombre limité d'UPE, les UPE originales sont divisées et (ou) recombinées pour construire des pseudo UPE dans lesquelles sont permutées les unités d'échantillonnage de deuxième degré et de degré subséquent. Cependant, ces méthodes de masquage des UPE faussent manifestement la structure de mise en grappes du plan d'échantillonnage, ce qui donne des estimations de variance biaisées pouvant présenter un rapport systématique entre les deux estimations de variance obtenues avec et sans masquage des identificateurs d'UPE. Certains travaux antérieurs ont révélé certaines tendances du ratio des estimations de la variance obtenues avec et sans masquage si on représente ce ratio graphiquement en fonction de l'effet de plan sans masquage. Le présent article traite de l'effet du masquage des UPE sur les estimations de la variance sous échantillonnage en grappes en fonction de divers aspects, dont la structure de mise en grappes et le degré de masquage. En outre, nous tâchons d'établir une stratégie de masquage des UPE par permutation des unités d'échantillonnage du degré subséquent qui réduit le biais résultant des estimations de la variance. En guise d'illustration, nous utilisons des données provenant de la National Health Interview Survey (NHIS) auxquelles nous avons apporté certaines modifications artificielles. La stratégie proposée permet de bien réduire le biais des estimations de la variance. Les résultats tant théoriques qu'empiriques indiquent que l'effet du masquage des UPE sur les estimations de la variance est modeste si la permutation des unités d'échantillonnage de degré subséquent est minimale. Nous avons appliqué la stratégie de masquage proposée aux données diffusées de la National Health and Nutrition Examination Survey (NHANES) de 2003 2004.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210762
    Description :

    Le présent article porte sur le traitement de la répartition optimale dans l'échantillonnage stratifié multivarié comme une optimisation matricielle non linéaire en nombres entiers. Un problème non linéaire d'optimisation multi-objectifs en nombres entiers est étudié à titre de cas particulier. Enfin, un exemple détaillé, y compris certaines méthodes proposées, est donné à la fin de l'exposé.

    Date de diffusion : 2008-12-23

  • Revues et périodiques : 89-552-M
    Géographie : Canada
    Description :

    L'Enquête internationale sur l'alphabétisation des adultes (EIAA) est une initiative de sept pays qui s'est tenue à l'automne 1994. Son objectif visait à établir des profils d'alphabétisme comparables sans égard aux frontières nationales, linguistiques et culturelles. Les vagues successives de l'enquête incluent maintenant près de 30 pays partout dans le monde. La série de monographies comprend des études détaillées découlant de la base de données de l'EIAA, qui ont été effectuées par des spécialistes de l'alphabétisme au Canada et aux États-Unis. Les recherches sont principalement financées par Développement des ressources humaines Canada. Les monographies mettent l'accent sur les questions actuelles en matière de politiques et portent sur des sujets comme la formation continue, la correspondance et la non-correspondance entre les capacités de lecture et le milieu de travail, les capacités de lecture et l'état de santé des personnes âgées, l'alphabétisme et la sécurité économique, pour ne nommer que ceux-là.

    Date de diffusion : 2008-07-21

  • Articles et rapports : 11-522-X200600110424
    Description :

    L'enquête réalisée par la Chine dans le cadre du programme de lutte internationale contre le tabagisme (ITC pour International Tobacco Control) comprend un plan d'échantillonnage à plusieurs degrés avec probabilités inégales où les grappes du niveau supérieur sont sélectionnées par la méthode d'échantillonnage PPT systématique randomisé. Durant l'exécution de l'enquête, il faut résoudre le problème suivant : plusieurs grappes de niveau supérieur échantillonnées refusent de participer et doivent être remplacées par des unités de substitution sélectionnées parmi les unités non incluses dans l'échantillon initial, de nouveau par la méthode d'échantillonnage PPT systématique randomisé. Dans de telles conditions, les probabilités d'inclusion de premier ordre des unités finales sélectionnées sont très difficiles à calculer et la détermination des probabilités d'inclusion de deuxième ordre devient virtuellement impossible. Dans le présent article, nous élaborons une méthode fondée sur la simulation pour calculer les probabilités d'inclusion de premier et de deuxième ordre lorsque le calcul direct est prohibitif ou impossible. Nous démontrons l'efficacité de la méthode que nous proposons en nous appuyant sur des considérations théoriques et des exemples numériques. Nous incluons plusieurs fonctions et codes R/S PLUS pour la procédure proposée. La méthode peut être étendue à des situations de refus/substitution plus complexes susceptibles de survenir en pratique.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200800110606
    Description :

    Aux États Unis, les données provenant des sondages électoraux sont habituellement présentées dans des tableaux de contingence à double entrée et de nombreux sondages sont réalisés avant qu'ait lieu l'élection réelle en novembre. Par exemple, pour l'élection du gouverneur de l'État de l'Ohio en 1998, trois sondages (Buckeye State Poll) ont eu lieu, un en janvier, un en avril et un en octobre; la première catégorie des tableaux représente les candidats (par exemple Fisher, Taft et autre) et la deuxième représente l'intention courante de vote (votera vraisemblablement ou ne votera vraisemblablement pas pour le gouverneur de l'Ohio). Le nombre d'électeurs indécis est important dans l'une ou dans les deux catégories pour les trois sondages et nous utilisons une méthode bayésienne pour les répartir entre les trois candidats. Nous pouvons ainsi modéliser divers scénarios de données manquantes sous les hypothèses d'ignorabilité et de non ignorabilité, et nous utilisons un modèle Dirichlet Multinomial pour estimer les probabilités de cellule qui nous aideront à prédire le gagnant. Nous proposons un modèle de non réponse non ignorable variable en fonction du temps pour les trois tableaux. Ici, un modèle de non réponse non ignorable est centré sur un modèle de non réponse ignorable afin d'induire une certaine souplesse et une certaine incertitude au sujet de l'ignorabilité ou de la non ignorabilité. Nous considérons également deux autres modèles concurrents, à savoir un modèle de non réponse ignorable et un modèle de non réponse non ignorable. Ces deux derniers modèles reposent sur l'hypothèse d'un processus stochastique commun pour obtenir un renforcement par emprunt de données au cours du temps. Nous utilisons des méthodes de Monte Carlo par chaîne de Markov pour ajuster les modèles. Nous construisons aussi un paramètre qui peut éventuellement être utilisé pour prédire le gagnant parmi les candidats à l'élection de novembre.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200800110607
    Description :

    L'offre de primes en vue d'encourager la participation aux enquêtes est un moyen utilisé de plus en plus fréquemment pour combattre la chute des taux de réponse et les risques résultant de biais dû à la non réponse. Cette dernière pose tout spécialement un problème dans les enquêtes par panel, car même un faible taux de non réponse d'une vague à l'autre peut entraîner des pertes cumulées importantes et, si la non réponse est différentielle, cette situation peut aboutir à l'accroissement du biais d'une vague à l'autre. Les effets des primes d'encouragement ont été bien étudiés dans le contexte d'enquêtes transversales, mais l'on en sait fort peu quant à leurs effets cumulés sur l'ensemble des vagues d'un panel. Nous fournissons de nouvelles preuves des effets des paiements incitatifs continus sur l'attrition, ou érosion de l'échantillon, sur le biais et sur la non réponse partielle en nous appuyant sur les données d'une expérience d'offre de primes d'encouragement à grande échelle, multivagues, à mode d'interview mixte, intégrée dans une enquête par panel réalisée auprès des jeunes par le gouvernement britannique. Dans cette étude, les primes d'encouragement ont donné lieu à une réduction significative de l'attrition, qui compensait de loin les effets négatifs sur les taux de réponse partiels en ce qui concerne la quantité d'information recueillie dans le cadre de l'enquête par cas émis. Les primes d'encouragement ont eu des effets proportionnels sur les taux de rétention pour une gamme de caractéristiques des répondants et, par conséquent, n'ont pas réduit le biais d'attrition relatif à ces caractéristiques. Les effets des primes d'encouragement sur le taux de rétention étaient plus importants pour les primes inconditionnelles que pour les primes conditionnelles, et plus importants également pour le mode de collecte par la poste que pour celui par téléphone. D'une vague à l'autre, les effets sur l'attrition ont diminué quelque peu, mais les effets sur la non réponse partielle et l'absence d'effet sur le biais sont demeurés constants. Les effets des primes d'encouragement offertes lors de vagues plus tardives semblent avoir été indépendants des traitements relatifs aux primes et des modes de collecte des données appliqués lors de vagues antérieures.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200800110610
    Description :

    Un nouvel estimateur par la régression généralisée d'un total de population finie basé sur la méthode de transformation de Box-Cox et son estimateur de la variance sont proposés sous un plan général de sondage à probabilités inégales. En étant convergent par rapport au plan de sondage, l'estimateur proposé retient la propriété de robustesse de l'estimateur GREG, même si le modèle sous jacent est défaillant. En outre, la méthode de Box-Cox permet de trouver automatiquement une transformation raisonnable de la variable dépendante en se servant des données. La robustesse et l'efficacité du nouvel estimateur sont évaluées analytiquement et par des études en simulation de Monte Carlo.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200800110611
    Description :

    En échantillonnage de populations finies, on dispose souvent d'information a priori sous la forme de renseignements partiels sur une variable auxiliaire, dont on connaît, par exemple, la moyenne. Dans de tels cas, on utilise fréquemment l'estimateur par le ratio et l'estimateur par la régression pour estimer la moyenne de population de la caractéristique d'intérêt. La loi a posteriori de Pólya a été établie à titre d'approche bayésienne non informative de l'échantillonnage. Son application est indiquée quand on ne dispose que de peu d'information a priori, voire aucune, au sujet de la population. Ici, nous montrons que cette loi peut être étendue afin d'y intégrer divers types d'information a priori partielle au sujet des variables auxiliaires. Nous verrons que cette approche produit généralement des méthodes ayant de bonnes propriétés fréquentistes, même dans certains cas où les méthodes fréquentistes classiques sont difficiles à appliquer.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200800110612
    Description :

    Lehtonen et Veijanen (1999) ont proposé un nouvel estimateur par la régression généralisée (GREG) assisté par modèle d'une moyenne de petit domaine sous un modèle à deux niveaux. Ils ont montré que l'estimateur proposé donne de meilleurs résultats que l'estimateur GREG habituel en ce qui concerne le biais relatif absolu moyen et l'erreur relative absolue médiane moyenne. Nous calculons l'erreur quadratique moyenne (EQM) du nouvel estimateur GREG sous le modèle à deux niveaux et nous la comparons à celle de l'estimateur fondé sur le meilleur prédicteur linéaire sans biais (BLUP). Nous présentons aussi des résultats empiriques concernant l'efficacité relative des estimateurs. Nous montrons que le nouvel estimateur GREG a de meilleures propriétés que l'estimateur GREG habituel en ce qui concerne l'EQM moyenne et l'erreur relative absolue moyenne. Nous montrons aussi que, parce qu'il emprunte de l'information aux petits domaines apparentés, l'estimateur EBLUP donne des résultats nettement meilleurs que l'estimateur GREG habituel et que le nouvel estimateur GREG. Nous fournissons les résultats de simulation sous un modèle, ainsi qu'en population finie réelle.

    Date de diffusion : 2008-06-26
Références (3)

Références (3) ((3 résultats))

  • Enquêtes et programmes statistiques — Documentation : 62F0026M2009001
    Géographie : Province ou territoire
    Description :

    Ce guide présente de l'information qui intéresse les utilisateurs des données provenant de l'Enquête sur les dépenses des ménages, nous avons obtenu des renseignements sur les habitudes de dépense, les caractéristiques des logements et de l'équipement ménager des ménages canadiens. L'enquête a porté sur les ménages privés des dix provinces. (Dans le but de réduire le fardeau de réponse pour les ménages du nord, l'EDM est menée dans le nord seulement tous les deux ans, débutant a partir de 1999.)

    Ce guide comprend les définitions des termes et des variables de l'enquête, ainsi que des descriptions de la méthode, la qualité des données, et le contenu de tableaux standards de données. Il contient aussi une section décrivant les différentes statistiques pouvant être créées au moyen des données sur les dépenses (p. ex. part du budget, part du marché, et agrégat de dépenses).

    Date de diffusion : 2008-12-22

  • Enquêtes et programmes statistiques — Documentation : 75F0002M199201A
    Description :

    À partir de janvier 1994, l'Enquête sur la dynamique du travail et du revenu (EDTR) va suivre un panel de familles et d'individus durant une période d'au moins six ans afin de cerner leurs expériences de travail ainsi que les changements monétaires et familiaux. Un document intitulé "Contenu de l'Enquête sur la dynamique du travail et du revenu: document de travail " a été distribué en février 1992.

    Ce document servait de base pour consulter les utilisateurs concernés. Lors de ce processus, le contenu a subi plusieurs modifications. Un test à grande échelle de l'EDTR sera effectué en février et mai 1993 pour évaluer le nouveau contenu.

    Ce présent document porte sur le contenu touchant la démographique et le travail qui sera utilisé pour le test.

    Date de diffusion : 2008-10-21

  • Enquêtes et programmes statistiques — Documentation : 62F0026M2008001
    Géographie : Province ou territoire
    Description :

    Ce guide présente de l'information qui intéresse les utilisateurs des données provenant de l'Enquête sur les dépenses des ménages (EDM) de 2005. Les données ont été recueillies au moyen d'entrevues personnelles menées en janvier, en février et en mars 2006, à l'aide d'un questionnaire papier. Nous avons obtenu des renseignements sur les habitudes de dépense, les caractéristiques des logements et de l'équipement ménager des ménages canadiens en 2005. L'enquête a porté sur les ménages privés des dix provinces et des trois territoires du Nord. (Dans le but de réduire le fardeau de réponse pour les ménages du nord, l'EDM est menée dans le nord seulement tous les deux ans, débutant a partir de 1999.)

    Ce guide comprend les définitions des termes et des variables de l'enquête, ainsi que des descriptions de la méthode, la qualité des données, et le contenu de tableaux standards de données. Il contient aussi une section décrivant les différentes statistiques pouvant être créées au moyen des données sur les dépenses (p. ex. part du budget, part du marché, et agrégat de dépenses).

    Date de diffusion : 2008-02-26
Date de modification :