Recherche par mot-clé

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Type

1 facets displayed. 0 facets selected.

Année de publication

1 facets displayed. 1 facets selected.

Géographie

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (7)

Tout (7) ((7 résultats))

  • Articles et rapports : 12-001-X20030016605
    Description :

    Dans ce document, on examine l'effet du choix d'un modèle sur différents types d'estimateurs des totaux des domaines (y compris les petits domaines ou les petites régions), pour une population finie échantillonnée. On compare différents types d'estimateurs pour un même énoncé de modèle sous-jacent. À notre avis, le type d'estimateur (synthétique, de régression généralisée [GREG], composite, du meilleur prédicteur linéaire sans biais empirique, hiérarchique de Bayes, etc.) constitue un aspect important de l'estimation des domaines. Quant au choix d'un modèle, y compris ses paramètres et ses effets, il constitue un deuxième aspect, différent du premier sur le plan conceptuel. Les travaux antérieurs n'ont pas toujours établi cette distinction. Pour un type d'estimateur donné, on peut calculer différents estimateurs, selon le choix du modèle. Un certain nombre de types d'estimateurs ont été proposés dans les articles récents, mais les auteurs qui les comparent de façon impartiale sont relativement peu nombreux. Dans ce document, on aborde trois types d'estimateurs : synthétique, de régression généralisée (GREG) et, dans une moindre mesure, composite. On montre que l'amélioration du modèle (transition d'un modèle faible à un modèle fort) a des effets très différents sur les divers types d'estimateurs. On indique aussi que la différence d'exactitude entre les divers types d'estimateurs dépend du choix du modèle. Pour un modèle bien défini, la différence d'exactitude entre l'estimateur synthétique et l'estimateur de régression généralisée (GREG) est négligeable, mais elle peut être substantielle si le modèle est mal défini. L'estimateur synthétique a alors tendance à être très inexact. L'étude est fondée en partie sur des résultats théoriques (pour l'échantillonnage aléatoire simple seulement) et en partie sur des résultats empiriques. Les résultats empiriques sont ceux de simulations effectuées avec des échantillons répétés tirés de deux populations finies, l'une construite artificiellement et l'autre, construite à partir de données réelles tirées de l'Enquête sur la population active finlandaise.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 12-001-X20030016613
    Description :

    Le département de la sécurité de l'emploi de l'Illinois utilise des méthodes d'estimation pour petits domaines pour évaluer l'emploi à l'échelle du comté ou de la division industrielle. Il utilise pour cela un estimateur synthétique standard basé sur la capacité d'apparier les données d'échantillon du Current Employment Statistics Program à celles des dossiers administratifs ES202 et sur un modèle hypothétique de la relation entre les deux sources de données. Ce document est une étude de cas dans laquelle on examine les étapes suivies pour évaluer l'adéquation du modèle et les difficultés qu'on rencontre en effectuant le couplage des deux sources de données.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 11F0019M2003199
    Géographie : Canada
    Description :

    À l'aide d'un échantillon national représentatif d'établissements, nous avons cherché à déterminer si l'adoption de certaines pratiques de travail équivalentes (PTE) a tendance à réduire le taux de démissions. Dans l'ensemble, notre analyse fournit des preuves solides d'une association négative entre l'adoption de certaines PTE et le taux de démissions, pour les établissements comptant plus de dix employés du secteur des services hautement spécialisés. Nous dégageons aussi certaines preuves d'une association négative pour le secteur des services peu spécialisés. Cependant, la force de cette association négative diminue considérablement lorsque nous ajoutons un indicateur précisant si l'établissement a adopté ou non une politique officielle de partage de l'information. Dans le secteur de la fabrication, les preuves d'une association négative sont faibles. Bien que les établissements ayant des groupes de travail autonomes aient affiché un taux de démissions plus faible que les autres, aucun ensemble de pratiques de travail étudié n'a d'effet négatif et statistiquement significatif sur ce taux. Nous émettons l'hypothèse que les PTE clés peuvent réduire davantage le roulement de la main-d'oeuvre dans des environnements techniquement complexes que dans des environnements requérant peu de compétences.

    Date de diffusion : 2003-03-17

  • Articles et rapports : 12-001-X20020026428
    Description :

    L'analyse des données d'enquête de différentes régions géographiques dont les données de chaque région sont polychotomiques se fait facilement au moyen de modèles bayesiens hiérarchiques, même s'il y a des cellules présentant des petits nombres pour certaines de ces régions. Cela pose toutefois un problème quand les données d'enquête sont incomplètes en raison de la non-réponse, en particulier quand les caractéristiques des répondants diffèrent de celles des non-répondants. En présence de non-réponse, on applique la méthode de sélection pour l'estimation parce qu'elle permet de procéder à des inférences à l'égard de tous les paramètres. En fait, on décrit un modèle bayesien hiérarchique pour l'analyse des données de la non-réponse multinomiale dont on ne peut faire abstraction dans diverses régions géographiques, puisque certaines données peuvent être de petite taille. Comme modèle, on utilise une densité à priori Dirichlet pour les probabilités multinomiales et une densité à priori bêta pour les probabilités de réponse. Ainsi, on peut faire un emprunt d'information auprès des grandes régions, dans le but d'améliorer la fiabilité des estimations des paramètres du modèle qui s'appliquent aux petites régions. Comme la densité conjointe à posteriori de tous les paramètres est complexe, l'inférence se fonde sur l'échantillonnage et on utilise la méthode de Monte Carlo à chaînes de Markov. On applique la méthode pour obtenir une analyse des données sur l'indice de masse corporelle (IMC) tirées de la troisième édition de la National Health and Nutrition Examination Survey (NHANES III). Pour faciliter la compréhension, l'IMC est classé selon 3 niveaux naturels pour chacun des 8 domaines regroupant âge-race-sexe et des 34 comtés. On évalue le rendement du modèle à partir des données de la NHANES III et d'exemples simulés qui montrent que le modèle fonctionne passablement bien.

    Date de diffusion : 2003-01-29

  • Articles et rapports : 12-001-X20020026432
    Description :

    Cet article décrit des algorithmes de stratification qui permettent de tenir compte d'une divergence entre la variable de stratification et la variable étudiée au moment de l'élaboration d'un plan de sondage stratifié. On y propose deux modèles pour caractériser la relation entre ces deux variables. L'un est un modèle de régression log-linéaire; l'autre suppose que la variable étudiée et la variable de stratification coïncident pour la plupart des unités, mais que des divergences importantes existent pour certaines unités. Ensuite, on modifie l'algorithme de stratification de Lavallée et Hidiroglou (1988) afin d'intégrer ces modèles dans la détermination des tailles d'échantillon et des limites de strate optimales pour un plan de sondage stratifié. Enfin, on illustre par un exemple la performance du nouvel algorithme de stratification, puis on présente un examen de l'application numérique de cet algorithme.

    Date de diffusion : 2003-01-29

  • Articles et rapports : 12-001-X20020026434
    Description :

    En théorie, il est coutumier de définir les estimateurs de régression généralisée au moyen de modèles de pondération de plein rang; autrement dit, la matrice de plan d'expérience qui correspond au modèle de pondération est de plein rang. Il est bien connu que, pour de tels modèles de pondération, les poids de régression généralisée reproduisent les totaux (connus) de population des variables auxiliaires incluses dans le modèle. Toutefois, en pratique, il arrive souvent que le modèle de pondération ne soit pas de plein rang, particulièrement s'il est établi pour une stratification a posteriori incomplète. Au moyen de la théorie des matrices inverses généralisées, on montre dans quelles circonstances cette propriété de cohérence demeure valide. À titre d'exemple non trivial, on discute de la pondération cohérente entre les personnes et les ménages proposée par Lemaître et Dufour (1987), puis on montre comment la théorie est appliquée dans le logiciel Bascula.

    Date de diffusion : 2003-01-29

  • Articles et rapports : 12-001-X20020029058
    Description :

    Les méthodes de linéarisation (ou série de Taylor) sont souvent utilisées pour estimer les erreurs-types des coefficients des modèles de régression linéaire ajustés à des échantillons à phases multiples. Lorsque le nombre d'unités primaires d'échantillonnage (UPE) est grand, la linéarisation peut produire des valeurs précises d'erreurs-types dans des conditions assez générales. Par contre, si ce nombre est faible ou que la valeur d'un coefficient dépend en grande partie des données provenant d'un petit nombre d'UPE, les estimateurs par linéarisation peuvent présenter un biais négatif important.

    Dans cet article, on définit les caractéristiques de la matrice de conception, qui biaisent fortement les erreurs-types estimées par la linéarisation des coefficients de régression linéaire. De plus, on propose une nouvelle méthode, appelée linéarisation à biais réduit (LBR), qui est fondée sur des résidus ajustés pour mieux évaluer approximativement la covariance des erreurs vraies. Si les erreurs sont indépendantes et pareillement distribuées, l'estimateur de LBR est sans biais pour la variance. En outre, une étude en simulation montre que la LBR peut réduire considérablement le biais, même si les erreurs ne sont pas indépendantes et pareillement distribuées. On propose aussi d'utiliser une approximation de Satterthwaite pour déterminer le nombre de degrés de liberté de la distribution de référence à l'égard des tests et des intervalles de confiance qui ont trait aux combinaisons linéaires de coefficients fondés sur l'estimateur de LBR. On démontre que l'estimateur de la variance jackknife a aussi tendance à être biaisé dans les situations où la linéarisation est faussée. Cependant, le biais du jackknife est généralement positif. L'estimateur par linéarisation à biais réduit peut être considéré comme un compromis entre l'estimateur par linéarisation standard et celui du jackknife.

    Date de diffusion : 2003-01-29
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (7)

Analyses (7) ((7 résultats))

  • Articles et rapports : 12-001-X20030016605
    Description :

    Dans ce document, on examine l'effet du choix d'un modèle sur différents types d'estimateurs des totaux des domaines (y compris les petits domaines ou les petites régions), pour une population finie échantillonnée. On compare différents types d'estimateurs pour un même énoncé de modèle sous-jacent. À notre avis, le type d'estimateur (synthétique, de régression généralisée [GREG], composite, du meilleur prédicteur linéaire sans biais empirique, hiérarchique de Bayes, etc.) constitue un aspect important de l'estimation des domaines. Quant au choix d'un modèle, y compris ses paramètres et ses effets, il constitue un deuxième aspect, différent du premier sur le plan conceptuel. Les travaux antérieurs n'ont pas toujours établi cette distinction. Pour un type d'estimateur donné, on peut calculer différents estimateurs, selon le choix du modèle. Un certain nombre de types d'estimateurs ont été proposés dans les articles récents, mais les auteurs qui les comparent de façon impartiale sont relativement peu nombreux. Dans ce document, on aborde trois types d'estimateurs : synthétique, de régression généralisée (GREG) et, dans une moindre mesure, composite. On montre que l'amélioration du modèle (transition d'un modèle faible à un modèle fort) a des effets très différents sur les divers types d'estimateurs. On indique aussi que la différence d'exactitude entre les divers types d'estimateurs dépend du choix du modèle. Pour un modèle bien défini, la différence d'exactitude entre l'estimateur synthétique et l'estimateur de régression généralisée (GREG) est négligeable, mais elle peut être substantielle si le modèle est mal défini. L'estimateur synthétique a alors tendance à être très inexact. L'étude est fondée en partie sur des résultats théoriques (pour l'échantillonnage aléatoire simple seulement) et en partie sur des résultats empiriques. Les résultats empiriques sont ceux de simulations effectuées avec des échantillons répétés tirés de deux populations finies, l'une construite artificiellement et l'autre, construite à partir de données réelles tirées de l'Enquête sur la population active finlandaise.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 12-001-X20030016613
    Description :

    Le département de la sécurité de l'emploi de l'Illinois utilise des méthodes d'estimation pour petits domaines pour évaluer l'emploi à l'échelle du comté ou de la division industrielle. Il utilise pour cela un estimateur synthétique standard basé sur la capacité d'apparier les données d'échantillon du Current Employment Statistics Program à celles des dossiers administratifs ES202 et sur un modèle hypothétique de la relation entre les deux sources de données. Ce document est une étude de cas dans laquelle on examine les étapes suivies pour évaluer l'adéquation du modèle et les difficultés qu'on rencontre en effectuant le couplage des deux sources de données.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 11F0019M2003199
    Géographie : Canada
    Description :

    À l'aide d'un échantillon national représentatif d'établissements, nous avons cherché à déterminer si l'adoption de certaines pratiques de travail équivalentes (PTE) a tendance à réduire le taux de démissions. Dans l'ensemble, notre analyse fournit des preuves solides d'une association négative entre l'adoption de certaines PTE et le taux de démissions, pour les établissements comptant plus de dix employés du secteur des services hautement spécialisés. Nous dégageons aussi certaines preuves d'une association négative pour le secteur des services peu spécialisés. Cependant, la force de cette association négative diminue considérablement lorsque nous ajoutons un indicateur précisant si l'établissement a adopté ou non une politique officielle de partage de l'information. Dans le secteur de la fabrication, les preuves d'une association négative sont faibles. Bien que les établissements ayant des groupes de travail autonomes aient affiché un taux de démissions plus faible que les autres, aucun ensemble de pratiques de travail étudié n'a d'effet négatif et statistiquement significatif sur ce taux. Nous émettons l'hypothèse que les PTE clés peuvent réduire davantage le roulement de la main-d'oeuvre dans des environnements techniquement complexes que dans des environnements requérant peu de compétences.

    Date de diffusion : 2003-03-17

  • Articles et rapports : 12-001-X20020026428
    Description :

    L'analyse des données d'enquête de différentes régions géographiques dont les données de chaque région sont polychotomiques se fait facilement au moyen de modèles bayesiens hiérarchiques, même s'il y a des cellules présentant des petits nombres pour certaines de ces régions. Cela pose toutefois un problème quand les données d'enquête sont incomplètes en raison de la non-réponse, en particulier quand les caractéristiques des répondants diffèrent de celles des non-répondants. En présence de non-réponse, on applique la méthode de sélection pour l'estimation parce qu'elle permet de procéder à des inférences à l'égard de tous les paramètres. En fait, on décrit un modèle bayesien hiérarchique pour l'analyse des données de la non-réponse multinomiale dont on ne peut faire abstraction dans diverses régions géographiques, puisque certaines données peuvent être de petite taille. Comme modèle, on utilise une densité à priori Dirichlet pour les probabilités multinomiales et une densité à priori bêta pour les probabilités de réponse. Ainsi, on peut faire un emprunt d'information auprès des grandes régions, dans le but d'améliorer la fiabilité des estimations des paramètres du modèle qui s'appliquent aux petites régions. Comme la densité conjointe à posteriori de tous les paramètres est complexe, l'inférence se fonde sur l'échantillonnage et on utilise la méthode de Monte Carlo à chaînes de Markov. On applique la méthode pour obtenir une analyse des données sur l'indice de masse corporelle (IMC) tirées de la troisième édition de la National Health and Nutrition Examination Survey (NHANES III). Pour faciliter la compréhension, l'IMC est classé selon 3 niveaux naturels pour chacun des 8 domaines regroupant âge-race-sexe et des 34 comtés. On évalue le rendement du modèle à partir des données de la NHANES III et d'exemples simulés qui montrent que le modèle fonctionne passablement bien.

    Date de diffusion : 2003-01-29

  • Articles et rapports : 12-001-X20020026432
    Description :

    Cet article décrit des algorithmes de stratification qui permettent de tenir compte d'une divergence entre la variable de stratification et la variable étudiée au moment de l'élaboration d'un plan de sondage stratifié. On y propose deux modèles pour caractériser la relation entre ces deux variables. L'un est un modèle de régression log-linéaire; l'autre suppose que la variable étudiée et la variable de stratification coïncident pour la plupart des unités, mais que des divergences importantes existent pour certaines unités. Ensuite, on modifie l'algorithme de stratification de Lavallée et Hidiroglou (1988) afin d'intégrer ces modèles dans la détermination des tailles d'échantillon et des limites de strate optimales pour un plan de sondage stratifié. Enfin, on illustre par un exemple la performance du nouvel algorithme de stratification, puis on présente un examen de l'application numérique de cet algorithme.

    Date de diffusion : 2003-01-29

  • Articles et rapports : 12-001-X20020026434
    Description :

    En théorie, il est coutumier de définir les estimateurs de régression généralisée au moyen de modèles de pondération de plein rang; autrement dit, la matrice de plan d'expérience qui correspond au modèle de pondération est de plein rang. Il est bien connu que, pour de tels modèles de pondération, les poids de régression généralisée reproduisent les totaux (connus) de population des variables auxiliaires incluses dans le modèle. Toutefois, en pratique, il arrive souvent que le modèle de pondération ne soit pas de plein rang, particulièrement s'il est établi pour une stratification a posteriori incomplète. Au moyen de la théorie des matrices inverses généralisées, on montre dans quelles circonstances cette propriété de cohérence demeure valide. À titre d'exemple non trivial, on discute de la pondération cohérente entre les personnes et les ménages proposée par Lemaître et Dufour (1987), puis on montre comment la théorie est appliquée dans le logiciel Bascula.

    Date de diffusion : 2003-01-29

  • Articles et rapports : 12-001-X20020029058
    Description :

    Les méthodes de linéarisation (ou série de Taylor) sont souvent utilisées pour estimer les erreurs-types des coefficients des modèles de régression linéaire ajustés à des échantillons à phases multiples. Lorsque le nombre d'unités primaires d'échantillonnage (UPE) est grand, la linéarisation peut produire des valeurs précises d'erreurs-types dans des conditions assez générales. Par contre, si ce nombre est faible ou que la valeur d'un coefficient dépend en grande partie des données provenant d'un petit nombre d'UPE, les estimateurs par linéarisation peuvent présenter un biais négatif important.

    Dans cet article, on définit les caractéristiques de la matrice de conception, qui biaisent fortement les erreurs-types estimées par la linéarisation des coefficients de régression linéaire. De plus, on propose une nouvelle méthode, appelée linéarisation à biais réduit (LBR), qui est fondée sur des résidus ajustés pour mieux évaluer approximativement la covariance des erreurs vraies. Si les erreurs sont indépendantes et pareillement distribuées, l'estimateur de LBR est sans biais pour la variance. En outre, une étude en simulation montre que la LBR peut réduire considérablement le biais, même si les erreurs ne sont pas indépendantes et pareillement distribuées. On propose aussi d'utiliser une approximation de Satterthwaite pour déterminer le nombre de degrés de liberté de la distribution de référence à l'égard des tests et des intervalles de confiance qui ont trait aux combinaisons linéaires de coefficients fondés sur l'estimateur de LBR. On démontre que l'estimateur de la variance jackknife a aussi tendance à être biaisé dans les situations où la linéarisation est faussée. Cependant, le biais du jackknife est généralement positif. L'estimateur par linéarisation à biais réduit peut être considéré comme un compromis entre l'estimateur par linéarisation standard et celui du jackknife.

    Date de diffusion : 2003-01-29
Références (0)

Références (0) (0 résultat)

Aucun contenu disponible actuellement

Date de modification :