Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Année de publication

2 facets displayed. 0 facets selected.

Auteur(s)

2 facets displayed. 1 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (3)

Tout (3) ((3 résultats))

  • Articles et rapports : 11-522-X20020016430
    Description :

    Les méthodes de linéarisation (ou série de Taylor) sont souvent utilisées pour estimer les erreurs-types des coefficients des modèles de régression linéaire ajustés à des échantillons à phases multiples. Lorsque le nombre d'unités primaires d'échantillonnage (UPE) est grand, la linéarisation peut produire des valeurs précises d'erreurs-types dans des conditions assez générales. Par contre, si ce nombre est faible ou que la valeur d'un coefficient dépend en grande partie des données provenant d'un petit nombre d'UPE, les estimateurs par linéarisation peuvent présenter un biais négatif important.

    Dans cet article, on définit les caractéristiques de la matrice de conception, qui biaisent fortement les erreurs-types estimées par la linéarisation des coefficients de régression linéaire. De plus, on propose une nouvelle méthode, appelée linéarisation à biais réduit (LBR), qui est fondée sur des résidus ajustés pour mieux évaluer approximativement la covariance des erreurs vraies. Si les erreurs sont indépendantes et pareillement distribuées, l'estimateur de LBR est sans biais pour la variance. En outre, une étude en simulation montre que la LBR peut réduire considérablement le biais, même si les erreurs ne sont pas indépendantes et pareillement distribuées. On propose aussi d'utiliser une approximation de Satterthwaite pour déterminer le nombre de degrés de liberté de la distribution de référence à l'égard des tests et des intervalles de confiance qui ont trait aux combinaisons linéaires de coefficients fondés sur l'estimateur de LBR. On démontre que l'estimateur de la variance jackknife a aussi tendance à être biaisé dans les situations où la linéarisation est faussée. Cependant, le biais du jackknife est généralement positif. L'estimateur par linéarisation à biais réduit peut être considéré comme un compromis entre l'estimateur par linéarisation standard et celui du jackknife.

    Date de diffusion : 2004-09-13

  • Articles et rapports : 11-522-X20020016741
    Description :

    La linéarisation et le jackknife sont des méthodes fort répandues d'estimations des erreurs types des coefficients des modèles de régression linéaire ajustés à des échantillons à plusieurs degrés. Si le nombre d'unités primaires d'échantillonnage (UPE) est faible ou que quelques UPE ont un effet de levier important, les estimateurs par linéarisation peuvent présenter un biais négatif important et le jackknife de façon correspondante, un biais positif important. On décrit également les facteurs du plan de sondage qui produisent des biais importants dans ces estimateurs de l'erreur type. Dans cette étude, on propose un estimateur de rechange, appelé estimateur par linéarisation à biais réduit (LBR), inspiré des erreurs résiduelles corrigées pour mieux adoucir la covariance des erreurs vraies.

    Si les erreurs sont indépendantes et identiquement distribuées (iid), l'estimateur LDR est non biaisé. La méthode LDR s'applique à des échantillons stratifiés dont les poids de sélection ne sont pas constants et à des modèles linéaires généralisés tels que la régression logistique. On examine aussi les estimateurs LBR de l'erreur type pour les modèles à équation d'estimation généralisée qui modèlent explicitement l'interdépendance des observations faites sur la même UPE dans les données provenant de plans d'échantillonnage complexes. Les résultats d'une étude en simulation montrent que les erreurs types calculées par LBR combinées à l'approximation de Satterthwaite pour déterminer la distribution de référence produisent des tests avec des taux d'erreur de première espèce (type I) proches des valeurs nominales. On compare cette méthode à d'autres proposées par Kott (1994 et 1996) et par Mancl et DeRouen (2001).

    Date de diffusion : 2004-09-13

  • Articles et rapports : 12-001-X20020029058
    Description :

    Les méthodes de linéarisation (ou série de Taylor) sont souvent utilisées pour estimer les erreurs-types des coefficients des modèles de régression linéaire ajustés à des échantillons à phases multiples. Lorsque le nombre d'unités primaires d'échantillonnage (UPE) est grand, la linéarisation peut produire des valeurs précises d'erreurs-types dans des conditions assez générales. Par contre, si ce nombre est faible ou que la valeur d'un coefficient dépend en grande partie des données provenant d'un petit nombre d'UPE, les estimateurs par linéarisation peuvent présenter un biais négatif important.

    Dans cet article, on définit les caractéristiques de la matrice de conception, qui biaisent fortement les erreurs-types estimées par la linéarisation des coefficients de régression linéaire. De plus, on propose une nouvelle méthode, appelée linéarisation à biais réduit (LBR), qui est fondée sur des résidus ajustés pour mieux évaluer approximativement la covariance des erreurs vraies. Si les erreurs sont indépendantes et pareillement distribuées, l'estimateur de LBR est sans biais pour la variance. En outre, une étude en simulation montre que la LBR peut réduire considérablement le biais, même si les erreurs ne sont pas indépendantes et pareillement distribuées. On propose aussi d'utiliser une approximation de Satterthwaite pour déterminer le nombre de degrés de liberté de la distribution de référence à l'égard des tests et des intervalles de confiance qui ont trait aux combinaisons linéaires de coefficients fondés sur l'estimateur de LBR. On démontre que l'estimateur de la variance jackknife a aussi tendance à être biaisé dans les situations où la linéarisation est faussée. Cependant, le biais du jackknife est généralement positif. L'estimateur par linéarisation à biais réduit peut être considéré comme un compromis entre l'estimateur par linéarisation standard et celui du jackknife.

    Date de diffusion : 2003-01-29
Stats en bref (0)

Stats en bref (0) (0 résultat)

Aucun contenu disponible actuellement

Articles et rapports (3)

Articles et rapports (3) ((3 résultats))

  • Articles et rapports : 11-522-X20020016430
    Description :

    Les méthodes de linéarisation (ou série de Taylor) sont souvent utilisées pour estimer les erreurs-types des coefficients des modèles de régression linéaire ajustés à des échantillons à phases multiples. Lorsque le nombre d'unités primaires d'échantillonnage (UPE) est grand, la linéarisation peut produire des valeurs précises d'erreurs-types dans des conditions assez générales. Par contre, si ce nombre est faible ou que la valeur d'un coefficient dépend en grande partie des données provenant d'un petit nombre d'UPE, les estimateurs par linéarisation peuvent présenter un biais négatif important.

    Dans cet article, on définit les caractéristiques de la matrice de conception, qui biaisent fortement les erreurs-types estimées par la linéarisation des coefficients de régression linéaire. De plus, on propose une nouvelle méthode, appelée linéarisation à biais réduit (LBR), qui est fondée sur des résidus ajustés pour mieux évaluer approximativement la covariance des erreurs vraies. Si les erreurs sont indépendantes et pareillement distribuées, l'estimateur de LBR est sans biais pour la variance. En outre, une étude en simulation montre que la LBR peut réduire considérablement le biais, même si les erreurs ne sont pas indépendantes et pareillement distribuées. On propose aussi d'utiliser une approximation de Satterthwaite pour déterminer le nombre de degrés de liberté de la distribution de référence à l'égard des tests et des intervalles de confiance qui ont trait aux combinaisons linéaires de coefficients fondés sur l'estimateur de LBR. On démontre que l'estimateur de la variance jackknife a aussi tendance à être biaisé dans les situations où la linéarisation est faussée. Cependant, le biais du jackknife est généralement positif. L'estimateur par linéarisation à biais réduit peut être considéré comme un compromis entre l'estimateur par linéarisation standard et celui du jackknife.

    Date de diffusion : 2004-09-13

  • Articles et rapports : 11-522-X20020016741
    Description :

    La linéarisation et le jackknife sont des méthodes fort répandues d'estimations des erreurs types des coefficients des modèles de régression linéaire ajustés à des échantillons à plusieurs degrés. Si le nombre d'unités primaires d'échantillonnage (UPE) est faible ou que quelques UPE ont un effet de levier important, les estimateurs par linéarisation peuvent présenter un biais négatif important et le jackknife de façon correspondante, un biais positif important. On décrit également les facteurs du plan de sondage qui produisent des biais importants dans ces estimateurs de l'erreur type. Dans cette étude, on propose un estimateur de rechange, appelé estimateur par linéarisation à biais réduit (LBR), inspiré des erreurs résiduelles corrigées pour mieux adoucir la covariance des erreurs vraies.

    Si les erreurs sont indépendantes et identiquement distribuées (iid), l'estimateur LDR est non biaisé. La méthode LDR s'applique à des échantillons stratifiés dont les poids de sélection ne sont pas constants et à des modèles linéaires généralisés tels que la régression logistique. On examine aussi les estimateurs LBR de l'erreur type pour les modèles à équation d'estimation généralisée qui modèlent explicitement l'interdépendance des observations faites sur la même UPE dans les données provenant de plans d'échantillonnage complexes. Les résultats d'une étude en simulation montrent que les erreurs types calculées par LBR combinées à l'approximation de Satterthwaite pour déterminer la distribution de référence produisent des tests avec des taux d'erreur de première espèce (type I) proches des valeurs nominales. On compare cette méthode à d'autres proposées par Kott (1994 et 1996) et par Mancl et DeRouen (2001).

    Date de diffusion : 2004-09-13

  • Articles et rapports : 12-001-X20020029058
    Description :

    Les méthodes de linéarisation (ou série de Taylor) sont souvent utilisées pour estimer les erreurs-types des coefficients des modèles de régression linéaire ajustés à des échantillons à phases multiples. Lorsque le nombre d'unités primaires d'échantillonnage (UPE) est grand, la linéarisation peut produire des valeurs précises d'erreurs-types dans des conditions assez générales. Par contre, si ce nombre est faible ou que la valeur d'un coefficient dépend en grande partie des données provenant d'un petit nombre d'UPE, les estimateurs par linéarisation peuvent présenter un biais négatif important.

    Dans cet article, on définit les caractéristiques de la matrice de conception, qui biaisent fortement les erreurs-types estimées par la linéarisation des coefficients de régression linéaire. De plus, on propose une nouvelle méthode, appelée linéarisation à biais réduit (LBR), qui est fondée sur des résidus ajustés pour mieux évaluer approximativement la covariance des erreurs vraies. Si les erreurs sont indépendantes et pareillement distribuées, l'estimateur de LBR est sans biais pour la variance. En outre, une étude en simulation montre que la LBR peut réduire considérablement le biais, même si les erreurs ne sont pas indépendantes et pareillement distribuées. On propose aussi d'utiliser une approximation de Satterthwaite pour déterminer le nombre de degrés de liberté de la distribution de référence à l'égard des tests et des intervalles de confiance qui ont trait aux combinaisons linéaires de coefficients fondés sur l'estimateur de LBR. On démontre que l'estimateur de la variance jackknife a aussi tendance à être biaisé dans les situations où la linéarisation est faussée. Cependant, le biais du jackknife est généralement positif. L'estimateur par linéarisation à biais réduit peut être considéré comme un compromis entre l'estimateur par linéarisation standard et celui du jackknife.

    Date de diffusion : 2003-01-29
Revues et périodiques (0)

Revues et périodiques (0) (0 résultat)

Aucun contenu disponible actuellement

Date de modification :