Aide à l'ordre
entrées

Résultats

Tout (43)

Tout (43) (0 à 10 de 43 résultats)

  • Articles et rapports : 12-001-X202300100006
    Description : Mes commentaires sont répartis en trois volets : 1) bref compte rendu de mon association professionnelle avec Chris Skinner, 2) observations sur les réalisations de Skinner en matière de contrôle de la divulgation statistique et 3) propos sur la production d’inférences à partir de données d’enquête masquées.
    Date de diffusion : 2023-06-30

  • Articles et rapports : 12-001-X202200100003
    Description :

    L’utilisation de données auxiliaires pour améliorer l’efficacité des estimateurs de totaux et de moyennes grâce à l’estimation par régression d’enquête assistée par un modèle a suscité un grand intérêt au cours de ces dernières années. Les estimateurs par la régression généralisée (ERG), basés sur un modèle de régression linéaire de travail, sont actuellement utilisés dans les enquêtes auprès d’établissements au sein de Statistique Canada et dans plusieurs autres organismes statistiques. Les estimateurs ERG utilisent des poids d’enquête communs à toutes les variables de l’étude et tiennent compte des totaux de population connus des variables auxiliaires. De plus en plus, de nombreuses variables auxiliaires sont disponibles, dont certaines peuvent être extérieures. Cela donne lieu des poids d’ERG fluctuants lorsque toutes les variables auxiliaires disponibles, y compris les interactions entre les variables catégorielles, sont utilisées dans le modèle de régression linéaire de travail. Par ailleurs, de nouvelles méthodes d’apprentissage automatique, comme les arbres de régression et les méthodes LASSO, sélectionnent automatiquement les variables auxiliaires significatives et donnent lieu à des poids non négatifs stables et à des gains d’efficacité possibles par rapport aux estimateurs ERG. Dans le présent article, une étude par simulations, basée sur un ensemble de données réelles d’une enquête réalisée auprès d’entreprises considérées comme la population cible, est menée pour étudier la performance relative des estimateurs ERG, des arbres de régression et des méthodes LASSO en matière d’efficacité des estimateurs et de propriétés des poids de régression connexes. Des scénarios d’échantillonnage probabiliste et d’échantillonnage non probabiliste sont étudiés.

    Date de diffusion : 2022-06-21

  • Articles et rapports : 11-522-X202100100009
    Description :

    Le recours à des données auxiliaires pour améliorer l’efficacité d’estimateurs de totaux et de moyennes au moyen d’une procédure d’estimation d’enquête assistée par un modèle de régression a reçu une attention considérable ces dernières années. Des estimateurs par la régression généralisée (GREG), fondés sur un modèle de régression linéaire, sont actuellement utilisés dans le cadre d’enquêtes auprès d’établissements, à Statistique Canada et au sein de plusieurs autres organismes de statistiques. Les estimateurs GREG utilisent des poids d’enquête communs à toutes les variables d’étude et un calage aux totaux de population de variables auxiliaires. De plus en plus de variables auxiliaires sont disponibles et certaines peuvent être superflues. Cela mène à des poids GREG instables lorsque toutes les variables auxiliaires disponibles, y compris les interactions parmi les variables catégoriques, sont utilisées dans le modèle de régression linéaire. En revanche, de nouvelles méthodes d’apprentissage automatique, comme les arbres de régression et la méthode LASSO, sélectionnent automatiquement des variables auxiliaires significatives et mènent à des poids non négatifs stables et à d’éventuels gains d’efficacité par rapport à la méthode GREG. Dans cet article, une étude par simulations, fondée sur un ensemble de données-échantillon d’une enquête-entreprise réelle traité comme la population cible, est menée afin d’examiner le rendement relatif de la méthode GREG, d’arbres de régression et de la méthode LASSO sur le plan de l’efficacité des estimateurs.

    Mots-clés : inférence assistée par modèle; estimation par calage; sélection du modèle; estimateur par la régression généralisée.

    Date de diffusion : 2021-10-29

  • Articles et rapports : 12-001-X201900100002
    Description :

    La non-réponse partielle se produit fréquemment dans les enquêtes-échantillons. On utilise couramment l’imputation hot deck pour remplacer les valeurs des items manquants dans des groupes homogènes appelés classes d’imputation. Nous proposons une procédure d’imputation hot deck fractionnaire et une vraisemblance empirique associée pour l’inférence sur la moyenne de population d’une fonction d’une variable d’intérêt présentant des données manquantes selon un échantillonnage avec probabilité proportionnelle à la taille avec fractions d’échantillonnage négligeables. Nous calculons les distributions limites de l’estimateur du maximum de vraisemblance empirique et du rapport de vraisemblance empirique, et nous proposons deux procédures bootstrap asymptotiques valides afin de construire des intervalles de confiance pour la moyenne de population. Les études par simulations montrent que les procédures bootstrap proposées donnent de meilleurs résultats que les procédures bootstrap habituelles, qui se révèlent asymptotiquement incorrectes quand le nombre de tirages aléatoires de l’imputation fractionnaire est fixe. De plus, la procédure bootstrap proposée, fondée sur le rapport de vraisemblance empirique, semble donner des résultats significativement meilleurs que la méthode fondée sur la distribution limite de l’estimateur du maximum de vraisemblance empirique en cas de grande variation des probabilités d’inclusion ou d’échantillon de petite taille.

    Date de diffusion : 2019-05-07

  • Articles et rapports : 12-001-X201900100003
    Description :

    Dans le présent article, je tenterai de brièvement présenter par ordre chronologique quelques faits saillants de ma vie hasardeuse de statisticien, qui s’est étalée sur plus de 60 ans, de 1954 à aujourd’hui.

    Date de diffusion : 2019-05-07

  • Articles et rapports : 12-001-X201800254958
    Description :

    Les domaines (ou sous-populations) pour lesquels les échantillons sont de petite taille sont appelés petits domaines. Les estimateurs directs classiques ne sont pas suffisamment précis pour ces petits domaines, en raison de la petite taille des échantillons. Or, la demande de statistiques fiables pour les petits domaines a augmenté considérablement. On utilise à l’heure actuelle des estimateurs indirects des moyennes ou des totaux de petits domaines basés sur un modèle pour résoudre les difficultés que pose l’estimation directe. Ces estimateurs reposent sur des modèles de liaison qui empruntent de l’information aux divers domaines pour accroître l’efficacité. En particulier, beaucoup d’attention a été accordée dans la littérature aux meilleurs estimateurs empiriques ou estimateurs EB (pour Empirical Best) sous des modèles de régression linéaires au niveau du domaine et au niveau de l’unité contenant des effets aléatoires de petit domaine. L’erreur quadratique moyenne (EQM) des estimateurs EB sous le modèle sert fréquemment à mesurer la variabilité des estimateurs. Les estimateurs par linéarisation, ainsi que les estimateurs jackknife et bootstrap de l’EQM sous le modèle sont d’usage très répandu. Toutefois, les organismes statistiques nationaux s’intéressent souvent à l’estimation de l’EQM des estimateurs EB sous le plan de sondage, pour cadrer avec les estimateurs classiques de l’EQM sous le plan associés aux estimateurs directs pour les grands domaines dont les tailles d’échantillon sont adéquates. Les estimateurs de l’EQM sous le plan des estimateurs EB peuvent être obtenus pour les modèles au niveau du domaine, mais ils ont tendance à être instables quand la taille de l’échantillon du domaine est petite. Des estimateurs composites de l’EQM, obtenus en prenant une somme pondérée de l’estimateur de l’EQM sous le plan et de l’estimateur de l’EQM sous le modèle, sont proposés dans le présent article. Les propriétés des estimateurs de l’EQM sous le modèle au niveau du domaine sont étudiées en examinant le biais, la racine carrée de l’erreur quadratique moyenne relative et le taux de couverture des intervalles de confiance sous le plan de sondage. Le cas d’un modèle au niveau de l’unité est également examiné sous échantillonnage aléatoire simple dans chaque domaine. Les résultats d’une étude en simulation montrent que les estimateurs composites proposés de l’EQM offrent un bon compromis pour l’estimation de l’EQM sous le plan.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 12-001-X201700254888
    Description :

    L’exposé retrace l’évolution de la théorie et de la méthodologie des enquêtes par sondage au cours des 100 dernières années. Dans un article fondamental publié en 1934, Neyman jetait les bases théoriques de l’approche axée sur l’échantillonnage probabiliste pour l’inférence à partir d’échantillons d’enquête. Les traités d’échantillonnage classiques publiés par Cochran, Deming, Hansen, Hurwitz et Madow, Sukhatme, ainsi que Yates au début des années 1950 étendaient et étoffaient la théorie de l’échantillonnage probabiliste, en mettant l’accent sur l’absence de biais, les caractéristiques exemptes de modèle, ainsi que les plans de sondage qui minimisent la variance selon un coût fixe. De 1960 à 1970, l’attention s’est portée sur les fondements théoriques de l’inférence à partir de données d’enquêtes, contexte dans lequel l’approche dépendante d’un modèle a suscité d’importantes discussions. L’apparition de logiciels statistiques d’usage général a entraîné l’utilisation de ces derniers avec des données d’enquêtes, d’où la conception de méthodes spécialement applicables aux données d’enquêtes complexes. Parallèlement, des méthodes de pondération telles que l’estimation par la régression et le calage devenaient réalisables et la convergence par rapport au plan de sondage a remplacé la contrainte d’absence de biais comme critère pour les estimateurs classiques. Un peu plus tard, les méthodes de rééchantillonnage gourmandes en ressources informatiques sont également devenues applicables à des échantillons d’enquêtes à grande échelle. L’augmentation de la puissance informatique a permis des imputations plus avancées des données manquantes, l’utilisation d’une plus grande quantité de données auxiliaires, le traitement des erreurs de mesure dans l’estimation, et l’application de procédures d’estimation plus complexes. Une utilisation marquante de modèles a eu lieu dans le domaine en expansion de l’estimation sur petits domaines. Les orientations futures de la recherche et des méthodes seront influencées par les budgets, les taux de réponse, le degré d’actualité des données, les outils améliorés de collecte des données et l’existence de données auxiliaires, dont une partie proviendra des « mégadonnées ». L’évolution des comportements culturels et de l’environnement physico-technique aura une incidence sur la façon de réaliser les enquêtes.

    Date de diffusion : 2017-12-21

  • Articles et rapports : 11-522-X201700014737
    Description :

    Les méthodes statistiques classiques qui ne tiennent pas compte comme il convient de la complexité du plan d’échantillonnage peuvent mener à des inférences incorrectes lorsqu’elles sont appliquées à des données d’enquête. En particulier, le taux réel d’erreur de première espèce des tests d’hypothèse fondés sur les tests classiques peut être nettement plus élevé que le niveau nominal. On a proposé des méthodes qui tiennent compte des caractéristiques du plan d’échantillonnage dans les tests d’hypothèse, y compris les tests de Wald et les tests du quasi-score (Rao, Scott et Skinner 1998), qui font intervenir les matrices de covariance estimées des estimations des paramètres. La méthode du bootstrap de Rao et Wu (1983) est appliquée fréquemment à Statistique Canada pour estimer les matrices de covariance en utilisant un fichier de données contenant des colonnes de poids bootstrap. Les progiciels statistiques classiques permettent souvent d’utiliser des statistiques de test pondérées selon le plan d’échantillonnage et il est intéressant d’approximer les lois de ces statistiques sous l’hypothèse nulle par leurs analogues bootstrap calculés au moyen des poids bootstrap fournis dans le fichier de données. Beaumont et Bocci (2009) ont appliqué cette méthode du bootstrap pour tester les hypothèses sur les paramètres de régression sous un modèle de régression linéaire, en utilisant la statistique F pondérée. Dans le présent article, nous exposons une approche unifiée de la méthode susmentionnée consistant à construire des approximations bootstrap de la statistique du rapport de vraisemblance pondéré et de la statistique du quasi-score pondéré. Nous présentons les résultats d’une étude en simulation du test d’indépendance dans un tableau à double entrée de données d’enquête catégoriques. Nous avons étudié la performance de la méthode proposée comparativement à d’autres méthodes, dont la statistique du khi-carré corrigée de Rao-Scott pour les données d’enquête catégoriques.

    Date de diffusion : 2016-03-24

  • Articles et rapports : 12-001-X201500214248
    Description :

    L’utilisation de modèles de population au niveau de l’unité pour estimer des totaux et des moyennes de petit domaine en se fondant sur un modèle est fréquente, mais il se peut que le modèle ne soit pas vérifié pour l’échantillon si le plan d’échantillonnage est informatif pour le modèle. Par conséquent, les méthodes d’estimation classiques, qui supposent que le modèle est vérifié pour l’échantillon, peuvent donner des estimateurs biaisés. Nous étudions d’autres méthodes comprenant l’utilisation d’une fonction appropriée de la probabilité de sélection des unités en tant que variable auxiliaire supplémentaire dans le modèle de l’échantillon. Nous présentons les résultats d’une étude en simulation du biais et de l’erreur quadratique moyenne (EQM) des estimateurs proposés des moyennes de petit domaine et du biais relatif des estimateurs de l’EQM connexes, en utilisant des plans d’échantillonnage informatifs pour générer les échantillons. D’autres méthodes, fondées sur la modélisation de l’espérance conditionnelle du poids de sondage sous forme d’une fonction des covariables du modèle et de la réponse, sont également incluses dans l’étude en simulation.

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201500114161
    Description :

    Le modèle de Fay Herriot est un modèle au niveau du domaine d’usage très répandu pour l’estimation des moyennes de petit domaine. Ce modèle contient des effets aléatoires en dehors de la régression linéaire (fixe) basée sur les covariables au niveau du domaine. Les meilleurs prédicteurs linéaires sans biais empiriques des moyennes de petit domaine s’obtiennent en estimant les effets aléatoires de domaine, et ils peuvent être exprimés sous forme d’une moyenne pondérée des estimateurs directs propres aux domaines et d’estimateurs synthétiques de type régression. Dans certains cas, les données observées n’appuient pas l’inclusion des effets aléatoires de domaine dans le modèle. L’exclusion de ces effets de domaine aboutit à l’estimateur synthétique de type régression, autrement dit un poids nul est appliqué à l’estimateur direct. L’étude porte sur un estimateur à test préliminaire d’une moyenne de petit domaine obtenu après l’exécution d’un test pour déceler la présence d’effets aléatoires de domaine. Parallèlement, elle porte sur les meilleurs prédicteurs linéaires sans biais empiriques des moyennes de petit domaine qui donnent toujours des poids non nuls aux estimateurs directs dans tous les domaines, ainsi que certains estimateurs de rechange basés sur le test préliminaire. La procédure de test préliminaire est également utilisée pour définir de nouveaux estimateurs de l’erreur quadratique moyenne des estimateurs ponctuels des moyennes de petit domaine. Les résultats d’une étude par simulation limitée montrent que, si le nombre de domaines est petit, la procédure d’essai préliminaire mène à des estimateurs de l’erreur quadratique moyenne présentant un biais relatif absolu moyen considérablement plus faible que les estimateurs de l’erreur quadratique moyenne usuels, surtout quand la variance des effets aléatoires est faible comparativement aux variances d’échantillonnage.

    Date de diffusion : 2015-06-29
Stats en bref (0)

Stats en bref (0) (0 résultat)

Aucun contenu disponible actuellement

Articles et rapports (43)

Articles et rapports (43) (0 à 10 de 43 résultats)

  • Articles et rapports : 12-001-X202300100006
    Description : Mes commentaires sont répartis en trois volets : 1) bref compte rendu de mon association professionnelle avec Chris Skinner, 2) observations sur les réalisations de Skinner en matière de contrôle de la divulgation statistique et 3) propos sur la production d’inférences à partir de données d’enquête masquées.
    Date de diffusion : 2023-06-30

  • Articles et rapports : 12-001-X202200100003
    Description :

    L’utilisation de données auxiliaires pour améliorer l’efficacité des estimateurs de totaux et de moyennes grâce à l’estimation par régression d’enquête assistée par un modèle a suscité un grand intérêt au cours de ces dernières années. Les estimateurs par la régression généralisée (ERG), basés sur un modèle de régression linéaire de travail, sont actuellement utilisés dans les enquêtes auprès d’établissements au sein de Statistique Canada et dans plusieurs autres organismes statistiques. Les estimateurs ERG utilisent des poids d’enquête communs à toutes les variables de l’étude et tiennent compte des totaux de population connus des variables auxiliaires. De plus en plus, de nombreuses variables auxiliaires sont disponibles, dont certaines peuvent être extérieures. Cela donne lieu des poids d’ERG fluctuants lorsque toutes les variables auxiliaires disponibles, y compris les interactions entre les variables catégorielles, sont utilisées dans le modèle de régression linéaire de travail. Par ailleurs, de nouvelles méthodes d’apprentissage automatique, comme les arbres de régression et les méthodes LASSO, sélectionnent automatiquement les variables auxiliaires significatives et donnent lieu à des poids non négatifs stables et à des gains d’efficacité possibles par rapport aux estimateurs ERG. Dans le présent article, une étude par simulations, basée sur un ensemble de données réelles d’une enquête réalisée auprès d’entreprises considérées comme la population cible, est menée pour étudier la performance relative des estimateurs ERG, des arbres de régression et des méthodes LASSO en matière d’efficacité des estimateurs et de propriétés des poids de régression connexes. Des scénarios d’échantillonnage probabiliste et d’échantillonnage non probabiliste sont étudiés.

    Date de diffusion : 2022-06-21

  • Articles et rapports : 11-522-X202100100009
    Description :

    Le recours à des données auxiliaires pour améliorer l’efficacité d’estimateurs de totaux et de moyennes au moyen d’une procédure d’estimation d’enquête assistée par un modèle de régression a reçu une attention considérable ces dernières années. Des estimateurs par la régression généralisée (GREG), fondés sur un modèle de régression linéaire, sont actuellement utilisés dans le cadre d’enquêtes auprès d’établissements, à Statistique Canada et au sein de plusieurs autres organismes de statistiques. Les estimateurs GREG utilisent des poids d’enquête communs à toutes les variables d’étude et un calage aux totaux de population de variables auxiliaires. De plus en plus de variables auxiliaires sont disponibles et certaines peuvent être superflues. Cela mène à des poids GREG instables lorsque toutes les variables auxiliaires disponibles, y compris les interactions parmi les variables catégoriques, sont utilisées dans le modèle de régression linéaire. En revanche, de nouvelles méthodes d’apprentissage automatique, comme les arbres de régression et la méthode LASSO, sélectionnent automatiquement des variables auxiliaires significatives et mènent à des poids non négatifs stables et à d’éventuels gains d’efficacité par rapport à la méthode GREG. Dans cet article, une étude par simulations, fondée sur un ensemble de données-échantillon d’une enquête-entreprise réelle traité comme la population cible, est menée afin d’examiner le rendement relatif de la méthode GREG, d’arbres de régression et de la méthode LASSO sur le plan de l’efficacité des estimateurs.

    Mots-clés : inférence assistée par modèle; estimation par calage; sélection du modèle; estimateur par la régression généralisée.

    Date de diffusion : 2021-10-29

  • Articles et rapports : 12-001-X201900100002
    Description :

    La non-réponse partielle se produit fréquemment dans les enquêtes-échantillons. On utilise couramment l’imputation hot deck pour remplacer les valeurs des items manquants dans des groupes homogènes appelés classes d’imputation. Nous proposons une procédure d’imputation hot deck fractionnaire et une vraisemblance empirique associée pour l’inférence sur la moyenne de population d’une fonction d’une variable d’intérêt présentant des données manquantes selon un échantillonnage avec probabilité proportionnelle à la taille avec fractions d’échantillonnage négligeables. Nous calculons les distributions limites de l’estimateur du maximum de vraisemblance empirique et du rapport de vraisemblance empirique, et nous proposons deux procédures bootstrap asymptotiques valides afin de construire des intervalles de confiance pour la moyenne de population. Les études par simulations montrent que les procédures bootstrap proposées donnent de meilleurs résultats que les procédures bootstrap habituelles, qui se révèlent asymptotiquement incorrectes quand le nombre de tirages aléatoires de l’imputation fractionnaire est fixe. De plus, la procédure bootstrap proposée, fondée sur le rapport de vraisemblance empirique, semble donner des résultats significativement meilleurs que la méthode fondée sur la distribution limite de l’estimateur du maximum de vraisemblance empirique en cas de grande variation des probabilités d’inclusion ou d’échantillon de petite taille.

    Date de diffusion : 2019-05-07

  • Articles et rapports : 12-001-X201900100003
    Description :

    Dans le présent article, je tenterai de brièvement présenter par ordre chronologique quelques faits saillants de ma vie hasardeuse de statisticien, qui s’est étalée sur plus de 60 ans, de 1954 à aujourd’hui.

    Date de diffusion : 2019-05-07

  • Articles et rapports : 12-001-X201800254958
    Description :

    Les domaines (ou sous-populations) pour lesquels les échantillons sont de petite taille sont appelés petits domaines. Les estimateurs directs classiques ne sont pas suffisamment précis pour ces petits domaines, en raison de la petite taille des échantillons. Or, la demande de statistiques fiables pour les petits domaines a augmenté considérablement. On utilise à l’heure actuelle des estimateurs indirects des moyennes ou des totaux de petits domaines basés sur un modèle pour résoudre les difficultés que pose l’estimation directe. Ces estimateurs reposent sur des modèles de liaison qui empruntent de l’information aux divers domaines pour accroître l’efficacité. En particulier, beaucoup d’attention a été accordée dans la littérature aux meilleurs estimateurs empiriques ou estimateurs EB (pour Empirical Best) sous des modèles de régression linéaires au niveau du domaine et au niveau de l’unité contenant des effets aléatoires de petit domaine. L’erreur quadratique moyenne (EQM) des estimateurs EB sous le modèle sert fréquemment à mesurer la variabilité des estimateurs. Les estimateurs par linéarisation, ainsi que les estimateurs jackknife et bootstrap de l’EQM sous le modèle sont d’usage très répandu. Toutefois, les organismes statistiques nationaux s’intéressent souvent à l’estimation de l’EQM des estimateurs EB sous le plan de sondage, pour cadrer avec les estimateurs classiques de l’EQM sous le plan associés aux estimateurs directs pour les grands domaines dont les tailles d’échantillon sont adéquates. Les estimateurs de l’EQM sous le plan des estimateurs EB peuvent être obtenus pour les modèles au niveau du domaine, mais ils ont tendance à être instables quand la taille de l’échantillon du domaine est petite. Des estimateurs composites de l’EQM, obtenus en prenant une somme pondérée de l’estimateur de l’EQM sous le plan et de l’estimateur de l’EQM sous le modèle, sont proposés dans le présent article. Les propriétés des estimateurs de l’EQM sous le modèle au niveau du domaine sont étudiées en examinant le biais, la racine carrée de l’erreur quadratique moyenne relative et le taux de couverture des intervalles de confiance sous le plan de sondage. Le cas d’un modèle au niveau de l’unité est également examiné sous échantillonnage aléatoire simple dans chaque domaine. Les résultats d’une étude en simulation montrent que les estimateurs composites proposés de l’EQM offrent un bon compromis pour l’estimation de l’EQM sous le plan.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 12-001-X201700254888
    Description :

    L’exposé retrace l’évolution de la théorie et de la méthodologie des enquêtes par sondage au cours des 100 dernières années. Dans un article fondamental publié en 1934, Neyman jetait les bases théoriques de l’approche axée sur l’échantillonnage probabiliste pour l’inférence à partir d’échantillons d’enquête. Les traités d’échantillonnage classiques publiés par Cochran, Deming, Hansen, Hurwitz et Madow, Sukhatme, ainsi que Yates au début des années 1950 étendaient et étoffaient la théorie de l’échantillonnage probabiliste, en mettant l’accent sur l’absence de biais, les caractéristiques exemptes de modèle, ainsi que les plans de sondage qui minimisent la variance selon un coût fixe. De 1960 à 1970, l’attention s’est portée sur les fondements théoriques de l’inférence à partir de données d’enquêtes, contexte dans lequel l’approche dépendante d’un modèle a suscité d’importantes discussions. L’apparition de logiciels statistiques d’usage général a entraîné l’utilisation de ces derniers avec des données d’enquêtes, d’où la conception de méthodes spécialement applicables aux données d’enquêtes complexes. Parallèlement, des méthodes de pondération telles que l’estimation par la régression et le calage devenaient réalisables et la convergence par rapport au plan de sondage a remplacé la contrainte d’absence de biais comme critère pour les estimateurs classiques. Un peu plus tard, les méthodes de rééchantillonnage gourmandes en ressources informatiques sont également devenues applicables à des échantillons d’enquêtes à grande échelle. L’augmentation de la puissance informatique a permis des imputations plus avancées des données manquantes, l’utilisation d’une plus grande quantité de données auxiliaires, le traitement des erreurs de mesure dans l’estimation, et l’application de procédures d’estimation plus complexes. Une utilisation marquante de modèles a eu lieu dans le domaine en expansion de l’estimation sur petits domaines. Les orientations futures de la recherche et des méthodes seront influencées par les budgets, les taux de réponse, le degré d’actualité des données, les outils améliorés de collecte des données et l’existence de données auxiliaires, dont une partie proviendra des « mégadonnées ». L’évolution des comportements culturels et de l’environnement physico-technique aura une incidence sur la façon de réaliser les enquêtes.

    Date de diffusion : 2017-12-21

  • Articles et rapports : 11-522-X201700014737
    Description :

    Les méthodes statistiques classiques qui ne tiennent pas compte comme il convient de la complexité du plan d’échantillonnage peuvent mener à des inférences incorrectes lorsqu’elles sont appliquées à des données d’enquête. En particulier, le taux réel d’erreur de première espèce des tests d’hypothèse fondés sur les tests classiques peut être nettement plus élevé que le niveau nominal. On a proposé des méthodes qui tiennent compte des caractéristiques du plan d’échantillonnage dans les tests d’hypothèse, y compris les tests de Wald et les tests du quasi-score (Rao, Scott et Skinner 1998), qui font intervenir les matrices de covariance estimées des estimations des paramètres. La méthode du bootstrap de Rao et Wu (1983) est appliquée fréquemment à Statistique Canada pour estimer les matrices de covariance en utilisant un fichier de données contenant des colonnes de poids bootstrap. Les progiciels statistiques classiques permettent souvent d’utiliser des statistiques de test pondérées selon le plan d’échantillonnage et il est intéressant d’approximer les lois de ces statistiques sous l’hypothèse nulle par leurs analogues bootstrap calculés au moyen des poids bootstrap fournis dans le fichier de données. Beaumont et Bocci (2009) ont appliqué cette méthode du bootstrap pour tester les hypothèses sur les paramètres de régression sous un modèle de régression linéaire, en utilisant la statistique F pondérée. Dans le présent article, nous exposons une approche unifiée de la méthode susmentionnée consistant à construire des approximations bootstrap de la statistique du rapport de vraisemblance pondéré et de la statistique du quasi-score pondéré. Nous présentons les résultats d’une étude en simulation du test d’indépendance dans un tableau à double entrée de données d’enquête catégoriques. Nous avons étudié la performance de la méthode proposée comparativement à d’autres méthodes, dont la statistique du khi-carré corrigée de Rao-Scott pour les données d’enquête catégoriques.

    Date de diffusion : 2016-03-24

  • Articles et rapports : 12-001-X201500214248
    Description :

    L’utilisation de modèles de population au niveau de l’unité pour estimer des totaux et des moyennes de petit domaine en se fondant sur un modèle est fréquente, mais il se peut que le modèle ne soit pas vérifié pour l’échantillon si le plan d’échantillonnage est informatif pour le modèle. Par conséquent, les méthodes d’estimation classiques, qui supposent que le modèle est vérifié pour l’échantillon, peuvent donner des estimateurs biaisés. Nous étudions d’autres méthodes comprenant l’utilisation d’une fonction appropriée de la probabilité de sélection des unités en tant que variable auxiliaire supplémentaire dans le modèle de l’échantillon. Nous présentons les résultats d’une étude en simulation du biais et de l’erreur quadratique moyenne (EQM) des estimateurs proposés des moyennes de petit domaine et du biais relatif des estimateurs de l’EQM connexes, en utilisant des plans d’échantillonnage informatifs pour générer les échantillons. D’autres méthodes, fondées sur la modélisation de l’espérance conditionnelle du poids de sondage sous forme d’une fonction des covariables du modèle et de la réponse, sont également incluses dans l’étude en simulation.

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201500114161
    Description :

    Le modèle de Fay Herriot est un modèle au niveau du domaine d’usage très répandu pour l’estimation des moyennes de petit domaine. Ce modèle contient des effets aléatoires en dehors de la régression linéaire (fixe) basée sur les covariables au niveau du domaine. Les meilleurs prédicteurs linéaires sans biais empiriques des moyennes de petit domaine s’obtiennent en estimant les effets aléatoires de domaine, et ils peuvent être exprimés sous forme d’une moyenne pondérée des estimateurs directs propres aux domaines et d’estimateurs synthétiques de type régression. Dans certains cas, les données observées n’appuient pas l’inclusion des effets aléatoires de domaine dans le modèle. L’exclusion de ces effets de domaine aboutit à l’estimateur synthétique de type régression, autrement dit un poids nul est appliqué à l’estimateur direct. L’étude porte sur un estimateur à test préliminaire d’une moyenne de petit domaine obtenu après l’exécution d’un test pour déceler la présence d’effets aléatoires de domaine. Parallèlement, elle porte sur les meilleurs prédicteurs linéaires sans biais empiriques des moyennes de petit domaine qui donnent toujours des poids non nuls aux estimateurs directs dans tous les domaines, ainsi que certains estimateurs de rechange basés sur le test préliminaire. La procédure de test préliminaire est également utilisée pour définir de nouveaux estimateurs de l’erreur quadratique moyenne des estimateurs ponctuels des moyennes de petit domaine. Les résultats d’une étude par simulation limitée montrent que, si le nombre de domaines est petit, la procédure d’essai préliminaire mène à des estimateurs de l’erreur quadratique moyenne présentant un biais relatif absolu moyen considérablement plus faible que les estimateurs de l’erreur quadratique moyenne usuels, surtout quand la variance des effets aléatoires est faible comparativement aux variances d’échantillonnage.

    Date de diffusion : 2015-06-29
Revues et périodiques (0)

Revues et périodiques (0) (0 résultat)

Aucun contenu disponible actuellement

Date de modification :