Aide à l'ordre
entrées

Résultats

Tout (17)

Tout (17) (0 à 10 de 17 résultats)

  • Articles et rapports : 12-001-X202300100002
    Description : Nous envisageons ici l’analyse de régression dans le contexte de l’intégration de données. Pour combiner des renseignements partiels de sources externes, nous utilisons l’idée de calage assisté par un modèle qui introduit un modèle « de travail » réduit fondé sur les covariables observées. Ce modèle de travail réduit n’est pas nécessairement spécifié correctement, mais il peut être un outil utile pour intégrer les renseignements partiels provenant de données externes. La mise en œuvre en tant que telle est fondée sur une application nouvelle de la projection d’information et de la pondération par calage du modèle. La méthode proposée est particulièrement intéressante pour combiner des renseignements de plusieurs sources présentant différentes tendances en matière de données manquantes. La méthode est appliquée à un exemple de données réelles combinant les données d’enquête de l'enquête KNHANES (enquête nationale coréenne sur la santé et la nutrition) et les mégadonnées du NHISS (service national coréen de partage de l’assurance maladie).
    Date de diffusion : 2023-06-30

  • Articles et rapports : 12-001-X202200200007
    Description :

    L’inférence statistique avec des échantillons d’enquête non probabilistes est un problème complexe bien connu en statistique. Dans la présente analyse, nous proposons deux nouvelles méthodes non paramétriques d’estimation des scores de propension pour pondérer les échantillons non probabilistes, à savoir la projection d’information et le calage uniforme dans un espace de Hilbert à noyau reproduisant.

    Date de diffusion : 2022-12-15

  • Articles et rapports : 12-001-X202200100007
    Description :

    Dans le cadre d’un couplage d’enregistrements, on associe des enregistrements résidant dans des fichiers distincts que l’on pense être reliés à la même entité. Dans la présente étude, nous abordons le couplage d’enregistrements comme un problème de classification et adaptons la méthode de classification par entropie maximale de l’apprentissage automatique pour coupler des enregistrements, tant dans l’environnement d’apprentissage automatique supervisé que non supervisé. L’ensemble de couplages est choisi en fonction de l’incertitude connexe. D’une part, notre cadre de travail permet de surmonter certaines failles théoriques persistantes de l’approche classique dont les pionniers ont été Fellegi et Sunter (1969); d’autre part, l’algorithme proposé est entièrement automatique, contrairement à l’approche classique qui nécessite généralement un examen manuel afin de résoudre des cas indécis.

    Date de diffusion : 2022-06-21

  • Articles et rapports : 11-522-X202100100001
    Description :

    Nous envisageons ici l’analyse de régression dans le contexte de l’intégration de données. Pour combiner des renseignements partiels de sources externes, nous utilisons l’idée de calage de modèle qui introduit un modèle « de travail » réduit fondé sur les covariables observées. Ce modèle de travail réduit n’est pas nécessairement spécifié correctement, mais il peut être un outil utile pour intégrer les renseignements partiels provenant de données externes. La mise en œuvre en tant que telle se fonde sur une application nouvelle de la méthode de vraisemblance empirique. La méthode proposée est particulièrement attractive pour combiner des renseignements de plusieurs sources présentant différentes tendances d’information manquante. La méthode est appliquée à un exemple de données réelles combinant les données d’enquête de la Korean National Health and Nutrition Examination Survey (KNHANES, Enquête nationale coréenne sur la santé et la nutrition) et les mégadonnées du National Health Insurance Sharing Service (NHISS, Service national coréen de partage de l’assurance maladie).

    Mots clés : mégadonnées; probabilité empirique; modèles d’erreur de mesure; covariables manquantes.

    Date de diffusion : 2021-10-15

  • Articles et rapports : 12-001-X201900300002
    Description :

    Souvent, des paradonnées sont recueillies pendant le processus d’enquête afin de surveiller la qualité des réponses. L’une des paradonnées recueillies est le comportement du répondant, qui peut servir dans la construction des modèles de réponse. On peut appliquer le poids du score de propension utilisant les renseignements sur le comportement du répondant à l’analyse finale pour réduire le biais dû à la non-réponse. Toutefois, l’inclusion de la variable de substitution dans la pondération du score de propension ne garantit pas toujours une amélioration de l’efficacité. Nous montrons que la variable de substitution n’est utile que quand elle est corrélée à la variable étudiée. Les résultats d’une étude par simulations limitée confirment cette constatation. L’article présente aussi une application sur données réelles utilisant les données de la Korean Workplace Panel Survey (enquête par panel sur le milieu de travail en Corée).

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201600114539
    Description :

    L’appariement statistique est une technique permettant d’intégrer deux ou plusieurs ensembles de données lorsque les renseignements nécessaires pour apparier les enregistrements des participants individuels dans les ensembles de données sont incomplets. On peut considérer l’appariement statistique comme un problème de données manquantes en vertu duquel on souhaite effectuer une analyse conjointe de variables qui ne sont jamais observées ensemble. On utilise souvent une hypothèse d’indépendance conditionnelle pour créer des données imputées aux fins d’appariement statistique. Nous examinons une approche générale de l’appariement statistique faisant appel à l’imputation fractionnaire paramétrique de Kim (2011) pour créer des données imputées en vertu de l’hypothèse que le modèle spécifié est entièrement identifié. La méthode proposée ne produit pas une séquence EM convergente si le modèle n’est pas identifié. Nous présentons aussi des estimateurs de variance convenant à la procédure d’imputation. Nous expliquons comment la méthode s’applique directement à l’analyse des données obtenues à partir de plans de sondage à questionnaire scindé et aux modèles d’erreur de mesure.

    Date de diffusion : 2016-06-22

  • Articles et rapports : 12-001-X201600114543
    Description :

    L’estimateur par régression est utilisé de façon intensive en pratique, car il peut améliorer la fiabilité de l’estimation des paramètres d’intérêt tels que les moyennes ou les totaux. Il utilise les totaux de contrôle des variables connues au niveau de la population qui sont incluses dans le modèle de régression. Dans cet article, nous examinons les propriétés de l’estimateur par régression qui utilise les totaux de contrôle estimés à partir de l’échantillon, ainsi que ceux connus au niveau de la population. Cet estimateur est comparé aux estimateurs par régression qui utilisent uniquement les totaux connus du point de vue théorique et par simulation.

    Date de diffusion : 2016-06-22

  • Articles et rapports : 11-522-X201700014737
    Description :

    Les méthodes statistiques classiques qui ne tiennent pas compte comme il convient de la complexité du plan d’échantillonnage peuvent mener à des inférences incorrectes lorsqu’elles sont appliquées à des données d’enquête. En particulier, le taux réel d’erreur de première espèce des tests d’hypothèse fondés sur les tests classiques peut être nettement plus élevé que le niveau nominal. On a proposé des méthodes qui tiennent compte des caractéristiques du plan d’échantillonnage dans les tests d’hypothèse, y compris les tests de Wald et les tests du quasi-score (Rao, Scott et Skinner 1998), qui font intervenir les matrices de covariance estimées des estimations des paramètres. La méthode du bootstrap de Rao et Wu (1983) est appliquée fréquemment à Statistique Canada pour estimer les matrices de covariance en utilisant un fichier de données contenant des colonnes de poids bootstrap. Les progiciels statistiques classiques permettent souvent d’utiliser des statistiques de test pondérées selon le plan d’échantillonnage et il est intéressant d’approximer les lois de ces statistiques sous l’hypothèse nulle par leurs analogues bootstrap calculés au moyen des poids bootstrap fournis dans le fichier de données. Beaumont et Bocci (2009) ont appliqué cette méthode du bootstrap pour tester les hypothèses sur les paramètres de régression sous un modèle de régression linéaire, en utilisant la statistique F pondérée. Dans le présent article, nous exposons une approche unifiée de la méthode susmentionnée consistant à construire des approximations bootstrap de la statistique du rapport de vraisemblance pondéré et de la statistique du quasi-score pondéré. Nous présentons les résultats d’une étude en simulation du test d’indépendance dans un tableau à double entrée de données d’enquête catégoriques. Nous avons étudié la performance de la méthode proposée comparativement à d’autres méthodes, dont la statistique du khi-carré corrigée de Rao-Scott pour les données d’enquête catégoriques.

    Date de diffusion : 2016-03-24

  • Articles et rapports : 12-001-X201500114150
    Description :

    Une approche basée sur un modèle au niveau du domaine pour combiner des données provenant de plusieurs sources est examinée dans le contexte de l’estimation sur petits domaines. Pour chaque petit domaine, plusieurs estimations sont calculées et reliées au moyen d’un système de modèles d’erreur structurels. Le meilleur prédicteur linéaire sans biais du paramètre de petit domaine peut être calculé par la méthode des moindres carrés généralisés. Les paramètres des modèles d’erreur structurels sont estimés en s’appuyant sur la théorie des modèles d’erreur de mesure. L’estimation des erreurs quadratiques moyennes est également discutée. La méthode proposée est appliquée au problème réel des enquêtes sur la population active en Corée.

    Date de diffusion : 2015-06-29

  • Articles et rapports : 12-001-X201300111826
    Description :

    Il est courant que les organismes d'enquête fournissent des poids de rééchantillonnage dans les fichiers de données d'enquête. Ces poids de rééchantillonnage servent à produire de manière simple et systématique des estimations valides et efficaces de la variance pour divers estimateurs. Cependant, la plupart des méthodes existantes de construction de poids de rééchantillonnage ne sont valides que pour des plans d'échantillonnage particuliers et nécessitent habituellement un très grand nombre de répliques. Dans le présent article, nous montrons d'abord comment produire les poids de rééchantillonnage en se basant sur la méthode décrite dans Fay (1984) de manière que l'estimateur de la variance par rééchantillonnage résultant soit algébriquement équivalent à l'estimateur de la variance par linéarisation entièrement efficace pour tout plan d'échantillonnage donné. Puis, nous proposons une nouvelle méthode de calage des poids afin que l'estimation soit simultanément efficace et parcimonieuse au sens où un petit nombre de jeux de poids de rééchantillonnage peuvent produire des estimateurs de la variance par rééchantillonnage valides et efficaces pour les paramètres de population importants. La méthode que nous proposons peut être conjuguée aux méthodes de rééchantillonnage existantes pour les enquêtes complexes à grande échelle. Nous discutons également de la validité des méthodes proposées et de leur extension à certains plans d'échantillonnage équilibrés. Les résultats de simulations montrent que les estimateurs de variance que nous proposons suivent très bien les probabilités de couverture des intervalles de confiance. Les stratégies que nous proposons auront vraisemblablement des répercussions sur la façon de produire les fichiers de données d'enquête à grande diffusion et d'analyser ces ensembles de données.

    Date de diffusion : 2013-06-28
Stats en bref (0)

Stats en bref (0) (0 résultat)

Aucun contenu disponible actuellement

Articles et rapports (17)

Articles et rapports (17) (0 à 10 de 17 résultats)

  • Articles et rapports : 12-001-X202300100002
    Description : Nous envisageons ici l’analyse de régression dans le contexte de l’intégration de données. Pour combiner des renseignements partiels de sources externes, nous utilisons l’idée de calage assisté par un modèle qui introduit un modèle « de travail » réduit fondé sur les covariables observées. Ce modèle de travail réduit n’est pas nécessairement spécifié correctement, mais il peut être un outil utile pour intégrer les renseignements partiels provenant de données externes. La mise en œuvre en tant que telle est fondée sur une application nouvelle de la projection d’information et de la pondération par calage du modèle. La méthode proposée est particulièrement intéressante pour combiner des renseignements de plusieurs sources présentant différentes tendances en matière de données manquantes. La méthode est appliquée à un exemple de données réelles combinant les données d’enquête de l'enquête KNHANES (enquête nationale coréenne sur la santé et la nutrition) et les mégadonnées du NHISS (service national coréen de partage de l’assurance maladie).
    Date de diffusion : 2023-06-30

  • Articles et rapports : 12-001-X202200200007
    Description :

    L’inférence statistique avec des échantillons d’enquête non probabilistes est un problème complexe bien connu en statistique. Dans la présente analyse, nous proposons deux nouvelles méthodes non paramétriques d’estimation des scores de propension pour pondérer les échantillons non probabilistes, à savoir la projection d’information et le calage uniforme dans un espace de Hilbert à noyau reproduisant.

    Date de diffusion : 2022-12-15

  • Articles et rapports : 12-001-X202200100007
    Description :

    Dans le cadre d’un couplage d’enregistrements, on associe des enregistrements résidant dans des fichiers distincts que l’on pense être reliés à la même entité. Dans la présente étude, nous abordons le couplage d’enregistrements comme un problème de classification et adaptons la méthode de classification par entropie maximale de l’apprentissage automatique pour coupler des enregistrements, tant dans l’environnement d’apprentissage automatique supervisé que non supervisé. L’ensemble de couplages est choisi en fonction de l’incertitude connexe. D’une part, notre cadre de travail permet de surmonter certaines failles théoriques persistantes de l’approche classique dont les pionniers ont été Fellegi et Sunter (1969); d’autre part, l’algorithme proposé est entièrement automatique, contrairement à l’approche classique qui nécessite généralement un examen manuel afin de résoudre des cas indécis.

    Date de diffusion : 2022-06-21

  • Articles et rapports : 11-522-X202100100001
    Description :

    Nous envisageons ici l’analyse de régression dans le contexte de l’intégration de données. Pour combiner des renseignements partiels de sources externes, nous utilisons l’idée de calage de modèle qui introduit un modèle « de travail » réduit fondé sur les covariables observées. Ce modèle de travail réduit n’est pas nécessairement spécifié correctement, mais il peut être un outil utile pour intégrer les renseignements partiels provenant de données externes. La mise en œuvre en tant que telle se fonde sur une application nouvelle de la méthode de vraisemblance empirique. La méthode proposée est particulièrement attractive pour combiner des renseignements de plusieurs sources présentant différentes tendances d’information manquante. La méthode est appliquée à un exemple de données réelles combinant les données d’enquête de la Korean National Health and Nutrition Examination Survey (KNHANES, Enquête nationale coréenne sur la santé et la nutrition) et les mégadonnées du National Health Insurance Sharing Service (NHISS, Service national coréen de partage de l’assurance maladie).

    Mots clés : mégadonnées; probabilité empirique; modèles d’erreur de mesure; covariables manquantes.

    Date de diffusion : 2021-10-15

  • Articles et rapports : 12-001-X201900300002
    Description :

    Souvent, des paradonnées sont recueillies pendant le processus d’enquête afin de surveiller la qualité des réponses. L’une des paradonnées recueillies est le comportement du répondant, qui peut servir dans la construction des modèles de réponse. On peut appliquer le poids du score de propension utilisant les renseignements sur le comportement du répondant à l’analyse finale pour réduire le biais dû à la non-réponse. Toutefois, l’inclusion de la variable de substitution dans la pondération du score de propension ne garantit pas toujours une amélioration de l’efficacité. Nous montrons que la variable de substitution n’est utile que quand elle est corrélée à la variable étudiée. Les résultats d’une étude par simulations limitée confirment cette constatation. L’article présente aussi une application sur données réelles utilisant les données de la Korean Workplace Panel Survey (enquête par panel sur le milieu de travail en Corée).

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201600114539
    Description :

    L’appariement statistique est une technique permettant d’intégrer deux ou plusieurs ensembles de données lorsque les renseignements nécessaires pour apparier les enregistrements des participants individuels dans les ensembles de données sont incomplets. On peut considérer l’appariement statistique comme un problème de données manquantes en vertu duquel on souhaite effectuer une analyse conjointe de variables qui ne sont jamais observées ensemble. On utilise souvent une hypothèse d’indépendance conditionnelle pour créer des données imputées aux fins d’appariement statistique. Nous examinons une approche générale de l’appariement statistique faisant appel à l’imputation fractionnaire paramétrique de Kim (2011) pour créer des données imputées en vertu de l’hypothèse que le modèle spécifié est entièrement identifié. La méthode proposée ne produit pas une séquence EM convergente si le modèle n’est pas identifié. Nous présentons aussi des estimateurs de variance convenant à la procédure d’imputation. Nous expliquons comment la méthode s’applique directement à l’analyse des données obtenues à partir de plans de sondage à questionnaire scindé et aux modèles d’erreur de mesure.

    Date de diffusion : 2016-06-22

  • Articles et rapports : 12-001-X201600114543
    Description :

    L’estimateur par régression est utilisé de façon intensive en pratique, car il peut améliorer la fiabilité de l’estimation des paramètres d’intérêt tels que les moyennes ou les totaux. Il utilise les totaux de contrôle des variables connues au niveau de la population qui sont incluses dans le modèle de régression. Dans cet article, nous examinons les propriétés de l’estimateur par régression qui utilise les totaux de contrôle estimés à partir de l’échantillon, ainsi que ceux connus au niveau de la population. Cet estimateur est comparé aux estimateurs par régression qui utilisent uniquement les totaux connus du point de vue théorique et par simulation.

    Date de diffusion : 2016-06-22

  • Articles et rapports : 11-522-X201700014737
    Description :

    Les méthodes statistiques classiques qui ne tiennent pas compte comme il convient de la complexité du plan d’échantillonnage peuvent mener à des inférences incorrectes lorsqu’elles sont appliquées à des données d’enquête. En particulier, le taux réel d’erreur de première espèce des tests d’hypothèse fondés sur les tests classiques peut être nettement plus élevé que le niveau nominal. On a proposé des méthodes qui tiennent compte des caractéristiques du plan d’échantillonnage dans les tests d’hypothèse, y compris les tests de Wald et les tests du quasi-score (Rao, Scott et Skinner 1998), qui font intervenir les matrices de covariance estimées des estimations des paramètres. La méthode du bootstrap de Rao et Wu (1983) est appliquée fréquemment à Statistique Canada pour estimer les matrices de covariance en utilisant un fichier de données contenant des colonnes de poids bootstrap. Les progiciels statistiques classiques permettent souvent d’utiliser des statistiques de test pondérées selon le plan d’échantillonnage et il est intéressant d’approximer les lois de ces statistiques sous l’hypothèse nulle par leurs analogues bootstrap calculés au moyen des poids bootstrap fournis dans le fichier de données. Beaumont et Bocci (2009) ont appliqué cette méthode du bootstrap pour tester les hypothèses sur les paramètres de régression sous un modèle de régression linéaire, en utilisant la statistique F pondérée. Dans le présent article, nous exposons une approche unifiée de la méthode susmentionnée consistant à construire des approximations bootstrap de la statistique du rapport de vraisemblance pondéré et de la statistique du quasi-score pondéré. Nous présentons les résultats d’une étude en simulation du test d’indépendance dans un tableau à double entrée de données d’enquête catégoriques. Nous avons étudié la performance de la méthode proposée comparativement à d’autres méthodes, dont la statistique du khi-carré corrigée de Rao-Scott pour les données d’enquête catégoriques.

    Date de diffusion : 2016-03-24

  • Articles et rapports : 12-001-X201500114150
    Description :

    Une approche basée sur un modèle au niveau du domaine pour combiner des données provenant de plusieurs sources est examinée dans le contexte de l’estimation sur petits domaines. Pour chaque petit domaine, plusieurs estimations sont calculées et reliées au moyen d’un système de modèles d’erreur structurels. Le meilleur prédicteur linéaire sans biais du paramètre de petit domaine peut être calculé par la méthode des moindres carrés généralisés. Les paramètres des modèles d’erreur structurels sont estimés en s’appuyant sur la théorie des modèles d’erreur de mesure. L’estimation des erreurs quadratiques moyennes est également discutée. La méthode proposée est appliquée au problème réel des enquêtes sur la population active en Corée.

    Date de diffusion : 2015-06-29

  • Articles et rapports : 12-001-X201300111826
    Description :

    Il est courant que les organismes d'enquête fournissent des poids de rééchantillonnage dans les fichiers de données d'enquête. Ces poids de rééchantillonnage servent à produire de manière simple et systématique des estimations valides et efficaces de la variance pour divers estimateurs. Cependant, la plupart des méthodes existantes de construction de poids de rééchantillonnage ne sont valides que pour des plans d'échantillonnage particuliers et nécessitent habituellement un très grand nombre de répliques. Dans le présent article, nous montrons d'abord comment produire les poids de rééchantillonnage en se basant sur la méthode décrite dans Fay (1984) de manière que l'estimateur de la variance par rééchantillonnage résultant soit algébriquement équivalent à l'estimateur de la variance par linéarisation entièrement efficace pour tout plan d'échantillonnage donné. Puis, nous proposons une nouvelle méthode de calage des poids afin que l'estimation soit simultanément efficace et parcimonieuse au sens où un petit nombre de jeux de poids de rééchantillonnage peuvent produire des estimateurs de la variance par rééchantillonnage valides et efficaces pour les paramètres de population importants. La méthode que nous proposons peut être conjuguée aux méthodes de rééchantillonnage existantes pour les enquêtes complexes à grande échelle. Nous discutons également de la validité des méthodes proposées et de leur extension à certains plans d'échantillonnage équilibrés. Les résultats de simulations montrent que les estimateurs de variance que nous proposons suivent très bien les probabilités de couverture des intervalles de confiance. Les stratégies que nous proposons auront vraisemblablement des répercussions sur la façon de produire les fichiers de données d'enquête à grande diffusion et d'analyser ces ensembles de données.

    Date de diffusion : 2013-06-28
Revues et périodiques (0)

Revues et périodiques (0) (0 résultat)

Aucun contenu disponible actuellement

Date de modification :