Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Année de publication

1 facets displayed. 1 facets selected.

Auteur(s)

13 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (15)

Tout (15) (0 à 10 de 15 résultats)

  • Articles et rapports : 12-001-X201700254871
    Description :

    L’article aborde la question de savoir comment utiliser des sources de données de rechange, telles que les données administratives et les données des médias sociaux, pour produire les statistiques officielles. Puisque la plupart des enquêtes réalisées par les instituts nationaux de statistique sont répétées au cours du temps, nous proposons une approche de modélisation de séries chronologiques structurelle multivariée en vue de modéliser les séries observées au moyen d’une enquête répétée avec les séries correspondantes obtenues à partir de ces sources de données de rechange. En général, cette approche améliore la précision des estimations directes issues de l’enquête grâce à l’utilisation de données d’enquête observées aux périodes précédentes et de données provenant de séries auxiliaires connexes. Ce modèle permet aussi de profiter de la plus grande fréquence des données des médias sociaux pour produire des estimations plus précises en temps réel pour l’enquête par sondage, au moment où les statistiques pour les médias sociaux deviennent disponibles alors que les données d’enquête ne le sont pas encore. Le recours au concept de cointégration permet d’examiner dans quelle mesure la série de rechange représente les mêmes phénomènes que la série observée au moyen de l’enquête répétée. La méthodologie est appliquée à l’Enquête sur la confiance des consommateurs des Pays-Bas et à un indice de sentiments dérivé des médias sociaux.

    Date de diffusion : 2017-12-21

  • Articles et rapports : 12-001-X201700254872
    Description :

    La présente note expose les fondements théoriques de l’extension de l’intervalle de couverture bilatéral de Wilson à une proportion estimée à partir de données d’enquêtes complexes. Il est démontré que l’intervalle est asymptotiquement équivalent à un intervalle calculé en partant d’une transformation logistique. Une légèrement meilleure version est examinée, mais les utilisateurs pourraient préférer construire un intervalle unilatéral déjà décrit dans la littérature.

    Date de diffusion : 2017-12-21

  • Articles et rapports : 12-001-X201700254887
    Description :

    L’article propose une nouvelle approche de décomposition de l’écart salarial entre les hommes et les femmes fondée sur une procédure de calage. Cette approche généralise deux méthodes de décomposition courantes, qui sont réexprimées en se servant des poids de sondage. La première est la méthode de Blinder-Oaxaca et la seconde est une méthode de repondération proposée par DiNardo, Fortin et Lemieux. La nouvelle approche offre un système de pondération qui nous permet d’estimer des paramètres d’intérêt tels que les quantiles. Une application aux données de l’Enquête suisse sur la structure des salaires illustre l’intérêt de cette approche.

    Date de diffusion : 2017-12-21

  • Articles et rapports : 12-001-X201700254888
    Description :

    L’exposé retrace l’évolution de la théorie et de la méthodologie des enquêtes par sondage au cours des 100 dernières années. Dans un article fondamental publié en 1934, Neyman jetait les bases théoriques de l’approche axée sur l’échantillonnage probabiliste pour l’inférence à partir d’échantillons d’enquête. Les traités d’échantillonnage classiques publiés par Cochran, Deming, Hansen, Hurwitz et Madow, Sukhatme, ainsi que Yates au début des années 1950 étendaient et étoffaient la théorie de l’échantillonnage probabiliste, en mettant l’accent sur l’absence de biais, les caractéristiques exemptes de modèle, ainsi que les plans de sondage qui minimisent la variance selon un coût fixe. De 1960 à 1970, l’attention s’est portée sur les fondements théoriques de l’inférence à partir de données d’enquêtes, contexte dans lequel l’approche dépendante d’un modèle a suscité d’importantes discussions. L’apparition de logiciels statistiques d’usage général a entraîné l’utilisation de ces derniers avec des données d’enquêtes, d’où la conception de méthodes spécialement applicables aux données d’enquêtes complexes. Parallèlement, des méthodes de pondération telles que l’estimation par la régression et le calage devenaient réalisables et la convergence par rapport au plan de sondage a remplacé la contrainte d’absence de biais comme critère pour les estimateurs classiques. Un peu plus tard, les méthodes de rééchantillonnage gourmandes en ressources informatiques sont également devenues applicables à des échantillons d’enquêtes à grande échelle. L’augmentation de la puissance informatique a permis des imputations plus avancées des données manquantes, l’utilisation d’une plus grande quantité de données auxiliaires, le traitement des erreurs de mesure dans l’estimation, et l’application de procédures d’estimation plus complexes. Une utilisation marquante de modèles a eu lieu dans le domaine en expansion de l’estimation sur petits domaines. Les orientations futures de la recherche et des méthodes seront influencées par les budgets, les taux de réponse, le degré d’actualité des données, les outils améliorés de collecte des données et l’existence de données auxiliaires, dont une partie proviendra des « mégadonnées ». L’évolution des comportements culturels et de l’environnement physico-technique aura une incidence sur la façon de réaliser les enquêtes.

    Date de diffusion : 2017-12-21

  • Articles et rapports : 12-001-X201700254894
    Description :

    Cette note de Danny Pfeffermann présente une discussion de l’article « Théorie et méthodologie des enquêtes par sondage : orientations passées, présentes et futures » où J.N.K. Rao et Wayne A. Fuller partagent leur vision quant à l’évolution de la théorie et de la méthodologie des enquêtes par sondage au cours des 100 dernières années.

    Date de diffusion : 2017-12-21

  • Articles et rapports : 12-001-X201700254895
    Description :

    Cette note de Graham Kalton présente une discussion de l’article « Théorie et méthodologie des enquêtes par sondage : orientations passées, présentes et futures » où J.N.K. Rao et Wayne A. Fuller partagent leur vision quant à l’évolution de la théorie et de la méthodologie des enquêtes par sondage au cours des 100 dernières années.

    Date de diffusion : 2017-12-21

  • Articles et rapports : 12-001-X201700254896
    Description :

    Cette note de Sharon L. Lohr présente une discussion de l’article « Théorie et méthodologie des enquêtes par sondage : orientations passées, présentes et futures » où J.N.K. Rao et Wayne A. Fuller partagent leur vision quant à l’évolution de la théorie et de la méthodologie des enquêtes par sondage au cours des 100 dernières années.

    Date de diffusion : 2017-12-21

  • Articles et rapports : 12-001-X201700254897
    Description :

    Cette note de Chris Skinner présente une discussion de l’article « Théorie et méthodologie des enquêtes par sondage : orientations passées, présentes et futures » où J.N.K. Rao et Wayne A. Fuller partagent leur vision quant à l’évolution de la théorie et de la méthodologie des enquêtes par sondage au cours des 100 dernières années.

    Date de diffusion : 2017-12-21

  • Articles et rapports : 12-001-X201700114817
    Description :

    Nous présentons les résultats de notre recherche sur les modes de répartition d’échantillons qui permettent de faire une estimation efficace sur petits domaines par modélisation dans les cas où les domaines d’intérêt coïncident avec les strates. Les méthodes d’estimation assistées d’un modèle et celles fondées sur un modèle sont répandues dans la production de statistiques relatives aux petits domaines, mais l’utilisation du modèle et de la méthode d’estimation sous-jacents est rarement intégrée au plan de répartition de l’échantillon entre les domaines. C’est pourquoi nous avons conçu un nouveau mode de répartition fondée sur un modèle que nous avons appelé répartition g1. Aux fins de comparaison, nous décrivons un autre mode de répartition fondée sur un modèle qui a récemment vu le jour. Ces deux répartitions sont fondées sur une mesure ajustée de l’homogénéité qui se calcule à l’aide d’une variable auxiliaire et constitue une approximation de la corrélation intraclasse à l’intérieur des domaines. Nous avons choisi cinq solutions de répartition par domaine sans modèle, adoptées par le passé dans le cadre d’études spécialisées, comme méthodes de référence. Pour une répartition égale ou proportionnelle, il nous faut connaître le nombre de domaines ainsi que le nombre d’unités statistiques de base dans chacun d’eux. Les répartitions de Neyman et de Bankier et la répartition par programmation non linéaire (PNL), nécessitent des paramètres au niveau du domaine comme l’écart-type, le coefficient de variation ou les totaux. En règle générale, on peut caractériser les méthodes de répartition en fonction des critères d’optimisation et de l’utilisation de données auxiliaires. On évalue alors les propriétés statistiques des diverses méthodes retenues au moyen d’expériences de simulation d’échantillon faisant appel aux données réelles du registre de population. Selon les résultats de simulation, on peut conclure que l’intégration du modèle et de la méthode d’estimation à la méthode de répartition a pour effet d’améliorer les résultats de l’estimation.

    Date de diffusion : 2017-06-22

  • Articles et rapports : 12-001-X201700114818
    Description :

    La protection de la confidentialité des données qui figurent dans des tableaux de données quantitatives peut devenir extrêmement difficile lorsqu’on travaille avec des tableaux personnalisés. Une solution relativement simple consiste à perturber au préalable les microdonnées sous-jacentes, mais cela peut avoir un effet négatif excessif sur la précision des agrégats. Nous proposons plutôt une méthode perturbatrice qui vise à mieux concilier les besoins de protection et de précision des données en pareil cas. La méthode consiste à traiter par niveaux les données de chaque cellule en appliquant une perturbation minime, voire nulle, aux valeurs inférieures et une perturbation plus importante aux valeurs supérieures. La méthode vise avant tout à protéger les données personnelles, qui sont généralement moins asymétriques que les données des entreprises.

    Date de diffusion : 2017-06-22
Stats en bref (0)

Stats en bref (0) (0 résultat)

Aucun contenu disponible actuellement

Articles et rapports (15)

Articles et rapports (15) (0 à 10 de 15 résultats)

  • Articles et rapports : 12-001-X201700254871
    Description :

    L’article aborde la question de savoir comment utiliser des sources de données de rechange, telles que les données administratives et les données des médias sociaux, pour produire les statistiques officielles. Puisque la plupart des enquêtes réalisées par les instituts nationaux de statistique sont répétées au cours du temps, nous proposons une approche de modélisation de séries chronologiques structurelle multivariée en vue de modéliser les séries observées au moyen d’une enquête répétée avec les séries correspondantes obtenues à partir de ces sources de données de rechange. En général, cette approche améliore la précision des estimations directes issues de l’enquête grâce à l’utilisation de données d’enquête observées aux périodes précédentes et de données provenant de séries auxiliaires connexes. Ce modèle permet aussi de profiter de la plus grande fréquence des données des médias sociaux pour produire des estimations plus précises en temps réel pour l’enquête par sondage, au moment où les statistiques pour les médias sociaux deviennent disponibles alors que les données d’enquête ne le sont pas encore. Le recours au concept de cointégration permet d’examiner dans quelle mesure la série de rechange représente les mêmes phénomènes que la série observée au moyen de l’enquête répétée. La méthodologie est appliquée à l’Enquête sur la confiance des consommateurs des Pays-Bas et à un indice de sentiments dérivé des médias sociaux.

    Date de diffusion : 2017-12-21

  • Articles et rapports : 12-001-X201700254872
    Description :

    La présente note expose les fondements théoriques de l’extension de l’intervalle de couverture bilatéral de Wilson à une proportion estimée à partir de données d’enquêtes complexes. Il est démontré que l’intervalle est asymptotiquement équivalent à un intervalle calculé en partant d’une transformation logistique. Une légèrement meilleure version est examinée, mais les utilisateurs pourraient préférer construire un intervalle unilatéral déjà décrit dans la littérature.

    Date de diffusion : 2017-12-21

  • Articles et rapports : 12-001-X201700254887
    Description :

    L’article propose une nouvelle approche de décomposition de l’écart salarial entre les hommes et les femmes fondée sur une procédure de calage. Cette approche généralise deux méthodes de décomposition courantes, qui sont réexprimées en se servant des poids de sondage. La première est la méthode de Blinder-Oaxaca et la seconde est une méthode de repondération proposée par DiNardo, Fortin et Lemieux. La nouvelle approche offre un système de pondération qui nous permet d’estimer des paramètres d’intérêt tels que les quantiles. Une application aux données de l’Enquête suisse sur la structure des salaires illustre l’intérêt de cette approche.

    Date de diffusion : 2017-12-21

  • Articles et rapports : 12-001-X201700254888
    Description :

    L’exposé retrace l’évolution de la théorie et de la méthodologie des enquêtes par sondage au cours des 100 dernières années. Dans un article fondamental publié en 1934, Neyman jetait les bases théoriques de l’approche axée sur l’échantillonnage probabiliste pour l’inférence à partir d’échantillons d’enquête. Les traités d’échantillonnage classiques publiés par Cochran, Deming, Hansen, Hurwitz et Madow, Sukhatme, ainsi que Yates au début des années 1950 étendaient et étoffaient la théorie de l’échantillonnage probabiliste, en mettant l’accent sur l’absence de biais, les caractéristiques exemptes de modèle, ainsi que les plans de sondage qui minimisent la variance selon un coût fixe. De 1960 à 1970, l’attention s’est portée sur les fondements théoriques de l’inférence à partir de données d’enquêtes, contexte dans lequel l’approche dépendante d’un modèle a suscité d’importantes discussions. L’apparition de logiciels statistiques d’usage général a entraîné l’utilisation de ces derniers avec des données d’enquêtes, d’où la conception de méthodes spécialement applicables aux données d’enquêtes complexes. Parallèlement, des méthodes de pondération telles que l’estimation par la régression et le calage devenaient réalisables et la convergence par rapport au plan de sondage a remplacé la contrainte d’absence de biais comme critère pour les estimateurs classiques. Un peu plus tard, les méthodes de rééchantillonnage gourmandes en ressources informatiques sont également devenues applicables à des échantillons d’enquêtes à grande échelle. L’augmentation de la puissance informatique a permis des imputations plus avancées des données manquantes, l’utilisation d’une plus grande quantité de données auxiliaires, le traitement des erreurs de mesure dans l’estimation, et l’application de procédures d’estimation plus complexes. Une utilisation marquante de modèles a eu lieu dans le domaine en expansion de l’estimation sur petits domaines. Les orientations futures de la recherche et des méthodes seront influencées par les budgets, les taux de réponse, le degré d’actualité des données, les outils améliorés de collecte des données et l’existence de données auxiliaires, dont une partie proviendra des « mégadonnées ». L’évolution des comportements culturels et de l’environnement physico-technique aura une incidence sur la façon de réaliser les enquêtes.

    Date de diffusion : 2017-12-21

  • Articles et rapports : 12-001-X201700254894
    Description :

    Cette note de Danny Pfeffermann présente une discussion de l’article « Théorie et méthodologie des enquêtes par sondage : orientations passées, présentes et futures » où J.N.K. Rao et Wayne A. Fuller partagent leur vision quant à l’évolution de la théorie et de la méthodologie des enquêtes par sondage au cours des 100 dernières années.

    Date de diffusion : 2017-12-21

  • Articles et rapports : 12-001-X201700254895
    Description :

    Cette note de Graham Kalton présente une discussion de l’article « Théorie et méthodologie des enquêtes par sondage : orientations passées, présentes et futures » où J.N.K. Rao et Wayne A. Fuller partagent leur vision quant à l’évolution de la théorie et de la méthodologie des enquêtes par sondage au cours des 100 dernières années.

    Date de diffusion : 2017-12-21

  • Articles et rapports : 12-001-X201700254896
    Description :

    Cette note de Sharon L. Lohr présente une discussion de l’article « Théorie et méthodologie des enquêtes par sondage : orientations passées, présentes et futures » où J.N.K. Rao et Wayne A. Fuller partagent leur vision quant à l’évolution de la théorie et de la méthodologie des enquêtes par sondage au cours des 100 dernières années.

    Date de diffusion : 2017-12-21

  • Articles et rapports : 12-001-X201700254897
    Description :

    Cette note de Chris Skinner présente une discussion de l’article « Théorie et méthodologie des enquêtes par sondage : orientations passées, présentes et futures » où J.N.K. Rao et Wayne A. Fuller partagent leur vision quant à l’évolution de la théorie et de la méthodologie des enquêtes par sondage au cours des 100 dernières années.

    Date de diffusion : 2017-12-21

  • Articles et rapports : 12-001-X201700114817
    Description :

    Nous présentons les résultats de notre recherche sur les modes de répartition d’échantillons qui permettent de faire une estimation efficace sur petits domaines par modélisation dans les cas où les domaines d’intérêt coïncident avec les strates. Les méthodes d’estimation assistées d’un modèle et celles fondées sur un modèle sont répandues dans la production de statistiques relatives aux petits domaines, mais l’utilisation du modèle et de la méthode d’estimation sous-jacents est rarement intégrée au plan de répartition de l’échantillon entre les domaines. C’est pourquoi nous avons conçu un nouveau mode de répartition fondée sur un modèle que nous avons appelé répartition g1. Aux fins de comparaison, nous décrivons un autre mode de répartition fondée sur un modèle qui a récemment vu le jour. Ces deux répartitions sont fondées sur une mesure ajustée de l’homogénéité qui se calcule à l’aide d’une variable auxiliaire et constitue une approximation de la corrélation intraclasse à l’intérieur des domaines. Nous avons choisi cinq solutions de répartition par domaine sans modèle, adoptées par le passé dans le cadre d’études spécialisées, comme méthodes de référence. Pour une répartition égale ou proportionnelle, il nous faut connaître le nombre de domaines ainsi que le nombre d’unités statistiques de base dans chacun d’eux. Les répartitions de Neyman et de Bankier et la répartition par programmation non linéaire (PNL), nécessitent des paramètres au niveau du domaine comme l’écart-type, le coefficient de variation ou les totaux. En règle générale, on peut caractériser les méthodes de répartition en fonction des critères d’optimisation et de l’utilisation de données auxiliaires. On évalue alors les propriétés statistiques des diverses méthodes retenues au moyen d’expériences de simulation d’échantillon faisant appel aux données réelles du registre de population. Selon les résultats de simulation, on peut conclure que l’intégration du modèle et de la méthode d’estimation à la méthode de répartition a pour effet d’améliorer les résultats de l’estimation.

    Date de diffusion : 2017-06-22

  • Articles et rapports : 12-001-X201700114818
    Description :

    La protection de la confidentialité des données qui figurent dans des tableaux de données quantitatives peut devenir extrêmement difficile lorsqu’on travaille avec des tableaux personnalisés. Une solution relativement simple consiste à perturber au préalable les microdonnées sous-jacentes, mais cela peut avoir un effet négatif excessif sur la précision des agrégats. Nous proposons plutôt une méthode perturbatrice qui vise à mieux concilier les besoins de protection et de précision des données en pareil cas. La méthode consiste à traiter par niveaux les données de chaque cellule en appliquant une perturbation minime, voire nulle, aux valeurs inférieures et une perturbation plus importante aux valeurs supérieures. La méthode vise avant tout à protéger les données personnelles, qui sont généralement moins asymétriques que les données des entreprises.

    Date de diffusion : 2017-06-22
Revues et périodiques (0)

Revues et périodiques (0) (0 résultat)

Aucun contenu disponible actuellement

Date de modification :