Analyses

Un siècle marqué par la confiance, la sécurité, les faits

Centre de confiance de Statistique Canada : Découvrez comment Statistique Canada veille à la protection de vos données et de vos renseignements personnels.

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (726)

Tout (726) (0 à 10 de 726 résultats)

  • Revues et périodiques : 12-001-X
    Géographie : Canada
    Description :

    La revue publie des articles sur les divers aspects des méthodes statistiques qui intéressent un organisme statistique comme, par exemple, les problèmes de conception découlant de contraintes d'ordre pratique, l'utilisation de différentes sources de données et de méthodes de collecte, les erreurs dans les enquêtes, l'évaluation des enquêtes, la recherche sur les méthodes d'enquêtes, l'analyse des séries chronologiques, la désaisonnalisation, les études démographiques, l'intégration des données statistiques, les méthodes d'estimation et d'analyse de données et le développement de systèmes généralisés. Une importance particulière est accordée à l'élaboration et à l'évaluation de méthodes qui ont été utilisées pour la collecte de données ou appliquées à des données réelles.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900300001
    Description :

    Les estimateurs de la variance par linéarisation classiques de l’estimateur par la régression généralisée sont souvent trop petits, ce qui entraîne des intervalles de confiance ne donnant pas le taux de couverture souhaité. Pour remédier à ce problème, on peut apporter des ajustements à la matrice chapeau dans l’échantillonnage à deux degrés. Nous présentons la théorie de plusieurs nouveaux estimateurs de la variance et les comparons aux estimateurs classiques dans une série de simulations. Les estimateurs proposés corrigent les biais négatifs et améliorent les taux de couverture de l’intervalle de confiance dans diverses situations correspondant à celles rencontrées en pratique.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900300002
    Description :

    Souvent, des paradonnées sont recueillies pendant le processus d’enquête afin de surveiller la qualité des réponses. L’une des paradonnées recueillies est le comportement du répondant, qui peut servir dans la construction des modèles de réponse. On peut appliquer le poids du score de propension utilisant les renseignements sur le comportement du répondant à l’analyse finale pour réduire le biais dû à la non-réponse. Toutefois, l’inclusion de la variable de substitution dans la pondération du score de propension ne garantit pas toujours une amélioration de l’efficacité. Nous montrons que la variable de substitution n’est utile que quand elle est corrélée à la variable étudiée. Les résultats d’une étude par simulations limitée confirment cette constatation. L’article présente aussi une application sur données réelles utilisant les données de la Korean Workplace Panel Survey (enquête par panel sur le milieu de travail en Corée).

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900300003
    Description :

    Les formules largement utilisées pour la variance de l’estimateur par le ratio peuvent mener à une sérieuse sous-estimation quand l’échantillon est de petite taille; voir Sukhatme (1954), Koop (1968), Rao (1969) et Cochran (1977, pages 163 et 164). Nous proposons ici comme solution à ce problème classique de nouveaux estimateurs de la variance et de l’erreur quadratique moyenne de l’estimateur par le ratio qui ne sont pas entachés d’un important biais négatif. Des formules d’estimation semblables peuvent s’obtenir pour d’autres estimateurs par le ratio, comme il en est question dans Tin (1965). Nous comparons trois estimateurs de l’erreur quadratique moyenne de l’estimateur par le ratio dans une étude par simulation.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900300004
    Description :

    Dans les études sociales ou économiques, il faut souvent adopter une vue d’ensemble de la société. Dans les études en agriculture par exemple, on peut établir un lien entre les caractéristiques des exploitations et les activités sociales des particuliers. On devrait donc étudier un phénomène en considérant les variables d’intérêt et en se reportant à cette fin à diverses populations cibles liées entre elles. Pour se renseigner sur un phénomène, on se doit de faire des observations en toute intégration, les unités d’une population devant être observées conjointement avec les unités liées d’une autre. Dans l’exemple de l’agriculture, cela veut dire qu’on devrait prélever un échantillon de ménages ruraux qui serait lié de quelque manière à l’échantillon d’exploitations à utiliser aux fins de l’étude. Il existe plusieurs façons de prélever des échantillons intégrés. Nous analysons ici le problème de la définition d’une stratégie optimale d’échantillonnage dans cette optique. La solution proposée doit réduire le coût d’échantillonnage au minimum et satisfaire une précision préétablie de l’estimation des variables d’intérêt (dans l’une et/ou l’autre des populations) décrivant le phénomène. L’échantillonnage indirect dresse un cadre naturel pour un tel réglage, car les unités appartenant à une population peuvent être porteuses d’une information sur l’autre population visée par l’enquête. Nous étudions ce problème selon divers contextes caractérisant l’information sur les liens disponibles à l’étape du plan de sondage, que les liens entre les unités soient connus à ce stade ou que l’information dont nous disposons sur ces mêmes liens laisse très nettement à désirer. Nous présentons ici une étude empirique de données agricoles pour un pays en développement. On peut y voir combien il est efficace de prendre en compte les probabilités d’inclusion au stade du plan de sondage à l’aide de l’information disponible (sur les liens en l’occurrence) et à quel point on peut ainsi nettement réduire les erreurs des estimations pour la population indirectement observée. Nous démontrons enfin la nécessité de disposer de bons modèles pour la prédiction des variables ou des liens inconnus.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900300005
    Description :

    On obtient les estimations mensuelles du chômage provincial fondées sur l’Enquête sur la population active (EPA) des Pays-Bas au moyen de modèles de séries chronologiques. Les modèles tiennent compte du biais de renouvellement et de la corrélation sérielle causée par le plan d’échantillonnage à panel rotatif de l’EPA. L’article compare deux méthodes d’estimation de modèles de séries chronologiques structurels (MSCS). Dans la première méthode, les MSCS sont exprimés sous forme de modèles espace-état, auxquels sont appliqués le filtre et le lisseur de Kalman dans un cadre fréquentiste. L’autre solution consiste à exprimer ces MSCS sous forme de modèles multiniveaux de séries chronologiques dans un cadre bayésien hiérarchique et à les estimer à l’aide de l’échantillonneur de Gibbs. Nous comparons ici les estimations mensuelles du chômage et les erreurs-types fondées sur ces modèles pour les 12 provinces des Pays-Bas. Nous discutons ensuite des avantages et des inconvénients de la méthode multiniveau et de la méthode espace-état. Les MSCS multivariés conviennent pour l’emprunt d’information dans le temps et l’espace. La modélisation de la matrice de corrélation complète entre les composantes des séries chronologiques accroît rapidement le nombre d’hyperparamètres qu’il faut estimer. La modélisation de facteur commun est une des façons possibles d’obtenir des modèles plus parcimonieux qui continuent de tenir compte de la corrélation transversale. L’article propose une méthode encore plus parcimonieuse, dans laquelle les domaines ont en commun une tendance globale et leurs propres tendances indépendantes pour les écarts propres au domaine par rapport à la tendance globale. L’approche par modélisation de séries chronologiques est particulièrement adaptée à l’estimation de la variation mensuelle du chômage.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900300006
    Description :

    Un taux de non-réponse élevé est un problème très courant dans les enquêtes-échantillons de nos jours. Du point de vue statistique, nous entretenons des inquiétudes au sujet du biais et de la variance accrus des estimateurs de chiffres de population comme les totaux ou les moyennes. Diverses méthodes ont été proposées pour compenser ce phénomène. En gros, nous pouvons les diviser en imputation et calage, et c’est sur la dernière méthode que nous nous concentrons ici. La catégorie des estimateurs par calage offre un large éventail de possibilités. Nous examinons le calage linéaire, pour lequel nous suggérons d’utiliser une version de non-réponse de l’estimateur de régression optimal fondé sur le plan. Nous faisons des comparaisons entre cet estimateur et un estimateur de type GREG. Les mesures de la distance jouent un rôle très important dans l’élaboration des estimateurs par calage. Nous démontrons qu’un estimateur de la propension moyenne à répondre (probabilité) peut être inclus dans la mesure de la distance « optimale » dans les cas de non-réponse, ce qui aide à réduire le biais de l’estimateur ainsi obtenu. Une étude en simulation a été réalisée pour illustrer de manière empirique les résultats obtenus de façon théorique pour les estimateurs proposés. La population se nomme KYBOK et se compose de municipalités administratives de la Suède, pour lesquelles les variables comprennent des mesures financières et de la taille. Les résultats sont encourageants pour l’estimateur « optimal » combiné à la propension estimative moyenne à répondre, où le biais a été réduit pour la plupart des cas d’échantillonnage de Poisson faisant partie de l’étude.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900300007
    Description :

    Lorsque la base de sondage est importante, il est difficile d’optimiser la stratification et la taille de l’échantillon dans un plan de sondage univarié ou multivarié. Il existe diverses façons de modéliser et de résoudre ce problème. Un des moyens les plus naturels est l’algorithme génétique (AG) combiné à l’algorithme d’évaluation de Bethel-Chromy. Un AG recherche itérativement la taille minimale d’échantillon permettant de respecter les contraintes de précision lorsqu’il s’agit de partitionner les strates atomiques formées par le produit cartésien de variables auxiliaires. Nous signalons un inconvénient avec les AG classiques appliqués à un problème de regroupement et proposons un nouvel algorithme génétique de « regroupement » avec des opérateurs génétiques au lieu des opérateurs classiques. Des expériences indiquent qu’on se trouve ainsi à améliorer nettement la qualité de solution pour un même effort de calcul.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900300008
    Description :

    Les enquêtes à double base de sondage sont utiles là où une seule base n’assure pas une couverture suffisante, mais pour les estimateurs d’un tel plan d’échantillonnage à double base, il faut connaître l’appartenance à une base pour chaque unité échantillonnée. Si cette indication ne peut être tirée de la base de sondage même, elle est souvent à recueillir auprès de l’enquêté. Si l’enquêté donne alors une indication erronée, les estimations résultantes des moyennes ou des totaux pourront s’en trouver biaisées. Nous proposons une méthode de réduction de ce biais grâce à des données exactes d’appartenance venant d’un sous-échantillon d’enquêtés. Nous examinons les propriétés de notre nouvel estimateur et le comparons à d’autres. Nous l’appliquons aux données de l’exemple qui a été à l’origine de notre étude, soit une enquête auprès des pêcheurs à la ligne pêchant à des fins récréatives qui reposait sur une base d’adresses et une base incomplète de permis de pêche.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900300009
    Description :

    Ce document décrit une inférence utile pour le coefficient alpha (Cronbach, 1951), statistique répandue sous forme de rapport visant les covariances et les variances en échantillonnage d’enquête, notamment dans un échantillonnage complexe comportant des probabilités inégales d’inclusion. Cette étude peut éclairer les enquêteurs désireux d’évaluer divers instruments psychologiques ou sociaux employés dans les grandes enquêtes. Pour les données d’enquête, nous étudions ici des intervalles de confiance praticables en utilisant deux méthodes soit (1) par la méthode de linéarisation et la fonction d’influence et (2) par la méthode bootstrap à correction de couverture. La première de ces méthodes assure des taux suffisants de couverture avec les valeurs ordinales corrélées propres à un grand nombre d’instruments, mais elle pourrait ne pas donner d’aussi bons résultats avec certaines distributions non normales, entre autres avec une distribution lognormale à plusieurs variables (multilognormale). Nous proposons d’utiliser la seconde de ces méthodes à correction de couverture en complément à la méthode de linéarisation, parce qu’elle est vorace en calcul. En appliquant les méthodes ainsi conçues, nous établissons des intervalles de confiance pour le coefficient alpha à des fins d’évaluation de divers instruments en santé mentale (Kessler 10, Kessler 6 et échelle d’invalidité de Sheehan) applicables à des entités démographiques, et ce, à l’aide des données d’une reprise de l’enquête nationale américaine sur la comorbidité (National Comorbidity Survey-Replication ou NCS-R).

    Date de diffusion : 2019-12-17
Stats en bref (0)

Stats en bref (0) (0 résultat)

Aucun contenu disponible actuellement

Articles et rapports (722)

Articles et rapports (722) (0 à 10 de 722 résultats)

  • Articles et rapports : 12-001-X201900300001
    Description :

    Les estimateurs de la variance par linéarisation classiques de l’estimateur par la régression généralisée sont souvent trop petits, ce qui entraîne des intervalles de confiance ne donnant pas le taux de couverture souhaité. Pour remédier à ce problème, on peut apporter des ajustements à la matrice chapeau dans l’échantillonnage à deux degrés. Nous présentons la théorie de plusieurs nouveaux estimateurs de la variance et les comparons aux estimateurs classiques dans une série de simulations. Les estimateurs proposés corrigent les biais négatifs et améliorent les taux de couverture de l’intervalle de confiance dans diverses situations correspondant à celles rencontrées en pratique.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900300002
    Description :

    Souvent, des paradonnées sont recueillies pendant le processus d’enquête afin de surveiller la qualité des réponses. L’une des paradonnées recueillies est le comportement du répondant, qui peut servir dans la construction des modèles de réponse. On peut appliquer le poids du score de propension utilisant les renseignements sur le comportement du répondant à l’analyse finale pour réduire le biais dû à la non-réponse. Toutefois, l’inclusion de la variable de substitution dans la pondération du score de propension ne garantit pas toujours une amélioration de l’efficacité. Nous montrons que la variable de substitution n’est utile que quand elle est corrélée à la variable étudiée. Les résultats d’une étude par simulations limitée confirment cette constatation. L’article présente aussi une application sur données réelles utilisant les données de la Korean Workplace Panel Survey (enquête par panel sur le milieu de travail en Corée).

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900300003
    Description :

    Les formules largement utilisées pour la variance de l’estimateur par le ratio peuvent mener à une sérieuse sous-estimation quand l’échantillon est de petite taille; voir Sukhatme (1954), Koop (1968), Rao (1969) et Cochran (1977, pages 163 et 164). Nous proposons ici comme solution à ce problème classique de nouveaux estimateurs de la variance et de l’erreur quadratique moyenne de l’estimateur par le ratio qui ne sont pas entachés d’un important biais négatif. Des formules d’estimation semblables peuvent s’obtenir pour d’autres estimateurs par le ratio, comme il en est question dans Tin (1965). Nous comparons trois estimateurs de l’erreur quadratique moyenne de l’estimateur par le ratio dans une étude par simulation.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900300004
    Description :

    Dans les études sociales ou économiques, il faut souvent adopter une vue d’ensemble de la société. Dans les études en agriculture par exemple, on peut établir un lien entre les caractéristiques des exploitations et les activités sociales des particuliers. On devrait donc étudier un phénomène en considérant les variables d’intérêt et en se reportant à cette fin à diverses populations cibles liées entre elles. Pour se renseigner sur un phénomène, on se doit de faire des observations en toute intégration, les unités d’une population devant être observées conjointement avec les unités liées d’une autre. Dans l’exemple de l’agriculture, cela veut dire qu’on devrait prélever un échantillon de ménages ruraux qui serait lié de quelque manière à l’échantillon d’exploitations à utiliser aux fins de l’étude. Il existe plusieurs façons de prélever des échantillons intégrés. Nous analysons ici le problème de la définition d’une stratégie optimale d’échantillonnage dans cette optique. La solution proposée doit réduire le coût d’échantillonnage au minimum et satisfaire une précision préétablie de l’estimation des variables d’intérêt (dans l’une et/ou l’autre des populations) décrivant le phénomène. L’échantillonnage indirect dresse un cadre naturel pour un tel réglage, car les unités appartenant à une population peuvent être porteuses d’une information sur l’autre population visée par l’enquête. Nous étudions ce problème selon divers contextes caractérisant l’information sur les liens disponibles à l’étape du plan de sondage, que les liens entre les unités soient connus à ce stade ou que l’information dont nous disposons sur ces mêmes liens laisse très nettement à désirer. Nous présentons ici une étude empirique de données agricoles pour un pays en développement. On peut y voir combien il est efficace de prendre en compte les probabilités d’inclusion au stade du plan de sondage à l’aide de l’information disponible (sur les liens en l’occurrence) et à quel point on peut ainsi nettement réduire les erreurs des estimations pour la population indirectement observée. Nous démontrons enfin la nécessité de disposer de bons modèles pour la prédiction des variables ou des liens inconnus.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900300005
    Description :

    On obtient les estimations mensuelles du chômage provincial fondées sur l’Enquête sur la population active (EPA) des Pays-Bas au moyen de modèles de séries chronologiques. Les modèles tiennent compte du biais de renouvellement et de la corrélation sérielle causée par le plan d’échantillonnage à panel rotatif de l’EPA. L’article compare deux méthodes d’estimation de modèles de séries chronologiques structurels (MSCS). Dans la première méthode, les MSCS sont exprimés sous forme de modèles espace-état, auxquels sont appliqués le filtre et le lisseur de Kalman dans un cadre fréquentiste. L’autre solution consiste à exprimer ces MSCS sous forme de modèles multiniveaux de séries chronologiques dans un cadre bayésien hiérarchique et à les estimer à l’aide de l’échantillonneur de Gibbs. Nous comparons ici les estimations mensuelles du chômage et les erreurs-types fondées sur ces modèles pour les 12 provinces des Pays-Bas. Nous discutons ensuite des avantages et des inconvénients de la méthode multiniveau et de la méthode espace-état. Les MSCS multivariés conviennent pour l’emprunt d’information dans le temps et l’espace. La modélisation de la matrice de corrélation complète entre les composantes des séries chronologiques accroît rapidement le nombre d’hyperparamètres qu’il faut estimer. La modélisation de facteur commun est une des façons possibles d’obtenir des modèles plus parcimonieux qui continuent de tenir compte de la corrélation transversale. L’article propose une méthode encore plus parcimonieuse, dans laquelle les domaines ont en commun une tendance globale et leurs propres tendances indépendantes pour les écarts propres au domaine par rapport à la tendance globale. L’approche par modélisation de séries chronologiques est particulièrement adaptée à l’estimation de la variation mensuelle du chômage.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900300006
    Description :

    Un taux de non-réponse élevé est un problème très courant dans les enquêtes-échantillons de nos jours. Du point de vue statistique, nous entretenons des inquiétudes au sujet du biais et de la variance accrus des estimateurs de chiffres de population comme les totaux ou les moyennes. Diverses méthodes ont été proposées pour compenser ce phénomène. En gros, nous pouvons les diviser en imputation et calage, et c’est sur la dernière méthode que nous nous concentrons ici. La catégorie des estimateurs par calage offre un large éventail de possibilités. Nous examinons le calage linéaire, pour lequel nous suggérons d’utiliser une version de non-réponse de l’estimateur de régression optimal fondé sur le plan. Nous faisons des comparaisons entre cet estimateur et un estimateur de type GREG. Les mesures de la distance jouent un rôle très important dans l’élaboration des estimateurs par calage. Nous démontrons qu’un estimateur de la propension moyenne à répondre (probabilité) peut être inclus dans la mesure de la distance « optimale » dans les cas de non-réponse, ce qui aide à réduire le biais de l’estimateur ainsi obtenu. Une étude en simulation a été réalisée pour illustrer de manière empirique les résultats obtenus de façon théorique pour les estimateurs proposés. La population se nomme KYBOK et se compose de municipalités administratives de la Suède, pour lesquelles les variables comprennent des mesures financières et de la taille. Les résultats sont encourageants pour l’estimateur « optimal » combiné à la propension estimative moyenne à répondre, où le biais a été réduit pour la plupart des cas d’échantillonnage de Poisson faisant partie de l’étude.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900300007
    Description :

    Lorsque la base de sondage est importante, il est difficile d’optimiser la stratification et la taille de l’échantillon dans un plan de sondage univarié ou multivarié. Il existe diverses façons de modéliser et de résoudre ce problème. Un des moyens les plus naturels est l’algorithme génétique (AG) combiné à l’algorithme d’évaluation de Bethel-Chromy. Un AG recherche itérativement la taille minimale d’échantillon permettant de respecter les contraintes de précision lorsqu’il s’agit de partitionner les strates atomiques formées par le produit cartésien de variables auxiliaires. Nous signalons un inconvénient avec les AG classiques appliqués à un problème de regroupement et proposons un nouvel algorithme génétique de « regroupement » avec des opérateurs génétiques au lieu des opérateurs classiques. Des expériences indiquent qu’on se trouve ainsi à améliorer nettement la qualité de solution pour un même effort de calcul.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900300008
    Description :

    Les enquêtes à double base de sondage sont utiles là où une seule base n’assure pas une couverture suffisante, mais pour les estimateurs d’un tel plan d’échantillonnage à double base, il faut connaître l’appartenance à une base pour chaque unité échantillonnée. Si cette indication ne peut être tirée de la base de sondage même, elle est souvent à recueillir auprès de l’enquêté. Si l’enquêté donne alors une indication erronée, les estimations résultantes des moyennes ou des totaux pourront s’en trouver biaisées. Nous proposons une méthode de réduction de ce biais grâce à des données exactes d’appartenance venant d’un sous-échantillon d’enquêtés. Nous examinons les propriétés de notre nouvel estimateur et le comparons à d’autres. Nous l’appliquons aux données de l’exemple qui a été à l’origine de notre étude, soit une enquête auprès des pêcheurs à la ligne pêchant à des fins récréatives qui reposait sur une base d’adresses et une base incomplète de permis de pêche.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900300009
    Description :

    Ce document décrit une inférence utile pour le coefficient alpha (Cronbach, 1951), statistique répandue sous forme de rapport visant les covariances et les variances en échantillonnage d’enquête, notamment dans un échantillonnage complexe comportant des probabilités inégales d’inclusion. Cette étude peut éclairer les enquêteurs désireux d’évaluer divers instruments psychologiques ou sociaux employés dans les grandes enquêtes. Pour les données d’enquête, nous étudions ici des intervalles de confiance praticables en utilisant deux méthodes soit (1) par la méthode de linéarisation et la fonction d’influence et (2) par la méthode bootstrap à correction de couverture. La première de ces méthodes assure des taux suffisants de couverture avec les valeurs ordinales corrélées propres à un grand nombre d’instruments, mais elle pourrait ne pas donner d’aussi bons résultats avec certaines distributions non normales, entre autres avec une distribution lognormale à plusieurs variables (multilognormale). Nous proposons d’utiliser la seconde de ces méthodes à correction de couverture en complément à la méthode de linéarisation, parce qu’elle est vorace en calcul. En appliquant les méthodes ainsi conçues, nous établissons des intervalles de confiance pour le coefficient alpha à des fins d’évaluation de divers instruments en santé mentale (Kessler 10, Kessler 6 et échelle d’invalidité de Sheehan) applicables à des entités démographiques, et ce, à l’aide des données d’une reprise de l’enquête nationale américaine sur la comorbidité (National Comorbidity Survey-Replication ou NCS-R).

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900200001
    Description :

    L’élaboration de procédures d’imputation appropriées pour les données ayant des valeurs extrêmes ou des relations non linéaires avec des covariables constitue un défi important dans les enquêtes à grande échelle. Nous élaborons une procédure d’imputation pour les enquêtes complexes fondée sur la régression quantile semi-paramétrique. Nous appliquons cette méthode au Conservation Effects Assessment Project (CEAP), une enquête à grande échelle qui recueille des données utilisées pour quantifier la perte de sol provenant des champs de culture. Dans la procédure d’imputation, nous générons d’abord des valeurs imputées à partir d’un modèle semi-paramétrique pour les quantiles de la distribution conditionnelle de la réponse pour une covariable donnée. Ensuite, nous évaluons les paramètres d’intérêt à l’aide de la méthode généralisée des moments (MGM). Nous dérivons la distribution asymptotique des estimateurs MGM pour une classe générale de plans d’enquête complexes. Dans les simulations destinées à représenter les données du CEAP, nous évaluons les estimateurs de variance en fonction de la distribution asymptotique et comparons la méthode d’imputation par régression quantile (IRQ) semi-paramétrique à des solutions de rechange entièrement paramétriques et non paramétriques. La procédure de l’IRQ est plus efficace que les solutions de rechange non paramétriques et entièrement paramétriques, et les couvertures empiriques des intervalles de confiance se situent à moins de 1 % du niveau nominal de 95 %. Une application à l’estimation de l’érosion moyenne indique que l’IRQ pourrait être une option viable pour le CEAP.

    Date de diffusion : 2019-06-27
Revues et périodiques (4)

Revues et périodiques (4) ((4 résultats))

  • Revues et périodiques : 12-001-X
    Géographie : Canada
    Description :

    La revue publie des articles sur les divers aspects des méthodes statistiques qui intéressent un organisme statistique comme, par exemple, les problèmes de conception découlant de contraintes d'ordre pratique, l'utilisation de différentes sources de données et de méthodes de collecte, les erreurs dans les enquêtes, l'évaluation des enquêtes, la recherche sur les méthodes d'enquêtes, l'analyse des séries chronologiques, la désaisonnalisation, les études démographiques, l'intégration des données statistiques, les méthodes d'estimation et d'analyse de données et le développement de systèmes généralisés. Une importance particulière est accordée à l'élaboration et à l'évaluation de méthodes qui ont été utilisées pour la collecte de données ou appliquées à des données réelles.

    Date de diffusion : 2019-12-17

  • Revues et périodiques : 11-008-X
    Géographie : Canada
    Description :

    Cette publication expose les changements économiques, sociaux et démographiques qui touchent la vie des Canadiens.

    Gratuit - Fichiers PDF et HTML téléchargeables : publiés toutes les six semaines Version imprimée: publiée tous les six mois (deux fois par année)

    Date de diffusion : 2012-07-30

  • Revues et périodiques : 11-010-X
    Géographie : Canada
    Description :

    Ce mensuel constitue la publication vedette de Statistique Canada en matière de statistiques économiques. Chaque numéro comprend un sommaire de la conjoncture, les principaux événements économiques et une étude distincte. Un aperçu statistique présente également un large éventail de tableaux et de graphiques comportant les principales séries chronologiques de l'économie du Canada, des provinces et des grands pays industrialisés. On peut consulter un répertoire historique de ces mêmes données dans l'Observateur économique canadien : supplément statistique historique, publication n° 11-210-XPB et XIB au catalogue.

    Date de diffusion : 2012-06-15

  • Revues et périodiques : 87-003-X
    Géographie : Canada
    Description :

    Info-voyages est un bulletin trimestriel d'information qui analyse les tendances des voyages internationaux, les comptes de voyages internationaux et l'indice des prix des voyages. De plus, on y présente les plus récents indicateurs du tourisme et des articles de fond relatifs au tourisme.

    Date de diffusion : 2005-01-26
Date de modification :