Pondération et estimation

Aide à l'ordre
entrées

Résultats

Tout (61)

Tout (61) (40 à 50 de 61 résultats)

  • Articles et rapports : 12-001-X201900300003
    Description :

    Les formules largement utilisées pour la variance de l’estimateur par le ratio peuvent mener à une sérieuse sous-estimation quand l’échantillon est de petite taille; voir Sukhatme (1954), Koop (1968), Rao (1969) et Cochran (1977, pages 163 et 164). Nous proposons ici comme solution à ce problème classique de nouveaux estimateurs de la variance et de l’erreur quadratique moyenne de l’estimateur par le ratio qui ne sont pas entachés d’un important biais négatif. Des formules d’estimation semblables peuvent s’obtenir pour d’autres estimateurs par le ratio, comme il en est question dans Tin (1965). Nous comparons trois estimateurs de l’erreur quadratique moyenne de l’estimateur par le ratio dans une étude par simulation.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900300005
    Description :

    On obtient les estimations mensuelles du chômage provincial fondées sur l’Enquête sur la population active (EPA) des Pays-Bas au moyen de modèles de séries chronologiques. Les modèles tiennent compte du biais de renouvellement et de la corrélation sérielle causée par le plan d’échantillonnage à panel rotatif de l’EPA. L’article compare deux méthodes d’estimation de modèles de séries chronologiques structurels (MSCS). Dans la première méthode, les MSCS sont exprimés sous forme de modèles espace-état, auxquels sont appliqués le filtre et le lisseur de Kalman dans un cadre fréquentiste. L’autre solution consiste à exprimer ces MSCS sous forme de modèles multiniveaux de séries chronologiques dans un cadre bayésien hiérarchique et à les estimer à l’aide de l’échantillonneur de Gibbs. Nous comparons ici les estimations mensuelles du chômage et les erreurs-types fondées sur ces modèles pour les 12 provinces des Pays-Bas. Nous discutons ensuite des avantages et des inconvénients de la méthode multiniveau et de la méthode espace-état. Les MSCS multivariés conviennent pour l’emprunt d’information dans le temps et l’espace. La modélisation de la matrice de corrélation complète entre les composantes des séries chronologiques accroît rapidement le nombre d’hyperparamètres qu’il faut estimer. La modélisation de facteur commun est une des façons possibles d’obtenir des modèles plus parcimonieux qui continuent de tenir compte de la corrélation transversale. L’article propose une méthode encore plus parcimonieuse, dans laquelle les domaines ont en commun une tendance globale et leurs propres tendances indépendantes pour les écarts propres au domaine par rapport à la tendance globale. L’approche par modélisation de séries chronologiques est particulièrement adaptée à l’estimation de la variation mensuelle du chômage.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900300006
    Description :

    Un taux de non-réponse élevé est un problème très courant dans les enquêtes-échantillons de nos jours. Du point de vue statistique, nous entretenons des inquiétudes au sujet du biais et de la variance accrus des estimateurs de chiffres de population comme les totaux ou les moyennes. Diverses méthodes ont été proposées pour compenser ce phénomène. En gros, nous pouvons les diviser en imputation et calage, et c’est sur la dernière méthode que nous nous concentrons ici. La catégorie des estimateurs par calage offre un large éventail de possibilités. Nous examinons le calage linéaire, pour lequel nous suggérons d’utiliser une version de non-réponse de l’estimateur de régression optimal fondé sur le plan. Nous faisons des comparaisons entre cet estimateur et un estimateur de type GREG. Les mesures de la distance jouent un rôle très important dans l’élaboration des estimateurs par calage. Nous démontrons qu’un estimateur de la propension moyenne à répondre (probabilité) peut être inclus dans la mesure de la distance « optimale » dans les cas de non-réponse, ce qui aide à réduire le biais de l’estimateur ainsi obtenu. Une étude en simulation a été réalisée pour illustrer de manière empirique les résultats obtenus de façon théorique pour les estimateurs proposés. La population se nomme KYBOK et se compose de municipalités administratives de la Suède, pour lesquelles les variables comprennent des mesures financières et de la taille. Les résultats sont encourageants pour l’estimateur « optimal » combiné à la propension estimative moyenne à répondre, où le biais a été réduit pour la plupart des cas d’échantillonnage de Poisson faisant partie de l’étude.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900200002
    Description :

    Le National Agricultural Statistics Service (NASS) du United States Department of Agriculture (USDA) est chargé d’estimer les taux moyens de location au comptant au niveau du comté. Par taux de location au comptant, on entend la valeur marchande des terres louées à l’acre contre argent comptant seulement. Les estimations des taux de location au comptant sont utilisées par les agriculteurs, les économistes et les responsables des politiques. Le NASS recueille des données sur les taux de location au comptant au moyen de la Cash Rent Survey. Comme les tailles d’échantillon réalisées au niveau du comté sont souvent trop petites pour permettre des estimateurs directs fiables, des prédicteurs fondés sur des modèles mixtes sont étudiés. Nous spécifions un modèle bivarié pour obtenir des prédicteurs des taux de location au comptant en 2010 pour les terres cultivées non irriguées à l’aide de données provenant de la Cash Rent Survey de 2009 et de variables auxiliaires provenant de sources externes, dont le Recensement de l’agriculture de 2007. Nous utilisons des méthodes bayésiennes pour l’inférence et présentons les résultats pour l’Iowa, le Kansas et le Texas. L’intégration des données de l’enquête de 2009 grâce à un modèle bivarié mène à des prédicteurs dont les erreurs quadratiques moyennes sont plus petites que celles des prédicteurs fondés sur un modèle univarié.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 12-001-X201900200003
    Description :

    Dans divers domaines, il est de plus en plus important de fusionner les sources d’information disponibles pour améliorer les estimations des caractéristiques de la population. En présence de plusieurs échantillons probabilistes indépendants d’une population finie, nous examinons plusieurs solutions d’estimateur combiné du total de la population, basé soit sur une combinaison linéaire d’estimateurs distincts, soit sur une méthode par échantillon combiné. L’estimateur en combinaison linéaire fondé sur des variances estimées est susceptible d’être biaisé, car les estimateurs distincts du total de la population peuvent être fortement corrélés à leurs estimateurs de la variance respectifs. Nous illustrons la possibilité d’utiliser un échantillon combiné pour estimer les variances des estimateurs distincts, ce qui donne des estimateurs de la variance groupés généraux. Ces estimateurs de la variance groupés utilisent tous les renseignements disponibles et peuvent réduire considérablement le biais d’une combinaison linéaire d’estimateurs distincts.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 12-001-X201900200004
    Description :

    La réconciliation d’estimations de niveau inférieur à des estimations de niveau supérieur est une activité importante au National Agricultural Statistics Service (NASS) du département de l’Agriculture des États-Unis (par exemple, réconcilier les estimations de superficie d’ensemencement en maïs des comtés aux estimations au niveau des États). Nous posons qu’un comté est un petit domaine et employons le modèle initial de Fay-Herriot pour obtenir une méthode bayésienne générale pour réconcilier les estimations des comtés aux estimations des États (constituant la cible). Dans ce cas, nous supposons que les estimations cibles sont connues et dégageons les estimations des comtés avec pour contrainte que leur addition donne la valeur cible. C’est là une réconciliation externe qui a de l’importance pour la statistique officielle, et non seulement pour les données du NASS, et on le rencontre plus généralement dans les estimations sur petits domaines. Il est possible de réconcilier de telles estimations en « supprimant » un des comtés (habituellement le dernier) de manière à intégrer la contrainte de réconciliation au modèle. Il est tout aussi vrai cependant que les estimations peuvent changer selon le comté qui est supprimé au moment d’inclure la contrainte dans le modèle. Dans la présente étude, nous accordons à chaque petit domaine une chance de suppression et parlons pour toute cette procédure de méthode de réconciliation par suppression aléatoire. Nous démontrons empiriquement que les estimations accusent des différences selon le comté supprimé et qu’il existe des différences entre ces estimations et celles obtenues par suppression aléatoire. Ces différences peuvent être jugées petites, mais il est hautement logique de procéder par suppression aléatoire; aucun comté n’a alors droit à un traitement préférentiel et nous observons également une modeste hausse de la précision par rapport à une réconciliation avec suppression du dernier petit domaine.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 12-001-X201900200007
    Description :

    Quand on ajuste une variable catégorique ordonnée à L > 2 niveaux à un ensemble de covariables sur données d’enquêtes à plans complexes, on suppose communément que les éléments de la population suivent un modèle simple de régression logistique cumulative (modèle de régression logistique à cotes proportionnelles). Cela signifie que la probabilité que la variable catégorique se situe à un certain niveau ou au-dessous est une fonction logistique binaire des covariables du modèle. Ajoutons, sauf pour l’ordonnée à l’origine, les valeurs des paramètres de régression logistique sont les mêmes à chaque niveau. La méthode « fondée sur le plan » classique servant à ajuster le modèle à cotes proportionnelles est fondée sur le pseudo-maximum de vraisemblance. Nous comparons les estimations calculées par cette méthode à celles d’un traitement dans un cadre basé sur un modèle robuste sensible au plan. Nous indiquons par un simple exemple numérique en quoi les estimations tirées de ces deux traitements peuvent différer. La nouvelle méthode peut facilement s’élargir pour ajuster un modèle logistique cumulatif général où l’hypothèse du parallélisme peut ne pas se vérifier. Un test de cette hypothèse peut aisément s’ensuivre.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 12-001-X201900200010
    Description :

    Être un statisticien soucieux de calage, c’est appliquer des procédures qui s’inspirent des principes directeurs de l’approche de Neyman en matière d’inférence fréquentiste qui domine actuellement la pensée statistique. Être un statisticien rempli de sagesse devant un ensemble de données, c’est faire appel à certains modes de réflexion bayésiens et fiduciaux pour modérer le simple calage de Neyman. Dans cet article, nous expliquons le mariage des idées à l’aide du concept de calage conditionnel qui tire parti des idées plus récentes en simulation qui sont issues du calcul bayésien approximatif.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 12-001-X201900100001
    Description :

    On presse de plus en plus les démographes de désagréger leurs estimations et leurs prévisions selon des caractéristiques comme la région, l’ethnicité ou le revenu. Les méthodes démographiques classiques ont été conçues pour de grands échantillons et donnent de piètres résultats lorsqu’elles portent sur des données désagrégées. Les méthodes reposant sur des modèles statistiques bayésiens en bonne et due forme produisent de meilleurs résultats. Nous illustrerons notre propos par des exemples tirés d’un projet à long terme visant à la conception d’approches bayésiennes d’estimation et de prévision démographiques. Dans notre premier exemple, nous estimons les taux de mortalité désagrégés selon l’âge et le sexe pour une petite population; dans le second, nous estimons et prévoyons simultanément la prévalence de l’obésité désagrégée selon l’âge. Nous concluons en répondant à deux objections habituelles à l’utilisation de méthodes bayésiennes par les organismes statistiques.

    Date de diffusion : 2019-05-07

  • Articles et rapports : 12-001-X201900100002
    Description :

    La non-réponse partielle se produit fréquemment dans les enquêtes-échantillons. On utilise couramment l’imputation hot deck pour remplacer les valeurs des items manquants dans des groupes homogènes appelés classes d’imputation. Nous proposons une procédure d’imputation hot deck fractionnaire et une vraisemblance empirique associée pour l’inférence sur la moyenne de population d’une fonction d’une variable d’intérêt présentant des données manquantes selon un échantillonnage avec probabilité proportionnelle à la taille avec fractions d’échantillonnage négligeables. Nous calculons les distributions limites de l’estimateur du maximum de vraisemblance empirique et du rapport de vraisemblance empirique, et nous proposons deux procédures bootstrap asymptotiques valides afin de construire des intervalles de confiance pour la moyenne de population. Les études par simulations montrent que les procédures bootstrap proposées donnent de meilleurs résultats que les procédures bootstrap habituelles, qui se révèlent asymptotiquement incorrectes quand le nombre de tirages aléatoires de l’imputation fractionnaire est fixe. De plus, la procédure bootstrap proposée, fondée sur le rapport de vraisemblance empirique, semble donner des résultats significativement meilleurs que la méthode fondée sur la distribution limite de l’estimateur du maximum de vraisemblance empirique en cas de grande variation des probabilités d’inclusion ou d’échantillon de petite taille.

    Date de diffusion : 2019-05-07
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (56)

Analyses (56) (40 à 50 de 56 résultats)

  • Articles et rapports : 12-001-X201900300005
    Description :

    On obtient les estimations mensuelles du chômage provincial fondées sur l’Enquête sur la population active (EPA) des Pays-Bas au moyen de modèles de séries chronologiques. Les modèles tiennent compte du biais de renouvellement et de la corrélation sérielle causée par le plan d’échantillonnage à panel rotatif de l’EPA. L’article compare deux méthodes d’estimation de modèles de séries chronologiques structurels (MSCS). Dans la première méthode, les MSCS sont exprimés sous forme de modèles espace-état, auxquels sont appliqués le filtre et le lisseur de Kalman dans un cadre fréquentiste. L’autre solution consiste à exprimer ces MSCS sous forme de modèles multiniveaux de séries chronologiques dans un cadre bayésien hiérarchique et à les estimer à l’aide de l’échantillonneur de Gibbs. Nous comparons ici les estimations mensuelles du chômage et les erreurs-types fondées sur ces modèles pour les 12 provinces des Pays-Bas. Nous discutons ensuite des avantages et des inconvénients de la méthode multiniveau et de la méthode espace-état. Les MSCS multivariés conviennent pour l’emprunt d’information dans le temps et l’espace. La modélisation de la matrice de corrélation complète entre les composantes des séries chronologiques accroît rapidement le nombre d’hyperparamètres qu’il faut estimer. La modélisation de facteur commun est une des façons possibles d’obtenir des modèles plus parcimonieux qui continuent de tenir compte de la corrélation transversale. L’article propose une méthode encore plus parcimonieuse, dans laquelle les domaines ont en commun une tendance globale et leurs propres tendances indépendantes pour les écarts propres au domaine par rapport à la tendance globale. L’approche par modélisation de séries chronologiques est particulièrement adaptée à l’estimation de la variation mensuelle du chômage.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900300006
    Description :

    Un taux de non-réponse élevé est un problème très courant dans les enquêtes-échantillons de nos jours. Du point de vue statistique, nous entretenons des inquiétudes au sujet du biais et de la variance accrus des estimateurs de chiffres de population comme les totaux ou les moyennes. Diverses méthodes ont été proposées pour compenser ce phénomène. En gros, nous pouvons les diviser en imputation et calage, et c’est sur la dernière méthode que nous nous concentrons ici. La catégorie des estimateurs par calage offre un large éventail de possibilités. Nous examinons le calage linéaire, pour lequel nous suggérons d’utiliser une version de non-réponse de l’estimateur de régression optimal fondé sur le plan. Nous faisons des comparaisons entre cet estimateur et un estimateur de type GREG. Les mesures de la distance jouent un rôle très important dans l’élaboration des estimateurs par calage. Nous démontrons qu’un estimateur de la propension moyenne à répondre (probabilité) peut être inclus dans la mesure de la distance « optimale » dans les cas de non-réponse, ce qui aide à réduire le biais de l’estimateur ainsi obtenu. Une étude en simulation a été réalisée pour illustrer de manière empirique les résultats obtenus de façon théorique pour les estimateurs proposés. La population se nomme KYBOK et se compose de municipalités administratives de la Suède, pour lesquelles les variables comprennent des mesures financières et de la taille. Les résultats sont encourageants pour l’estimateur « optimal » combiné à la propension estimative moyenne à répondre, où le biais a été réduit pour la plupart des cas d’échantillonnage de Poisson faisant partie de l’étude.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900200002
    Description :

    Le National Agricultural Statistics Service (NASS) du United States Department of Agriculture (USDA) est chargé d’estimer les taux moyens de location au comptant au niveau du comté. Par taux de location au comptant, on entend la valeur marchande des terres louées à l’acre contre argent comptant seulement. Les estimations des taux de location au comptant sont utilisées par les agriculteurs, les économistes et les responsables des politiques. Le NASS recueille des données sur les taux de location au comptant au moyen de la Cash Rent Survey. Comme les tailles d’échantillon réalisées au niveau du comté sont souvent trop petites pour permettre des estimateurs directs fiables, des prédicteurs fondés sur des modèles mixtes sont étudiés. Nous spécifions un modèle bivarié pour obtenir des prédicteurs des taux de location au comptant en 2010 pour les terres cultivées non irriguées à l’aide de données provenant de la Cash Rent Survey de 2009 et de variables auxiliaires provenant de sources externes, dont le Recensement de l’agriculture de 2007. Nous utilisons des méthodes bayésiennes pour l’inférence et présentons les résultats pour l’Iowa, le Kansas et le Texas. L’intégration des données de l’enquête de 2009 grâce à un modèle bivarié mène à des prédicteurs dont les erreurs quadratiques moyennes sont plus petites que celles des prédicteurs fondés sur un modèle univarié.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 12-001-X201900200003
    Description :

    Dans divers domaines, il est de plus en plus important de fusionner les sources d’information disponibles pour améliorer les estimations des caractéristiques de la population. En présence de plusieurs échantillons probabilistes indépendants d’une population finie, nous examinons plusieurs solutions d’estimateur combiné du total de la population, basé soit sur une combinaison linéaire d’estimateurs distincts, soit sur une méthode par échantillon combiné. L’estimateur en combinaison linéaire fondé sur des variances estimées est susceptible d’être biaisé, car les estimateurs distincts du total de la population peuvent être fortement corrélés à leurs estimateurs de la variance respectifs. Nous illustrons la possibilité d’utiliser un échantillon combiné pour estimer les variances des estimateurs distincts, ce qui donne des estimateurs de la variance groupés généraux. Ces estimateurs de la variance groupés utilisent tous les renseignements disponibles et peuvent réduire considérablement le biais d’une combinaison linéaire d’estimateurs distincts.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 12-001-X201900200004
    Description :

    La réconciliation d’estimations de niveau inférieur à des estimations de niveau supérieur est une activité importante au National Agricultural Statistics Service (NASS) du département de l’Agriculture des États-Unis (par exemple, réconcilier les estimations de superficie d’ensemencement en maïs des comtés aux estimations au niveau des États). Nous posons qu’un comté est un petit domaine et employons le modèle initial de Fay-Herriot pour obtenir une méthode bayésienne générale pour réconcilier les estimations des comtés aux estimations des États (constituant la cible). Dans ce cas, nous supposons que les estimations cibles sont connues et dégageons les estimations des comtés avec pour contrainte que leur addition donne la valeur cible. C’est là une réconciliation externe qui a de l’importance pour la statistique officielle, et non seulement pour les données du NASS, et on le rencontre plus généralement dans les estimations sur petits domaines. Il est possible de réconcilier de telles estimations en « supprimant » un des comtés (habituellement le dernier) de manière à intégrer la contrainte de réconciliation au modèle. Il est tout aussi vrai cependant que les estimations peuvent changer selon le comté qui est supprimé au moment d’inclure la contrainte dans le modèle. Dans la présente étude, nous accordons à chaque petit domaine une chance de suppression et parlons pour toute cette procédure de méthode de réconciliation par suppression aléatoire. Nous démontrons empiriquement que les estimations accusent des différences selon le comté supprimé et qu’il existe des différences entre ces estimations et celles obtenues par suppression aléatoire. Ces différences peuvent être jugées petites, mais il est hautement logique de procéder par suppression aléatoire; aucun comté n’a alors droit à un traitement préférentiel et nous observons également une modeste hausse de la précision par rapport à une réconciliation avec suppression du dernier petit domaine.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 12-001-X201900200007
    Description :

    Quand on ajuste une variable catégorique ordonnée à L > 2 niveaux à un ensemble de covariables sur données d’enquêtes à plans complexes, on suppose communément que les éléments de la population suivent un modèle simple de régression logistique cumulative (modèle de régression logistique à cotes proportionnelles). Cela signifie que la probabilité que la variable catégorique se situe à un certain niveau ou au-dessous est une fonction logistique binaire des covariables du modèle. Ajoutons, sauf pour l’ordonnée à l’origine, les valeurs des paramètres de régression logistique sont les mêmes à chaque niveau. La méthode « fondée sur le plan » classique servant à ajuster le modèle à cotes proportionnelles est fondée sur le pseudo-maximum de vraisemblance. Nous comparons les estimations calculées par cette méthode à celles d’un traitement dans un cadre basé sur un modèle robuste sensible au plan. Nous indiquons par un simple exemple numérique en quoi les estimations tirées de ces deux traitements peuvent différer. La nouvelle méthode peut facilement s’élargir pour ajuster un modèle logistique cumulatif général où l’hypothèse du parallélisme peut ne pas se vérifier. Un test de cette hypothèse peut aisément s’ensuivre.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 12-001-X201900200010
    Description :

    Être un statisticien soucieux de calage, c’est appliquer des procédures qui s’inspirent des principes directeurs de l’approche de Neyman en matière d’inférence fréquentiste qui domine actuellement la pensée statistique. Être un statisticien rempli de sagesse devant un ensemble de données, c’est faire appel à certains modes de réflexion bayésiens et fiduciaux pour modérer le simple calage de Neyman. Dans cet article, nous expliquons le mariage des idées à l’aide du concept de calage conditionnel qui tire parti des idées plus récentes en simulation qui sont issues du calcul bayésien approximatif.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 12-001-X201900100001
    Description :

    On presse de plus en plus les démographes de désagréger leurs estimations et leurs prévisions selon des caractéristiques comme la région, l’ethnicité ou le revenu. Les méthodes démographiques classiques ont été conçues pour de grands échantillons et donnent de piètres résultats lorsqu’elles portent sur des données désagrégées. Les méthodes reposant sur des modèles statistiques bayésiens en bonne et due forme produisent de meilleurs résultats. Nous illustrerons notre propos par des exemples tirés d’un projet à long terme visant à la conception d’approches bayésiennes d’estimation et de prévision démographiques. Dans notre premier exemple, nous estimons les taux de mortalité désagrégés selon l’âge et le sexe pour une petite population; dans le second, nous estimons et prévoyons simultanément la prévalence de l’obésité désagrégée selon l’âge. Nous concluons en répondant à deux objections habituelles à l’utilisation de méthodes bayésiennes par les organismes statistiques.

    Date de diffusion : 2019-05-07

  • Articles et rapports : 12-001-X201900100002
    Description :

    La non-réponse partielle se produit fréquemment dans les enquêtes-échantillons. On utilise couramment l’imputation hot deck pour remplacer les valeurs des items manquants dans des groupes homogènes appelés classes d’imputation. Nous proposons une procédure d’imputation hot deck fractionnaire et une vraisemblance empirique associée pour l’inférence sur la moyenne de population d’une fonction d’une variable d’intérêt présentant des données manquantes selon un échantillonnage avec probabilité proportionnelle à la taille avec fractions d’échantillonnage négligeables. Nous calculons les distributions limites de l’estimateur du maximum de vraisemblance empirique et du rapport de vraisemblance empirique, et nous proposons deux procédures bootstrap asymptotiques valides afin de construire des intervalles de confiance pour la moyenne de population. Les études par simulations montrent que les procédures bootstrap proposées donnent de meilleurs résultats que les procédures bootstrap habituelles, qui se révèlent asymptotiquement incorrectes quand le nombre de tirages aléatoires de l’imputation fractionnaire est fixe. De plus, la procédure bootstrap proposée, fondée sur le rapport de vraisemblance empirique, semble donner des résultats significativement meilleurs que la méthode fondée sur la distribution limite de l’estimateur du maximum de vraisemblance empirique en cas de grande variation des probabilités d’inclusion ou d’échantillon de petite taille.

    Date de diffusion : 2019-05-07

  • Articles et rapports : 12-001-X201900100004
    Description :

    Dans le présent document, nous utilisons de l’information auxiliaire pour améliorer l’efficacité des estimations des paramètres de la régression quantile censurée. En utilisant l’information présentée dans des études antérieures, nous avons calculé des probabilités au moyen de la vraisemblance empirique comme poids et avons proposé la régression quantile censurée pondérée. Les propriétés théoriques de la méthode proposée sont obtenues. Nos études par simulation démontrent que la méthode que nous proposons présente des avantages comparativement à la régression quantile censurée standard.

    Date de diffusion : 2019-05-07
Références (5)

Références (5) ((5 résultats))

  • Enquêtes et programmes statistiques — Documentation : 98-306-X
    Description :

    Ce rapport donne une description des méthodes d'échantillonnage, de pondération et d'estimation utilisées pour le Recensement de la population. Il fournit les justifications opérationnelles et théoriques et présente les résultats des évaluations de ces méthodes.

    Date de diffusion : 2023-10-04

  • Avis et consultations : 75F0002M2019006
    Description :

    En 2018, Statistique Canada a diffusé deux nouveaux tableaux de données présentant des estimations des taux d’imposition et de transfert effectifs des déclarants et des familles de recensement. Ces estimations sont tirées de la Banque de données administratives longitudinales. La publication fournit une description détaillée des méthodes utilisées pour produire les estimations des taux d’imposition et de transfert effectifs.

    Date de diffusion : 2019-04-16

  • Enquêtes et programmes statistiques — Documentation : 91-528-X
    Description :

    Ce manuel offre des descriptions détaillées des sources de données et des méthodes utilisées par Statistique Canada pour produire des estimations de la population. Elles comportent : les estimations postcensitaires et intercensitaires de la population; la population de départ; les naissances et les décès; l'immigration; les émigrations; les résidents non permanents; la migration interprovinciale; les estimations infraprovinciales de la population; les estimations de la population selon l'âge, le sexe et l'état matrimonial et les estimations des familles de recensement. Un glossaire des termes courants est inclus à la fin du manuel, suivi de la notation normalisée utilisée.

    Auparavant, la documentation sur les changements méthodologiques pour le calcul des estimations était éparpillée dans plusieurs publications et documents d'information de Statistique Canada. Ce manuel offre aux utilisateurs de statistiques démographiques un recueil exhaustif des procédures actuelles utilisées par Statistique Canada pour élaborer des estimations de la population et des familles.

    Date de diffusion : 2015-11-17

  • Enquêtes et programmes statistiques — Documentation : 99-002-X
    Description : Ce rapport donne une description des méthodes d'échantillonnage et de pondération utilisées pour l’Enquête nationale auprès des ménages de 2011. Il fournit les justifications opérationnelles et théoriques et présente les résultats des études d'évaluation de ces méthodes.
    Date de diffusion : 2015-01-28

  • Enquêtes et programmes statistiques — Documentation : 92-568-X
    Description :

    Ce rapport donne une description des méthodes d'échantillonnage et de pondération utilisées pour le Recensement de 2006. Il fournit un historique de l'application de ces méthodes aux recensements du Canada ainsi que les fondements opérationnels et théoriques de ces méthodes, et présente les résultats des études d'évaluation.

    Date de diffusion : 2009-08-11
Date de modification :