Pondération et estimation

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Géographie

2 facets displayed. 0 facets selected.

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (580)

Tout (580) (40 à 50 de 580 résultats)

  • Articles et rapports : 12-001-X202100100005
    Description :

    Les stratégies bayésiennes de regroupement servent à résoudre les problèmes de précision liés aux analyses statistiques des données sur petits domaines. Dans ces cas, les échantillons des sous-populations sont généralement petits, même si la population ne l’est pas nécessairement. Une autre solution consiste à regrouper des données semblables en vue de réduire le nombre de paramètres dans le modèle. De nombreuses enquêtes recueillent des données catégoriques par domaine, lesquelles sont ensuite réunies dans un tableau de contingence. Nous examinons les modèles de regroupement bayésiens hiérarchisés avec une loi a priori de processus de Dirichlet pour analyser les données catégoriques sur de petits domaines. Toutefois, la loi a priori utilisée aux fins de regroupement de ces données entraîne souvent un problème de rétrécissement excessif. Pour corriger le problème, nous séparons les paramètres en effets globaux et locaux. Cette étude porte sur le regroupement de données au moyen d’un processus de Dirichlet. Nous comparons les modèles de regroupement utilisant des données sur la densité minérale osseuse (DMO) tirées de la Third National Health and Nutrition Examination Survey, portant sur la période de 1988 à 1994 aux États-Unis. Nos analyses des données sur la DMO sont effectuées au moyen d’un échantillonneur de Gibbs et d’un échantillonnage par tranche pour effectuer les calculs a posteriori.

    Date de diffusion : 2021-06-24

  • Articles et rapports : 12-001-X202100100007
    Description :

    Nous examinons l’estimation d’une moyenne sur petits domaines sous le modèle de base au niveau de l’unité. La somme des estimateurs dépendant d’un modèle qui en résultent peut ne pas correspondre aux estimations obtenues au moyen d’un estimateur d’enquête direct qui est considéré comme précis pour l’ensemble de ces petits domaines. La réconciliation force la concordance des estimateurs fondés sur un modèle avec l’estimateur direct au niveau du domaine agrégé. L’estimateur par la régression généralisée est l’estimateur direct que nous utilisons pour réaliser la réconciliation. Dans le présent document, nous comparons des estimateurs sur petits domaines réconciliés d’après quatre procédures. La première procédure permet d’obtenir des estimateurs réconciliés au moyen d’un ajustement par le ratio. La deuxième procédure repose sur le meilleur estimateur linéaire sans biais empirique obtenu sous le modèle au niveau de l’unité augmenté à l’aide d’une variable adéquate qui assure la réconciliation. La troisième procédure utilise des estimateurs pseudo-empiriques construits au moyen de poids de sondage convenablement choisis de sorte que, une fois agrégés, ils concordent avec l’estimateur direct fiable pour le plus grand domaine. La quatrième procédure permet d’obtenir des estimateurs réconciliés qui résultent d’un problème de minimisation sous la contrainte donnée par la condition de réconciliation. Ces procédures de réconciliation sont appliquées aux estimateurs sur petits domaines lorsque les taux d’échantillonnage sont non négligeables. Les estimateurs réconciliés qui en résultent sont comparés quant au biais relatif et à l’erreur quadratique moyenne dans une étude par simulations fondée sur un plan de sondage ainsi qu’un exemple fondé sur des données d’enquête réelles.

    Date de diffusion : 2021-06-24

  • Articles et rapports : 12-001-X202100100008
    Description :

    Les changements dans le plan d’une enquête répétée entraînent généralement des effets systématiques dans les estimations de l’échantillon, qu’on appellera discontinuités dans la suite du texte. Pour ne pas confondre les changements réels d’une période à l’autre avec les effets d’un remaniement, on quantifie souvent les discontinuités en mettant en œuvre parallèlement le plan précédent et le nouveau pendant un certain temps. Les tailles d’échantillon de ces exécutions parallèles sont généralement trop petites pour que des estimateurs directs puissent être appliqués aux discontinuités des domaines. On propose un modèle de Fay-Herriot (FH) hiérarchique bayésien bivarié pour prédire plus précisément les discontinuités de domaine et on l’applique à un remaniement de l’enquête néerlandaise sur la victimisation criminelle (Dutch Crime Victimzation Survey). Cette méthode est comparée à un modèle de FH univarié où les estimations directes selon l’approche ordinaire sont utilisées comme covariables dans un modèle de FH pour l’autre approche appliquée sur une taille d’échantillon réduite et un modèle de FH univarié où les estimations directes des discontinuités sont modélisées directement. On propose une procédure de sélection ascendante corrigée qui minimise le critère d’information de Watanabe-Akaike (Watanabe-Akaike Information Criterion ou WAIC) jusqu’à ce que la réduction du WAIC soit inférieure à l’erreur-type de ce critère. Au moyen de cette approche, on choisit des modèles plus parcimonieux, ce qui empêche de sélectionner des modèles complexes qui tendent à surajuster les données.

    Date de diffusion : 2021-06-24

  • Articles et rapports : 12-001-X202000200002
    Description :

    Dans de nombreuses enquêtes à grande échelle, des estimations sont produites pour un grand nombre de petits domaines définis par des classifications croisées de variables démographiques, géographiques et autres. Bien que la taille globale de l’échantillon de ces enquêtes puisse être très grande, la taille des échantillons des domaines est parfois trop petite pour permettre une estimation fiable. Nous proposons une méthode d’estimation améliorée qui s’applique quand il est possible de formuler des relations « naturelles » ou qualitatives (comme des ordonnancements ou des contraintes d’inégalité) pour les moyennes des domaines au niveau de la population. Nous restons dans un cadre inférentiel fondé sur le plan, mais nous imposons des contraintes représentant ces relations sur les estimations échantillonnales. Nous démontrons que l’estimateur de domaine contraint qui en résulte est convergent par rapport au plan et a une distribution asymptotique normale tant que les contraintes sont asymptotiquement satisfaites au niveau de la population. L’estimateur et l’estimateur de la variance connexe sont facilement mis en œuvre en pratique. L’applicabilité de la méthode est illustrée par les données de la National Survey of College Graduates des États-Unis (NSCG, Enquête nationale sur les diplômés des collèges) de 2015.

    Date de diffusion : 2020-12-15

  • Articles et rapports : 12-001-X202000200003
    Description :

    Nous combinons pondération et prédiction bayésienne dans une approche unifiée pour l’inférence d’enquête. Les principes généraux de l’analyse bayésienne impliquent que les modèles pour les résultats d’enquête devraient être conditionnés par toutes les variables influant sur les probabilités d’inclusion. Nous intégrons toutes les variables servant à l’ajustement de pondération dans un cadre de régression multiniveau et de poststratification pour obtenir un sous-produit générant des poids basés sur un modèle après lissage. Nous améliorons l’estimation sur petits domaines en traitant les divers problèmes complexes que posent les applications dans la vie réelle pour obtenir une inférence robuste à des niveaux plus fins pour les sous-domaines d’intérêt. Nous examinons les interactions profondes et introduisons des distributions a priori structurées pour le lissage et la stabilisation des estimations. Le calcul se fait par Stan et avec le paquet rstanarm du code source libre R, disponible pour utilisation publique. Nous évaluons les propriétés selon le plan de la procédure bayésienne. Nous recourons à des études en simulation pour illustrer comment la prédiction basée sur un modèle et l’inférence pondérée peuvent donner de meilleurs résultats que la pondération classique. Nous appliquons la méthode à la New York Longitudinal Study of Wellbeing (LSW). La nouvelle approche produit des poids lissés et rend plus efficace une inférence robuste de population finie, plus particulièrement pour des sous-ensembles de la population.

    Date de diffusion : 2020-12-15

  • Articles et rapports : 12-001-X202000100002
    Description :

    On a besoin de méthodes par modèle pour estimer des paramètres d’intérêt de petit domaine, comme les totaux et les moyennes, là où les méthodes classiques d’estimation directe ne peuvent garantir une précision suffisante. Les modèles au niveau des unités et au niveau des domaines sont les plus répandus dans la pratique. S’il s’agit d’un modèle au niveau des unités, il est possible d’obtenir des estimateurs efficaces par modèle si le plan de sondage est tel que les modèles d’échantillon et de population coïncident, c’est-à-dire que le plan d’échantillonnage n’est pas informatif pour le modèle en question. Si en revanche le plan de sondage est informatif pour le modèle, les probabilités de sélection seront liées à la variable d’intérêt même après conditionnement par les données auxiliaires disponibles, d’où l’implication que le modèle de la population ne vaut plus pour l’échantillon. Pfeffermann et Sverchkov (2007) se sont reportés aux relations entre les distributions de population et d’échantillon de la variable étudiée pour obtenir des prédicteurs semi-paramétriques approximativement sans biais des moyennes de domaine dans des plans d’échantillonnage informatifs. La procédure qu’ils ont employée est applicable aux domaines avec et sans échantillon. Verret, Rao et Hidiroglou (2015) ont étudié d’autres méthodes utilisant une fonction appropriée des probabilités de sélection d’unités comme variable auxiliaire supplémentaire. Leur technique a donné des estimateurs Empirical Best Linear Unbiased Prediction (EBLUP) approximativement sans biais pour les moyennes de petit domaine. Dans le présent exposé, nous étendons la méthode de Verret et coll. (2015) en ne formant aucune hypothèse au sujet des probabilités d’inclusion. Nous nous contentons d’intégrer ces dernières au modèle au niveau des unités en utilisant une fonction lisse des probabilités d’inclusion. C’est une fonction que nous estimons par une approximation locale donnant un estimateur polynomial local. Nous proposons une méthode bootstrap conditionnelle pour l’estimation de l’erreur quadratique moyenne (EQM) des estimateurs polynomiaux locaux et des estimateurs EBLUP. Nous examinons par simulation le biais et les propriétés d’efficacité de l’estimateur polynomial local. Nous présentons enfin les résultats de l’estimateur bootstrap de l’EQM.

    Date de diffusion : 2020-06-30

  • Articles et rapports : 12-001-X202000100003
    Description :

    Les plans de sondage probabilistes sont parfois utilisés en conjonction avec des prédicteurs fondés sur un modèle de quantités de population finie. Ces plans devraient réduire au minimum la variance anticipée (VA), qui est la variance du prédicteur d’intérêt sur la superpopulation et les processus d’échantillonnage. Le plan optimal pour la VA est bien connu pour les estimateurs assistés par un modèle qui atteignent la borne inférieure de Godambe et Joshi pour la VA des estimateurs sans biais sous le plan de sondage. Cependant, aucun plan de sondage probabiliste optimal n’a été trouvé pour la prédiction fondée sur un modèle, sauf dans des conditions telles que les estimateurs fondés sur un modèle et assistés par un modèle coïncident. Ces cas peuvent être limitatifs. Le présent article montre que la borne inférieure de Godambe et Joshi est une borne supérieure pour la VA du meilleur estimateur linéaire sans biais d’un total de population, où la limite supérieure est dans l’espace de tous les ensembles de covariables. C’est pourquoi les plans optimaux assistés par un modèle constituent un choix raisonnable pour la prédiction fondée sur un modèle en cas d’incertitude sur la forme du modèle final, comme cela se produit souvent avant la réalisation de l’enquête. Les simulations confirment le résultat dans différentes situations, y compris quand la relation entre les variables cibles et auxiliaires est non linéaire et modélisée au moyen de splines. La VA est la plus basse par rapport à la borne quand une variable importante du plan de sondage n’est pas associée à la variable cible.

    Date de diffusion : 2020-06-30

  • Articles et rapports : 12-001-X202000100004
    Description :

    L’échantillonnage défini par un seuil d’inclusion est appliqué quand il est trop coûteux ou difficile d’obtenir les informations requises pour un sous-ensemble d’unités de la population et que, par conséquent, ces unités sont délibérément exclues de la sélection de l’échantillon. Si les unités exclues sont différentes des unités échantillonnées pour ce qui est des caractéristiques d’intérêt, les estimateurs naïfs peuvent être fortement biaisés. Des estimateurs par calage ont été proposés aux fins de réduction du biais sous le plan. Toutefois, dans les estimations sur petits domaines, ils peuvent être inefficaces y compris en l’absence d’échantillonnage défini par un seuil d’inclusion. Les méthodes d’estimation sur petits domaines fondées sur un modèle peuvent servir à réduire le biais causé par l’échantillonnage défini par un seuil d’inclusion si le modèle supposé se vérifie pour l’ensemble de la population. Parallèlement, pour les petits domaines, ces méthodes fournissent des estimateurs plus efficaces que les méthodes de calage. Étant donné qu’on obtient les propriétés fondées sur un modèle en supposant que le modèle se vérifie, mais qu’aucun modèle n’est exactement vrai, nous analysons ici les propriétés de plan des procédures de calage et des procédures fondées sur un modèle pour l’estimation de caractéristiques sur petits domaines sous échantillonnage défini par un seuil d’inclusion. Nos conclusions confirment que les estimateurs fondés sur un modèle réduisent le biais causé par un échantillonnage défini par un seuil d’inclusion et donnent des résultats significativement meilleurs en matière d’erreur quadratique moyenne du plan.

    Date de diffusion : 2020-06-30

  • Articles et rapports : 12-001-X201900300001
    Description :

    Les estimateurs de la variance par linéarisation classiques de l’estimateur par la régression généralisée sont souvent trop petits, ce qui entraîne des intervalles de confiance ne donnant pas le taux de couverture souhaité. Pour remédier à ce problème, on peut apporter des ajustements à la matrice chapeau dans l’échantillonnage à deux degrés. Nous présentons la théorie de plusieurs nouveaux estimateurs de la variance et les comparons aux estimateurs classiques dans une série de simulations. Les estimateurs proposés corrigent les biais négatifs et améliorent les taux de couverture de l’intervalle de confiance dans diverses situations correspondant à celles rencontrées en pratique.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900300003
    Description :

    Les formules largement utilisées pour la variance de l’estimateur par le ratio peuvent mener à une sérieuse sous-estimation quand l’échantillon est de petite taille; voir Sukhatme (1954), Koop (1968), Rao (1969) et Cochran (1977, pages 163 et 164). Nous proposons ici comme solution à ce problème classique de nouveaux estimateurs de la variance et de l’erreur quadratique moyenne de l’estimateur par le ratio qui ne sont pas entachés d’un important biais négatif. Des formules d’estimation semblables peuvent s’obtenir pour d’autres estimateurs par le ratio, comme il en est question dans Tin (1965). Nous comparons trois estimateurs de l’erreur quadratique moyenne de l’estimateur par le ratio dans une étude par simulation.

    Date de diffusion : 2019-12-17
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (553)

Analyses (553) (0 à 10 de 553 résultats)

  • Articles et rapports : 18-001-X2024001
    Description : Cette étude applique l’estimation sur petits domaines (EPD) et un nouveau concept géographique appelé Zone de travail autonome (ZTA) à l'Enquête canadienne sur la situation des entreprises (ECSE) en mettant l'accent sur les opportunités de travail à distance sur les marchés du travail ruraux. Grâce à la modélisation EPD, nous avons estimé les proportions d'entreprises, classées par secteur industriel général (prestataires de services et producteurs de biens), qui offriraient principalement des opportunités de travail à distance à leur main-d'œuvre.
    Date de diffusion : 2024-04-22

  • Stats en bref : 11-001-X202411338008
    Description : Communiqué publié dans Le Quotidien – Bulletin de diffusion officielle de Statistique Canada
    Date de diffusion : 2024-04-22

  • Articles et rapports : 11-522-X202200100001
    Description : Le couplage d’enregistrements vise à mettre en évidence les paires d’enregistrements liées à la même unité et observées dans deux ensembles de données différents, disons A et B. Fellegi et Sunter (1969) proposent de mettre à l’essai chaque paire d’enregistrements, qu’elle soit générée à partir de l’ensemble de paires appariées ou non. La fonction de décision est le rapport entre m(y) et u(y), les probabilités d’observer une comparaison y d’un ensemble de k>3 variables d’identification clés dans une paire d’enregistrements, sous l’hypothèse que la paire constitue, respectivement, un appariement ou non. On estime habituellement ces paramètres au moyen de l’algorithme EM en utilisant comme données les comparaisons pour toutes les paires du produit cartésien ?=A×B. On émet l’hypothèse que ces observations (sur les comparaisons et sur l’état des paires comme appariement ou non) sont générées indépendamment des autres paires, hypothèse caractérisant la majeure partie de la littérature sur le couplage d’enregistrements et mise en œuvre dans les outils logiciels (p. ex., RELAIS, Cibella et coll. 2012). Au contraire, les comparaisons y et l’état d’appariement dans O sont dépendants de manière déterministe. Par conséquent, les estimations sur m(y) et u(y) fondées sur l’algorithme EM sont généralement mauvaises. Ce fait compromet l’efficacité de l’application de la méthode de Fellegi-Sunter, ainsi que le calcul automatique des mesures de la qualité et la possibilité d’appliquer des méthodes efficaces aux fins d’estimation du modèle sur des données couplées (p. ex. les fonctions de régression), comme dans Chambers et coll. (2015). Nous proposons d’examiner O au moyen d’un ensemble d’échantillons, chacun tiré de manière à préserver l’indépendance des comparaisons entre les paires d’enregistrements sélectionnées. Les simulations sont encourageantes.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100003
    Description : L’estimation à de fins niveaux d’agrégation est nécessaire pour mieux décrire une société. Les approches fondées sur un modèle d’estimation sur petits domaines qui combinent des données d’enquête parcimonieuses à des données riches provenant de sources auxiliaires se sont révélées utiles pour améliorer la fiabilité des estimations sur petits domaines. Nous examinons ici un scénario où des estimations basées sur un modèle pour petits domaines, produit à un niveau d’agrégation donné, devaient être désagrégées pour mieux décrire la structure sociale à des niveaux plus fins. Pour ce scénario, nous avons élaboré une méthode de répartition afin de mettre en œuvre la désagrégation, surmontant les problèmes associés à la disponibilité des données et à l’élaboration de modèles à des niveaux de cette finesse. La méthode est appliquée à l’estimation de la littératie et de la numératie des adultes au niveau du comté par groupe, au moyen des données du Programme pour l’évaluation internationale des compétences des adultes (PEICA) des États-Unis. Dans cette application, les groupes sont définis en fonction de l’âge ou de la scolarité, mais la méthode pourrait être appliquée à l’estimation d’autres groupes en quête d’équité.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100004
    Description : Conformément au Plan d’action sur les données désagrégées (PADD) à long terme de Statistique Canada, plusieurs initiatives ont été mises en œuvre dans l’Enquête sur la population active (EPA). Une des initiatives les plus directes fut une augmentation ciblée dans la taille de l’échantillon mensuel de l’EPA. En outre, un programme d’enquête supplémentaire régulier a été introduit, où une série supplémentaire de questions a été posée à un sous-ensemble de répondants de l’EPA et analysée dans un cycle de production mensuel ou trimestriel. Enfin, les estimations fondées sur les méthodologies de l’estimation sur petits domaines (EPD) sont réintroduites dans l’EPA et comprendront une portée élargie avec davantage de valeur analytique qu’auparavant. Le présent article donne un aperçu de ces trois initiatives.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100005
    Description : Le lissage de la variance due à l’échantillonnage est un sujet important dans l’estimation sur petits domaines. Dans le présent article, nous proposons des méthodes de lissage de la variance due à l’échantillonnage aux fins d’estimation sur petits domaines. En particulier, nous considérons la fonction de variance généralisée et les méthodes d’effet de plan aux fins de lissage de la variance due à l’échantillonnage. Nous évaluons et comparons les variances dues à l’échantillonnage lissées et les estimations sur petits domaines fondées sur des estimations de la variance lissées au moyen de l’analyse de données d’enquête de Statistique Canada. Les résultats de l’analyse de données réelles indiquent que les méthodes de lissage de la variance due à l’échantillonnage proposées fonctionnent très bien pour l’estimation sur petits domaines.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100013
    Description : Les répondants des enquêtes auprès des ménages usuelles tendent à fortement sous-déclarer leur éventuel recours à l'aide alimentaire distribuée par les associations. Cette sous-déclaration est très vraisemblablement liée au stigmate social ressenti par les personnes dans une situation de très grandes difficultés financières. Les estimations du nombre de bénéficiaires de cette aide issues des enquêtes sont ainsi très inférieures aux décomptes directs des associations. Ces décomptes, eux, tendent à la surestimation en raison de doubles comptes. L'enquête Aide alimentaire (EAA) collectée fin 2021 en France dans un échantillon de sites d'associations distribuant de l'aide alimentaire permet, par son protocole adapté, de contrôler les biais qui affectent les autres sources et de clarifier l'ampleur du recours à cette aide.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100015
    Description : Nous présentons des estimateurs de type Horvitz-Thompson et de type multiplicité fondés sur le plan de sondage de la taille de la population, ainsi que du total et de la moyenne d’une variable de réponse associée aux éléments d’une population cachée à utiliser avec la variante d’échantillonnage par dépistage de liens proposée par Félix-Medina et Thompson (2004). Étant donné que le calcul des estimateurs nécessite de connaître les probabilités d’inclusion des personnes échantillonnées, mais qu’elles sont inconnues, nous proposons un modèle bayésien qui nous permet de les estimer et, par conséquent, de calculer les estimateurs des paramètres de population. Les résultats d’une petite étude numérique indiquent que les performances des estimateurs proposés sont acceptables.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100018
    Description : Le Programme d'élaboration de données sociales longitudinales (PEDSL) est une approche d'intégration des données sociales destinée à fournir des opportunités analytiques longitudinales sans imposer un fardeau de réponse supplémentaire aux répondants. Le PEDSL tire parti d'une multitude de signaux qui proviennent de différentes sources de données pour la même personne, ce qui permet de mieux comprendre leurs interactions et de suivre l'évolution dans le temps. Cet article traitera de la façon dont le statut d'ethnicité des personnes au Canada peut être estimé au niveau désagrégé le plus détaillé possible en utilisant les résultats d'une variété de règles opérationnelles appliquées aux données déjà appariées et au dénominateur du PEDSL puis montrera comment des améliorations ont pu être obtenues en utilisant des méthodes d'apprentissage automatique telles que des arbres de décision et des techniques de forêt aléatoire.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 12-001-X202300200002
    Description : Il est essentiel de pouvoir quantifier l’exactitude (biais, variance) des résultats publiés dans les statistiques officielles. Dans ces dernières, les résultats sont presque toujours divisés en sous-populations selon une variable de classification, comme le revenu moyen par catégorie de niveau de scolarité. Ces résultats sont également appelés « statistiques de domaine ». Dans le présent article, nous nous limitons aux variables de classification binaire. En pratique, des erreurs de classification se produisent et contribuent au biais et à la variance des statistiques de domaine. Les méthodes analytiques et numériques servant actuellement à estimer cet effet présentent deux inconvénients. Le premier inconvénient est qu’elles exigent que les probabilités de classification erronée soient connues au préalable et le deuxième est que les estimations du biais et de la variance sont elles-mêmes biaisées. Dans le présent article, nous présentons une nouvelle méthode, un modèle de mélange gaussien estimé par un algorithme espérance-maximisation (EM) combiné à un bootstrap, appelé « méthode bootstrap EM ». Cette nouvelle méthode n’exige pas que les probabilités de classification erronée soient connues au préalable, bien qu’elle soit plus efficace quand on utilise un petit échantillon de vérification qui donne une valeur de départ pour les probabilités de classification erronée dans l’algorithme EM. Nous avons comparé le rendement de la nouvelle méthode et celui des méthodes numériques actuellement disponibles, à savoir la méthode bootstrap et la méthode SIMEX. Des études antérieures ont démontré que pour les paramètres non linéaires, le bootstrap donne de meilleurs résultats que les expressions analytiques. Pour presque toutes les conditions mises à l’essai, les estimations du biais et de la variance obtenues par la méthode bootstrap EM sont plus proches de leurs vraies valeurs que celles obtenues par les méthodes bootstrap et SIMEX. Nous terminons l’article par une discussion sur les résultats et d’éventuels prolongements de la méthode.
    Date de diffusion : 2024-01-03
Références (27)

Références (27) (0 à 10 de 27 résultats)

  • Enquêtes et programmes statistiques — Documentation : 98-306-X
    Description :

    Ce rapport donne une description des méthodes d'échantillonnage, de pondération et d'estimation utilisées pour le Recensement de la population. Il fournit les justifications opérationnelles et théoriques et présente les résultats des évaluations de ces méthodes.

    Date de diffusion : 2023-10-04

  • Avis et consultations : 75F0002M2019006
    Description :

    En 2018, Statistique Canada a diffusé deux nouveaux tableaux de données présentant des estimations des taux d’imposition et de transfert effectifs des déclarants et des familles de recensement. Ces estimations sont tirées de la Banque de données administratives longitudinales. La publication fournit une description détaillée des méthodes utilisées pour produire les estimations des taux d’imposition et de transfert effectifs.

    Date de diffusion : 2019-04-16

  • Enquêtes et programmes statistiques — Documentation : 75F0002M2015003
    Description :

    Cette note porte sur les estimations révisées du revenu tirées de l’Enquête sur la dynamique du travail et du revenu (EDTR). Les révisions aux estimations de l’EDTR permettent de comparer les résultats de l’Enquête canadienne sur le revenu (ECR) à ceux des années précédentes puisqu’elles offrent une solution aux problèmes associés aux différences méthodologiques entre l’EDTR et l’ECR.

    Date de diffusion : 2015-12-17

  • Enquêtes et programmes statistiques — Documentation : 91-528-X
    Description :

    Ce manuel offre des descriptions détaillées des sources de données et des méthodes utilisées par Statistique Canada pour produire des estimations de la population. Elles comportent : les estimations postcensitaires et intercensitaires de la population; la population de départ; les naissances et les décès; l'immigration; les émigrations; les résidents non permanents; la migration interprovinciale; les estimations infraprovinciales de la population; les estimations de la population selon l'âge, le sexe et l'état matrimonial et les estimations des familles de recensement. Un glossaire des termes courants est inclus à la fin du manuel, suivi de la notation normalisée utilisée.

    Auparavant, la documentation sur les changements méthodologiques pour le calcul des estimations était éparpillée dans plusieurs publications et documents d'information de Statistique Canada. Ce manuel offre aux utilisateurs de statistiques démographiques un recueil exhaustif des procédures actuelles utilisées par Statistique Canada pour élaborer des estimations de la population et des familles.

    Date de diffusion : 2015-11-17

  • Enquêtes et programmes statistiques — Documentation : 13-605-X201500414166
    Description :

    Estimations de l’économie souterraine par province et territoire pour la période 2007 à 2012 sont maintenant disponibles pour la première fois. L’objet de cette note technique est d’expliquer comment la méthodologie utilisée afin de calculer les estimations de l’activité économique souterraine à la borne supérieure pour les provinces et les territoires diffère de celle utilisée afin de calculer les estimations nationales.

    Date de diffusion : 2015-04-29

  • Enquêtes et programmes statistiques — Documentation : 99-002-X2011001
    Description :

    Ce rapport donne une description des méthodes d'échantillonnage et de pondération utilisées pour l’Enquête nationale auprès des ménages de 2011. Il fournit les justifications opérationnelles et théoriques et présente les résultats des études d'évaluation de ces méthodes.

    Date de diffusion : 2015-01-28

  • Enquêtes et programmes statistiques — Documentation : 99-002-X
    Description : Ce rapport donne une description des méthodes d'échantillonnage et de pondération utilisées pour l’Enquête nationale auprès des ménages de 2011. Il fournit les justifications opérationnelles et théoriques et présente les résultats des études d'évaluation de ces méthodes.
    Date de diffusion : 2015-01-28

  • Enquêtes et programmes statistiques — Documentation : 92-568-X
    Description :

    Ce rapport donne une description des méthodes d'échantillonnage et de pondération utilisées pour le Recensement de 2006. Il fournit un historique de l'application de ces méthodes aux recensements du Canada ainsi que les fondements opérationnels et théoriques de ces méthodes, et présente les résultats des études d'évaluation.

    Date de diffusion : 2009-08-11

  • Enquêtes et programmes statistiques — Documentation : 71F0031X2006003
    Description :

    Cet article est une introduction ainsi qu'une discussion sur les modifications apportées aux estimations de l'Enquête sur la population active en janvier 2006. Parmi ces modifications on retrouve notamment l'ajustement des estimations des chiffres de la population, des améliorations aux estimations des secteurs public et privé, ainsi que des mises à jour historiques de plusieurs petites agglomérations de recensement (AR).

    Date de diffusion : 2006-01-25

  • Enquêtes et programmes statistiques — Documentation : 62F0026M2005002
    Description :

    Le présent document fournit un aperçu des différences entre l'ancienne et la nouvelle méthodologie de pondération, ainsi que des effets du nouveau système de pondération sur les estimations.

    Date de diffusion : 2005-06-30
Date de modification :