Pondération et estimation
Filtrer les résultats par
Search HelpMot(s)-clé(s)
Type
Enquête ou programme statistique
- Enquête sur la dynamique du travail et du revenu (5)
- Recensement de la population (5)
- Enquête sur les dépenses des ménages (2)
- Étude longitudinale et internationale des adultes (2)
- Enquête sur l'emploi, la rémunération et les heures de travail (1)
- Registre canadien du cancer (1)
- Enquête sur la santé dans les collectivités canadiennes - Composante annuelle (1)
- Programme de déclaration uniforme de la criminalité (1)
- Estimations démographiques trimestrielles (1)
- Estimations démographiques annuelles: Canada, provinces et territoires (1)
- Estimations du nombre de familles de recensement au 1er juillet, Canada, provinces et territoires (1)
- Estimations démographiques annuelles : régions infraprovinciales (1)
- Enquête sur la population active (1)
- Banque de données administratives longitudinales (1)
- Enquête sociale générale - Identité sociale (1)
- Enquête sur la santé dans les collectivités canadiennes - Nutrition (1)
- Enquête canadienne sur le revenu (1)
- Valeurs des propriétés résidentielles (1)
- Enquête canadienne sur la situation des entreprises (1)
Résultats
Tout (624)
Tout (624) (0 to 10 of 624 results)
- Articles et rapports : 11-522-X202500100006Description : L'approche de l'estimation sur petits domaines est fréquemment utilisée pour produire des estimations à un niveau désagrégé lorsque l'estimation directe à partir d'une enquête ne peut s'appuyer sur un échantillon suffisamment grand pour produire des estimations précises. Cela se fait souvent à l'aide du modèle au niveau du domaine de Fay-Herriot, en supposant que les estimations directes sont indépendantes sous le plan de sondage et ont une variance connue, et en appliquant un processus de lissage aux estimations de la variance des estimations directes afin de mieux répondre à cette dernière hypothèse. Il n'est pas rare que l'on compare les estimations sur petits domaines aux estimations directes à un niveau agrégé. Dans le présent article, il est démontré qu'une hypothèse d'indépendance erronée peut avoir une incidence importante sur l'erreur quadratique moyenne (EQM) des estimations réconciliées. Les valeurs des covariances entre les estimations directes sont donc nécessaires pour obtenir de bonnes estimations ponctuelles et d'EQM. Il est difficile d'obtenir de bonnes estimations de ces covariances en raison de la petite taille des échantillons dans certains domaines. Une manière originale de dériver les valeurs de ces covariances, en procédant à l'ingénierie inverse d'un processus de réconciliation hypothétique, est présentée.Date de diffusion : 2025-09-08
- 2. Correction des biais de sélection dans une enquête non probabiliste à deux phases sur les paiements ArchivéArticles et rapports : 11-522-X202500100007Description : Le présent article applique l'estimateur du pseudomaximum de vraisemblance (PMV) à l'échantillonnage non probabiliste à deux phases lorsque des renseignements auxiliaires pertinents peuvent être tirés de l'échantillon d'enquête probabiliste et de l'échantillon d'enquête non probabiliste. Pour tenir compte de divers ajustements de poids et estimer la variance au-delà des totaux et des moyennes, tels que les médianes et les quantiles, une procédure simplifiée de pseudo-population selon la méthode bootstrap est proposée pour estimer approximativement la variance de la deuxième phase. Plus précisément, la simplification ignore la variabilité d'échantillonnage de la deuxième phase (c'est-à-dire qu'elle est traitée comme fixe, alors qu'elle est en fait aléatoire), si la fraction d'échantillonnage de la première phase de l'échantillon non probabiliste est négligeable. À l'aide de la deuxième vague de l'Enquête de 2020 sur les solutions de rechange à l'argent comptant de la Banque du Canada, la performance de la méthode proposée est comparée à celle d'autres méthodes, lesquelles soit ne modélisent pas explicitement la probabilité de sélection (c'est-à-dire la méthode itérative du quotient), soit ignorent les renseignements utiles de la phase 1 (c'est-à-dire la phase 2 uniquement). Selon les résultats obtenus, l'approche fondée sur le PMV fonctionne mieux que la méthode itérative du quotient et les estimations de la phase 2 uniquement dans le cadre de la réduction des biais de sélection des variables à deux phases liées aux paiements, particulièrement en ce qui concerne le groupe des jeunes dont le taux de réponse est faible. Les variances estimées des estimations basées sur le PMV sont stables.Date de diffusion : 2025-09-08
- Articles et rapports : 11-522-X202500100009Description : Au total, trois séries de panels en ligne ont été mises en œuvre à Statistique Canada de 2020 à 2024. Les participants à ces séries de panels en ligne ont été recrutés parmi les répondants de grandes enquêtes sociales probabilistes (enquêtes de recrutement), et ont ensuite été invités à participer à une série de courtes enquêtes en ligne. Des estimations des variables des enquêtes de recrutement ont été calculées en utilisant les poids de l'enquête de recrutement et les poids des panels en ligne, et elles ont été comparées; les différences indiquent la possibilité de la présence d'un biais résiduel qui n'a pas été corrigé par le processus de pondération des panels en ligne. Cette étude a relevé plus de différences significatives que ce qui serait attendu si l'estimateur du panel en ligne avait pleinement corrigé le biais résultant du processus de réponse aux panels en ligne. Les questions liées à certains sujets tels que la politique et le vote, le sentiment d'appartenance, et la consommation médiatique affichaient les différences les plus significatives entre les estimations du panel en ligne et les estimations de l'enquête de recrutement.Date de diffusion : 2025-09-08
- Articles et rapports : 11-522-X202500100011Description : Des méthodes modernes d'imputation axées sur les « données » pour traiter la non-réponse dans le contexte d'enquêtes relevant du Programme intégré de la statistique des entreprises de Statistique Canada ont été évaluées dans le passé. Ces méthodes permettent d'observer qu'elle peuvent mener à une imputation de grande qualité, en plus de pouvoir entraîner des gains d'efficacité globaux lors de l'établissement d'une stratégie de vérification et d'imputation (V&I) d'une enquête donnée. Cependant, il reste ardu d'évaluer la variance totale connexe, plus précisément la composante attribuable à l'imputation. Dans le présent article, deux méthodes sont proposées pour évaluer la variance totale, et on montre les résultats préliminaires qui ont amené à poursuivre les recherches dans ce domaine.Date de diffusion : 2025-09-08
- Articles et rapports : 11-522-X202500100028Description : Les objectifs de développement durable des Nations Unies exigent des données détaillées et désagrégées, habituellement obtenues au moyen d'enquêtes-ménages. Toutefois, les enquêtes à elles seules ne peuvent pas répondre à ce besoin de statistiques détaillées. Pour remédier à la situation, les instituts statistiques nationaux adoptent des méthodes sur petits domaines; ils font toutefois face à des défis, car les variables auxiliaires, souvent dérivées d'enquêtes, introduisent des erreurs de mesure dans les modèles. L'objectif est d'appliquer une correction des erreurs de mesure dans le modèle classique au niveau du domaine de Fay-Herriot. Les résultats démontrent la robustesse de l'approche normalisée à faire abstraction des erreurs de mesure, mais montrent que dans des cas particuliers, la correction des erreurs de mesure est bénéfique. Cette approche est appliquée à une étude de cas fondée sur des données d'enquête-ménages en Indonésie.Date de diffusion : 2025-09-08
- Articles et rapports : 12-001-X202500100003Description : Ces dernières années, l’apprentissage automatique a suscité un vif intérêt dans les organismes nationaux de statistique. Grâce à leur souplesse, ces méthodes peuvent s’avérer utiles lors du traitement de la non-réponse. Dans cet article, nous menons une enquête empirique afin de comparer le biais et l’efficacité de plusieurs procédures d’apprentissage automatique. En plus des procédures classiques d’apprentissage automatique, nous évaluons le rendement des approches d’agrégation qui s’appuient sur différentes procédures d’apprentissage automatique pour produire un ensemble de poids ajustés pour la non-réponse.Date de diffusion : 2025-06-30
- Articles et rapports : 12-001-X202500100005Description : Dans la présente étude, nous calculons un estimateur d’erreur quadratique moyenne de prédiction (EQMP) sans biais (ou quasiment sans biais) de deuxième ordre du meilleur prédicteur linéaire sans biais empirique d’une moyenne de petits domaines pour une extension semi-paramétrique du modèle bien connu de Fay-Herriot. En particulier, nous calculons notre estimateur d’EQMP essentiellement en supposant certaines conditions sur les moments pour les erreurs d’échantillonnage et les distributions d’effets aléatoires. L’estimateur d’EQMP de Prasad-Rao fondé sur l’hypothèse de normalité présente une propriété surprenante de robustesse en ce qu’il demeure sans biais au deuxième ordre sous l’hypothèse de non-normalité d’effets aléatoires lorsqu’un estimateur de méthode des moments simple de Prasad-Rao est utilisé pour la composante de variance et que la distribution de l’erreur d’échantillonnage est normale. Nous montrons que l’estimateur d’EQMP fondé sur l’hypothèse de normalité n’est plus sans biais de deuxième ordre lorsque la distribution de l’erreur d’échantillonnage présente un aplatissement non nul ou lorsque la méthode des moments de Fay-Herriot est utilisée pour estimer la composante de variance, même lorsque la distribution de l’erreur d’échantillonnage est normale. Il est intéressant de souligner que lors de l’utilisation de l’estimateur de méthode des moments simple pour la composante de variance, l’estimateur d’EQMP que nous proposons ne nécessite pas d’estimation de l’aplatissement des effets aléatoires. Nous présentons également les résultats d’une étude par simulation sur l’exactitude de l’estimateur d’EQMP proposé, en cas de non-normalité des distributions d’échantillonnage et des effets aléatoires.Date de diffusion : 2025-06-30
- Articles et rapports : 12-001-X202500100006Description : Les spécialistes des enquêtes ont de plus en plus adopté les avantages des techniques modernes d’apprentissage automatique, y compris les algorithmes arborescents de classification et de régression, dans la création d’ajustements pour la non-réponse. Ces méthodes, lesquelles ne nécessitent pas de relation fonctionnelle prédéfinie entre les résultats et les prédicteurs, offrent un moyen pratique de procéder à la sélection des variables et d’établir des structures interprétables qui lient la propension à répondre aux variables explicatives. Toutefois, lors de l’application de ces algorithmes aux données d’enquête, il arrive couramment que l’on néglige des facteurs décisifs, comme les poids d’échantillonnage, ainsi que les caractéristiques du plan d’échantillonnage, telles que la stratification et le partitionnement. Pour combler cette lacune, nous proposons une extension de l’approche de la détection automatique d’interactions du khi carré (CHAID) et nous décrivons les propriétés asymptotiques fondées sur le plan de la méthode « CHAID pour les enquêtes » qui en résulte. Pour faciliter son utilisation pratique, nous intégrons une correction de Rao-Scott dans le critère de fractionnement pour tenir compte du plan d’enquête. À l’aide de données de l’American Community Survey, nous illustrons l’utilisation de la méthode et évaluons son rendement en le comparant à celui d’algorithmes pondérés et non pondérés existants.Date de diffusion : 2025-06-30
- Articles et rapports : 12-001-X202500100007Description : Nous présentons une approche novatrice d’estimation par calage assistée par un modèle dans l’échantillonnage au moyen du calage par entropie généralisée. La méthode s’appuie sur le récent travail de Kwon, Kim et Qiu (2024) et l’étend à un cadre assisté par un modèle. Contrairement aux techniques de calage traditionnelles, cette approche prend en compte une fonction d’entropie généralisée comme objectif d’optimisation et incorpore une contrainte de calage éliminant le biais pour assurer la convergence par rapport au plan. L’estimateur proposé démontre une équivalence asymptotique à un estimateur augmenté par la régression généralisée. Il permet une variance du modèle inégale, ce qui peut améliorer l’efficacité lorsque le plan d’échantillonnage est informatif. L’article présente des justifications de la méthode fondées sur le plan et fondées sur le modèle, ainsi que les propriétés asymptotiques et les techniques d’estimation de la variance. Les aspects computationnels sont analysés, y compris l’approche d’optimisation non contrainte qui facilite la mise en œuvre, notamment pour les variables auxiliaires de grande dimension. Le rendement de la méthode est évalué au moyen d’une étude par simulation, démontrant son efficacité quant à l’amélioration de l’efficacité de l’estimation, particulièrement lorsque le plan d’échantillonnage est informatif.Date de diffusion : 2025-06-30
- Articles et rapports : 12-001-X202500100008Description : Les budgets plus restreints, la diminution continue des taux de réponse dans les enquêtes probabilistes classiques et une pression croissante par les utilisateurs pour des données plus actuelles sont tous des facteurs qui ont stimulé la recherche sur l’utilisation de données-échantillons non probabilistes, comme les dossiers administratifs, le moissonnage du Web, les données des téléphones mobiles et les enquêtes volontaires sur Internet, pour faire des inférences sur les paramètres de population finie comme les moyennes et les totaux. Ces données sont souvent plus faciles, plus rapides et moins coûteuses à recueillir que les échantillons probabilistes classiques. Cependant, une des préoccupations majeures avec l’utilisation de ce type de données est leur non-représentativité due à un biais de sélection possible qui, s’il n’est pas pris en compte de manière appropriée, pourrait biaiser l’inférence. Dans le présent article, nous examinons et exposons les méthodes proposées dans la littérature pour régler ce problème et proposons de nouvelles méthodes, en faisant la différence entre des méthodes qui reposent sur l’intégration de l’échantillon non probabiliste avec un échantillon probabiliste approprié, et des méthodes pour lesquelles l’inférence repose uniquement sur l’échantillon non probabiliste. Des illustrations empiriques, qui reposent sur des données simulées, sont fournies.Date de diffusion : 2025-06-30
- Précédent Go to previous page of Tout results
- 1 (actuel) Go to page 1 of Tout results
- 2 Go to page 2 of Tout results
- 3 Go to page 3 of Tout results
- 4 Go to page 4 of Tout results
- 5 Go to page 5 of Tout results
- 6 Go to page 6 of Tout results
- 7 Go to page 7 of Tout results
- ...
- 63 Go to page 63 of Tout results
- Suivant Go to next page of Tout results
Données (0)
Données (0) (0 résultat)
Aucun contenu disponible actuellement
Analyses (597)
Analyses (597) (0 to 10 of 597 results)
- Articles et rapports : 11-522-X202500100006Description : L'approche de l'estimation sur petits domaines est fréquemment utilisée pour produire des estimations à un niveau désagrégé lorsque l'estimation directe à partir d'une enquête ne peut s'appuyer sur un échantillon suffisamment grand pour produire des estimations précises. Cela se fait souvent à l'aide du modèle au niveau du domaine de Fay-Herriot, en supposant que les estimations directes sont indépendantes sous le plan de sondage et ont une variance connue, et en appliquant un processus de lissage aux estimations de la variance des estimations directes afin de mieux répondre à cette dernière hypothèse. Il n'est pas rare que l'on compare les estimations sur petits domaines aux estimations directes à un niveau agrégé. Dans le présent article, il est démontré qu'une hypothèse d'indépendance erronée peut avoir une incidence importante sur l'erreur quadratique moyenne (EQM) des estimations réconciliées. Les valeurs des covariances entre les estimations directes sont donc nécessaires pour obtenir de bonnes estimations ponctuelles et d'EQM. Il est difficile d'obtenir de bonnes estimations de ces covariances en raison de la petite taille des échantillons dans certains domaines. Une manière originale de dériver les valeurs de ces covariances, en procédant à l'ingénierie inverse d'un processus de réconciliation hypothétique, est présentée.Date de diffusion : 2025-09-08
- 2. Correction des biais de sélection dans une enquête non probabiliste à deux phases sur les paiements ArchivéArticles et rapports : 11-522-X202500100007Description : Le présent article applique l'estimateur du pseudomaximum de vraisemblance (PMV) à l'échantillonnage non probabiliste à deux phases lorsque des renseignements auxiliaires pertinents peuvent être tirés de l'échantillon d'enquête probabiliste et de l'échantillon d'enquête non probabiliste. Pour tenir compte de divers ajustements de poids et estimer la variance au-delà des totaux et des moyennes, tels que les médianes et les quantiles, une procédure simplifiée de pseudo-population selon la méthode bootstrap est proposée pour estimer approximativement la variance de la deuxième phase. Plus précisément, la simplification ignore la variabilité d'échantillonnage de la deuxième phase (c'est-à-dire qu'elle est traitée comme fixe, alors qu'elle est en fait aléatoire), si la fraction d'échantillonnage de la première phase de l'échantillon non probabiliste est négligeable. À l'aide de la deuxième vague de l'Enquête de 2020 sur les solutions de rechange à l'argent comptant de la Banque du Canada, la performance de la méthode proposée est comparée à celle d'autres méthodes, lesquelles soit ne modélisent pas explicitement la probabilité de sélection (c'est-à-dire la méthode itérative du quotient), soit ignorent les renseignements utiles de la phase 1 (c'est-à-dire la phase 2 uniquement). Selon les résultats obtenus, l'approche fondée sur le PMV fonctionne mieux que la méthode itérative du quotient et les estimations de la phase 2 uniquement dans le cadre de la réduction des biais de sélection des variables à deux phases liées aux paiements, particulièrement en ce qui concerne le groupe des jeunes dont le taux de réponse est faible. Les variances estimées des estimations basées sur le PMV sont stables.Date de diffusion : 2025-09-08
- Articles et rapports : 11-522-X202500100009Description : Au total, trois séries de panels en ligne ont été mises en œuvre à Statistique Canada de 2020 à 2024. Les participants à ces séries de panels en ligne ont été recrutés parmi les répondants de grandes enquêtes sociales probabilistes (enquêtes de recrutement), et ont ensuite été invités à participer à une série de courtes enquêtes en ligne. Des estimations des variables des enquêtes de recrutement ont été calculées en utilisant les poids de l'enquête de recrutement et les poids des panels en ligne, et elles ont été comparées; les différences indiquent la possibilité de la présence d'un biais résiduel qui n'a pas été corrigé par le processus de pondération des panels en ligne. Cette étude a relevé plus de différences significatives que ce qui serait attendu si l'estimateur du panel en ligne avait pleinement corrigé le biais résultant du processus de réponse aux panels en ligne. Les questions liées à certains sujets tels que la politique et le vote, le sentiment d'appartenance, et la consommation médiatique affichaient les différences les plus significatives entre les estimations du panel en ligne et les estimations de l'enquête de recrutement.Date de diffusion : 2025-09-08
- Articles et rapports : 11-522-X202500100011Description : Des méthodes modernes d'imputation axées sur les « données » pour traiter la non-réponse dans le contexte d'enquêtes relevant du Programme intégré de la statistique des entreprises de Statistique Canada ont été évaluées dans le passé. Ces méthodes permettent d'observer qu'elle peuvent mener à une imputation de grande qualité, en plus de pouvoir entraîner des gains d'efficacité globaux lors de l'établissement d'une stratégie de vérification et d'imputation (V&I) d'une enquête donnée. Cependant, il reste ardu d'évaluer la variance totale connexe, plus précisément la composante attribuable à l'imputation. Dans le présent article, deux méthodes sont proposées pour évaluer la variance totale, et on montre les résultats préliminaires qui ont amené à poursuivre les recherches dans ce domaine.Date de diffusion : 2025-09-08
- Articles et rapports : 11-522-X202500100028Description : Les objectifs de développement durable des Nations Unies exigent des données détaillées et désagrégées, habituellement obtenues au moyen d'enquêtes-ménages. Toutefois, les enquêtes à elles seules ne peuvent pas répondre à ce besoin de statistiques détaillées. Pour remédier à la situation, les instituts statistiques nationaux adoptent des méthodes sur petits domaines; ils font toutefois face à des défis, car les variables auxiliaires, souvent dérivées d'enquêtes, introduisent des erreurs de mesure dans les modèles. L'objectif est d'appliquer une correction des erreurs de mesure dans le modèle classique au niveau du domaine de Fay-Herriot. Les résultats démontrent la robustesse de l'approche normalisée à faire abstraction des erreurs de mesure, mais montrent que dans des cas particuliers, la correction des erreurs de mesure est bénéfique. Cette approche est appliquée à une étude de cas fondée sur des données d'enquête-ménages en Indonésie.Date de diffusion : 2025-09-08
- Articles et rapports : 12-001-X202500100003Description : Ces dernières années, l’apprentissage automatique a suscité un vif intérêt dans les organismes nationaux de statistique. Grâce à leur souplesse, ces méthodes peuvent s’avérer utiles lors du traitement de la non-réponse. Dans cet article, nous menons une enquête empirique afin de comparer le biais et l’efficacité de plusieurs procédures d’apprentissage automatique. En plus des procédures classiques d’apprentissage automatique, nous évaluons le rendement des approches d’agrégation qui s’appuient sur différentes procédures d’apprentissage automatique pour produire un ensemble de poids ajustés pour la non-réponse.Date de diffusion : 2025-06-30
- Articles et rapports : 12-001-X202500100005Description : Dans la présente étude, nous calculons un estimateur d’erreur quadratique moyenne de prédiction (EQMP) sans biais (ou quasiment sans biais) de deuxième ordre du meilleur prédicteur linéaire sans biais empirique d’une moyenne de petits domaines pour une extension semi-paramétrique du modèle bien connu de Fay-Herriot. En particulier, nous calculons notre estimateur d’EQMP essentiellement en supposant certaines conditions sur les moments pour les erreurs d’échantillonnage et les distributions d’effets aléatoires. L’estimateur d’EQMP de Prasad-Rao fondé sur l’hypothèse de normalité présente une propriété surprenante de robustesse en ce qu’il demeure sans biais au deuxième ordre sous l’hypothèse de non-normalité d’effets aléatoires lorsqu’un estimateur de méthode des moments simple de Prasad-Rao est utilisé pour la composante de variance et que la distribution de l’erreur d’échantillonnage est normale. Nous montrons que l’estimateur d’EQMP fondé sur l’hypothèse de normalité n’est plus sans biais de deuxième ordre lorsque la distribution de l’erreur d’échantillonnage présente un aplatissement non nul ou lorsque la méthode des moments de Fay-Herriot est utilisée pour estimer la composante de variance, même lorsque la distribution de l’erreur d’échantillonnage est normale. Il est intéressant de souligner que lors de l’utilisation de l’estimateur de méthode des moments simple pour la composante de variance, l’estimateur d’EQMP que nous proposons ne nécessite pas d’estimation de l’aplatissement des effets aléatoires. Nous présentons également les résultats d’une étude par simulation sur l’exactitude de l’estimateur d’EQMP proposé, en cas de non-normalité des distributions d’échantillonnage et des effets aléatoires.Date de diffusion : 2025-06-30
- Articles et rapports : 12-001-X202500100006Description : Les spécialistes des enquêtes ont de plus en plus adopté les avantages des techniques modernes d’apprentissage automatique, y compris les algorithmes arborescents de classification et de régression, dans la création d’ajustements pour la non-réponse. Ces méthodes, lesquelles ne nécessitent pas de relation fonctionnelle prédéfinie entre les résultats et les prédicteurs, offrent un moyen pratique de procéder à la sélection des variables et d’établir des structures interprétables qui lient la propension à répondre aux variables explicatives. Toutefois, lors de l’application de ces algorithmes aux données d’enquête, il arrive couramment que l’on néglige des facteurs décisifs, comme les poids d’échantillonnage, ainsi que les caractéristiques du plan d’échantillonnage, telles que la stratification et le partitionnement. Pour combler cette lacune, nous proposons une extension de l’approche de la détection automatique d’interactions du khi carré (CHAID) et nous décrivons les propriétés asymptotiques fondées sur le plan de la méthode « CHAID pour les enquêtes » qui en résulte. Pour faciliter son utilisation pratique, nous intégrons une correction de Rao-Scott dans le critère de fractionnement pour tenir compte du plan d’enquête. À l’aide de données de l’American Community Survey, nous illustrons l’utilisation de la méthode et évaluons son rendement en le comparant à celui d’algorithmes pondérés et non pondérés existants.Date de diffusion : 2025-06-30
- Articles et rapports : 12-001-X202500100007Description : Nous présentons une approche novatrice d’estimation par calage assistée par un modèle dans l’échantillonnage au moyen du calage par entropie généralisée. La méthode s’appuie sur le récent travail de Kwon, Kim et Qiu (2024) et l’étend à un cadre assisté par un modèle. Contrairement aux techniques de calage traditionnelles, cette approche prend en compte une fonction d’entropie généralisée comme objectif d’optimisation et incorpore une contrainte de calage éliminant le biais pour assurer la convergence par rapport au plan. L’estimateur proposé démontre une équivalence asymptotique à un estimateur augmenté par la régression généralisée. Il permet une variance du modèle inégale, ce qui peut améliorer l’efficacité lorsque le plan d’échantillonnage est informatif. L’article présente des justifications de la méthode fondées sur le plan et fondées sur le modèle, ainsi que les propriétés asymptotiques et les techniques d’estimation de la variance. Les aspects computationnels sont analysés, y compris l’approche d’optimisation non contrainte qui facilite la mise en œuvre, notamment pour les variables auxiliaires de grande dimension. Le rendement de la méthode est évalué au moyen d’une étude par simulation, démontrant son efficacité quant à l’amélioration de l’efficacité de l’estimation, particulièrement lorsque le plan d’échantillonnage est informatif.Date de diffusion : 2025-06-30
- Articles et rapports : 12-001-X202500100008Description : Les budgets plus restreints, la diminution continue des taux de réponse dans les enquêtes probabilistes classiques et une pression croissante par les utilisateurs pour des données plus actuelles sont tous des facteurs qui ont stimulé la recherche sur l’utilisation de données-échantillons non probabilistes, comme les dossiers administratifs, le moissonnage du Web, les données des téléphones mobiles et les enquêtes volontaires sur Internet, pour faire des inférences sur les paramètres de population finie comme les moyennes et les totaux. Ces données sont souvent plus faciles, plus rapides et moins coûteuses à recueillir que les échantillons probabilistes classiques. Cependant, une des préoccupations majeures avec l’utilisation de ce type de données est leur non-représentativité due à un biais de sélection possible qui, s’il n’est pas pris en compte de manière appropriée, pourrait biaiser l’inférence. Dans le présent article, nous examinons et exposons les méthodes proposées dans la littérature pour régler ce problème et proposons de nouvelles méthodes, en faisant la différence entre des méthodes qui reposent sur l’intégration de l’échantillon non probabiliste avec un échantillon probabiliste approprié, et des méthodes pour lesquelles l’inférence repose uniquement sur l’échantillon non probabiliste. Des illustrations empiriques, qui reposent sur des données simulées, sont fournies.Date de diffusion : 2025-06-30
- Précédent Go to previous page of Analyses results
- 1 (actuel) Go to page 1 of Analyses results
- 2 Go to page 2 of Analyses results
- 3 Go to page 3 of Analyses results
- 4 Go to page 4 of Analyses results
- 5 Go to page 5 of Analyses results
- 6 Go to page 6 of Analyses results
- 7 Go to page 7 of Analyses results
- ...
- 60 Go to page 60 of Analyses results
- Suivant Go to next page of Analyses results
Références (27)
Références (27) (0 to 10 of 27 results)
- Enquêtes et programmes statistiques — Documentation : 98-306-XDescription :
Ce rapport donne une description des méthodes d'échantillonnage, de pondération et d'estimation utilisées pour le Recensement de la population. Il fournit les justifications opérationnelles et théoriques et présente les résultats des évaluations de ces méthodes.
Date de diffusion : 2023-10-04 - Avis et consultations : 75F0002M2019006Description :
En 2018, Statistique Canada a diffusé deux nouveaux tableaux de données présentant des estimations des taux d’imposition et de transfert effectifs des déclarants et des familles de recensement. Ces estimations sont tirées de la Banque de données administratives longitudinales. La publication fournit une description détaillée des méthodes utilisées pour produire les estimations des taux d’imposition et de transfert effectifs.
Date de diffusion : 2019-04-16 - Enquêtes et programmes statistiques — Documentation : 75F0002M2015003Description :
Cette note porte sur les estimations révisées du revenu tirées de l’Enquête sur la dynamique du travail et du revenu (EDTR). Les révisions aux estimations de l’EDTR permettent de comparer les résultats de l’Enquête canadienne sur le revenu (ECR) à ceux des années précédentes puisqu’elles offrent une solution aux problèmes associés aux différences méthodologiques entre l’EDTR et l’ECR.
Date de diffusion : 2015-12-17 - Enquêtes et programmes statistiques — Documentation : 91-528-XDescription : Ce manuel offre des descriptions détaillées des sources de données et des méthodes utilisées par Statistique Canada pour produire des estimations de la population. Elles comportent : les estimations postcensitaires et intercensitaires de la population; la population de départ; les naissances et les décès; l'immigration; les émigrations; les résidents non permanents; la migration interprovinciale; les estimations infraprovinciales de la population; les estimations de la population selon l'âge, le sexe et l'état matrimonial et les estimations des familles de recensement. Un glossaire des termes courants est inclus à la fin du manuel, suivi de la notation normalisée utilisée.
Auparavant, la documentation sur les changements méthodologiques pour le calcul des estimations était éparpillée dans plusieurs publications et documents d'information de Statistique Canada. Ce manuel offre aux utilisateurs de statistiques démographiques un recueil exhaustif des procédures actuelles utilisées par Statistique Canada pour élaborer des estimations de la population et des familles.
Date de diffusion : 2015-11-17 - Enquêtes et programmes statistiques — Documentation : 13-605-X201500414166Description :
Estimations de l’économie souterraine par province et territoire pour la période 2007 à 2012 sont maintenant disponibles pour la première fois. L’objet de cette note technique est d’expliquer comment la méthodologie utilisée afin de calculer les estimations de l’activité économique souterraine à la borne supérieure pour les provinces et les territoires diffère de celle utilisée afin de calculer les estimations nationales.
Date de diffusion : 2015-04-29 - Enquêtes et programmes statistiques — Documentation : 99-002-X2011001Description :
Ce rapport donne une description des méthodes d'échantillonnage et de pondération utilisées pour l’Enquête nationale auprès des ménages de 2011. Il fournit les justifications opérationnelles et théoriques et présente les résultats des études d'évaluation de ces méthodes.
Date de diffusion : 2015-01-28 - Enquêtes et programmes statistiques — Documentation : 99-002-XDescription : Ce rapport donne une description des méthodes d'échantillonnage et de pondération utilisées pour l’Enquête nationale auprès des ménages de 2011. Il fournit les justifications opérationnelles et théoriques et présente les résultats des études d'évaluation de ces méthodes.Date de diffusion : 2015-01-28
- Enquêtes et programmes statistiques — Documentation : 92-568-XDescription :
Ce rapport donne une description des méthodes d'échantillonnage et de pondération utilisées pour le Recensement de 2006. Il fournit un historique de l'application de ces méthodes aux recensements du Canada ainsi que les fondements opérationnels et théoriques de ces méthodes, et présente les résultats des études d'évaluation.
Date de diffusion : 2009-08-11 - Enquêtes et programmes statistiques — Documentation : 71F0031X2006003Description :
Cet article est une introduction ainsi qu'une discussion sur les modifications apportées aux estimations de l'Enquête sur la population active en janvier 2006. Parmi ces modifications on retrouve notamment l'ajustement des estimations des chiffres de la population, des améliorations aux estimations des secteurs public et privé, ainsi que des mises à jour historiques de plusieurs petites agglomérations de recensement (AR).
Date de diffusion : 2006-01-25 - Enquêtes et programmes statistiques — Documentation : 62F0026M2005002Description :
Le présent document fournit un aperçu des différences entre l'ancienne et la nouvelle méthodologie de pondération, ainsi que des effets du nouveau système de pondération sur les estimations.
Date de diffusion : 2005-06-30