Recherche par mot-clé
Filtrer les résultats par
Aide à la rechercheMot(s)-clé(s)
Sujet
- Sélectionné: Méthodes statistiques (33)
- Analyse des données (5)
- Assurance de la qualité (3)
- Collecte et questionnaires (5)
- Contrôle de la divulgation et diffusion de données (1)
- Histoire et contexte (3)
- Inférence et fondements (2)
- Plan de sondage (1)
- Pondération et estimation (11)
- Réponse et non-réponse (5)
- Techniques statistiques (2)
- Vérification et imputation (3)
- Autre contenu lié aux Méthodes statistiques (2)
Type
Enquête ou programme statistique
Résultats
Tout (33)
Tout (33) (0 à 10 de 33 résultats)
- 1. La qualité des enquêtes ArchivéArticles et rapports : 12-001-X201200211751Description :
La qualité des enquêtes est un concept multidimensionnel issu de deux démarches de développement distinctes. La première démarche suit le paradigme de l'erreur d'enquête totale, qui repose sur quatre piliers dont émanent les principes qui guident la conception de l'enquête, sa mise en oeuvre, son évaluation et l'analyse des données. Nous devons concevoir les enquêtes de façon que l'erreur quadratique moyenne d'une estimation soit minimisée compte tenu du budget et d'autres contraintes. Il est important de tenir compte de toutes les sources connues d'erreur, de surveiller les principales d'entre elles durant la mise en oeuvre, d'évaluer périodiquement les principales sources d'erreur et les combinaisons de ces sources après l'achèvement de l'enquête, et d'étudier les effets des erreurs sur l'analyse des données. Dans ce contexte, on peut mesurer la qualité d'une enquête par l'erreur quadratique moyenne, la contrôler par des observations faites durant la mise en oeuvre et l'améliorer par des études d'évaluation. Le paradigme possède des points forts et des points faibles. L'un des points forts tient au fait que la recherche peut être définie en fonction des sources d'erreur et l'un des points faibles, au fait que la plupart des évaluations de l'erreur d'enquête totale sont incomplètes, en ce sens qu'il est impossible d'inclure les effets de toutes les sources. La deuxième démarche est influencée par des idées empruntées aux sciences de la gestion de la qualité. Ces sciences ont pour objet de permettre aux entreprises d'exceller dans la fourniture de produits et de services en se concentrant sur leurs clients et sur la concurrence. Ces idées ont eu une très grande influence sur de nombreux organismes statistiques. Elles ont notamment amené les fournisseurs de données à reconnaître qu'un produit de qualité ne peut pas être obtenu si la qualité des processus sous-jacents n'est pas suffisante et que des processus de qualité suffisante ne peuvent pas être obtenus sans une bonne qualité organisationnelle. Ces divers niveaux peuvent être contrôlés et évalués au moyen d'ententes sur le niveau de service, de sondages auprès des clients, d'analyses des paradonnées en recourant au contrôle statistique des processus et d'évaluations organisationnelles en se servant de modèles d'excellence opérationnelle ou d'autres ensembles de critères. À tous les niveaux, on peut rehausser la qualité en lançant des projets d'amélioration choisis selon des fonctions de priorité. L'objectif ultime de ces projets d'amélioration est que les processus concernés s'approchent progressivement d'un état où ils sont exempts d'erreur. Naturellement, il pourrait s'agir d'un objectif impossible à atteindre, mais auquel il faut tenter de parvenir. Il n'est pas raisonnable d'espérer obtenir des mesures continues de l'erreur d'enquête totale en se servant de l'erreur quadratique moyenne. Au lieu de cela, on peut espérer qu'une amélioration continue de la qualité par l'application des idées des sciences de la gestion ainsi que des méthodes statistiques permettra de minimiser les biais et d'autres problèmes que posent les processus d'enquête, afin que la variance devienne une approximation de l'erreur quadratique moyenne. Si nous y arrivons, nous aurons fait coïncider approximativement les deux démarches de développement.
Date de diffusion : 2012-12-19 - Articles et rapports : 12-001-X201200211752Description :
La coca est une plante indigène de la forêt tropicale humide amazonienne, dont on extrait la cocaïne, un alcaloïde illégal. Les agriculteurs considèrent comme délicates les questions concernant la superficie de leurs aires de culture de la coca dans les régions éloignées où cette plante est cultivée au Pérou. Par conséquent, ils ont tendance à ne pas participer aux enquêtes, à ne pas répondre aux questions de nature délicate ou à sous-déclarer la superficie de leurs aires individuelles de culture de la coca. La mesure exacte et fiable des aires de culture de la coca est une source de préoccupations politiques et stratégiques, ce qui fait que les méthodologistes d'enquête doivent déterminer comment encourager la déclaration honnête de données et la réponse aux questions de nature délicate concernant la culture de la coca. Parmi les stratégies d'enquête appliquées dans notre étude de cas figuraient l'établissement d'un rapport de confiance avec les agriculteurs, l'assurance de la confidentialité, la correspondance entre les caractéristiques des intervieweurs et celles des répondants, la modification de la présentation des questions de nature délicate et l'absence d'isolement absolu des répondants au cours de l'enquête. Les résultats de l'enquête ont été validés au moyen de données recueillies par satellite. Ils semblent indiquer que les agriculteurs ont tendance à sous-déclarer la superficie de leurs aires de culture de la coca dans une proportion de 35 % à 40 %.
Date de diffusion : 2012-12-19 - 3. Imputation pour la non-réponse non monotone dans le Survey of Industrial Research and Development ArchivéArticles et rapports : 12-001-X201200211753Description :
Dans les études longitudinales, la non-réponse est souvent de nature non monotone. Dans le cas de la Survey of Industrial Research and Development (SIRD), il est raisonnable de supposer que le mécanisme de non-réponse dépend des valeurs antérieures, en ce sens que la propension à répondre au sujet d'une variable étudiée au point t dans le temps dépend de la situation de réponse ainsi que des valeurs observées ou manquantes de la même variable aux points dans le temps antérieurs à t. Puisque cette non-réponse n'est pas ignorable, l'approche axée sur la vraisemblance paramétrique est sensible à la spécification des modèles paramétriques s'appuyant sur la distribution conjointe des variables à différents points dans le temps et sur le mécanisme de non-réponse. La non-réponse non monotone limite aussi l'application des méthodes de pondération par l'inverse de la propension à répondre. En écartant toutes les valeurs observées auprès d'un sujet après la première valeur manquante pour ce dernier, on peut créer un ensemble de données présentant une non-réponse monotone ignorable, puis appliquer les méthodes établies pour la non-réponse ignorable. Cependant, l'abandon de données observées n'est pas souhaitable et peut donner lieu à des estimateurs inefficaces si le nombre de données écartées est élevé. Nous proposons d'imputer les réponses manquantes par la régression au moyen de modèles d'imputation créés prudemment sous le mécanisme de non-réponse dépendante des valeurs antérieures. Cette méthode ne requiert l'ajustement d'aucun modèle paramétrique sur la distribution conjointe des variables à différents points dans le temps ni sur le mécanisme de non-réponse. Les propriétés des moyennes estimées en appliquant la méthode d'imputation proposée sont examinées en s'appuyant sur des études en simulation et une analyse empirique des données de la SIRD.
Date de diffusion : 2012-12-19 - Articles et rapports : 12-001-X201200211754Description :
La méthode d'ajustement sur le score de propension est souvent adoptée pour traiter le biais de sélection dans les sondages, y compris la non-réponse totale et le sous-dénombrement. Le score de propension est calculé en se servant de variables auxiliaires observées dans tout l'échantillon. Nous discutons de certaines propriétés asymptotiques des estimateurs ajustés sur le score de propension et dérivons des estimateurs optimaux fondés sur un modèle de régression pour la population finie. Un estimateur ajusté sur le score de propension optimal peut être réalisé en se servant d'un modèle de score de propension augmenté. Nous discutons de l'estimation de la variance et présentons les résultats de deux études par simulation.
Date de diffusion : 2012-12-19 - 5. Évaluation de l'exactitude des modèles de propension à répondre dans les études longitudinales ArchivéArticles et rapports : 12-001-X201200211755Description :
La question de la non-réponse dans les études longitudinales est abordée en évaluant l'exactitude des modèles de propension à répondre construits pour distinguer et prédire les divers types de non-réponse. Une attention particulière est accordée aux mesures sommaires dérivées des courbes de la fonction d'efficacité du receveur, ou courbes ROC (de l'anglais receiver operating characteristics), ainsi que des courbes de type logit sur rangs. Les concepts sont appliqués à des données provenant de la Millennium Cohort Study du Royaume-Uni. Selon les résultats, la capacité de faire la distinction entre les divers types de non-répondants et de les prévoir n'est pas grande. Les poids produits au moyen des modèles de propension à répondre ne donnent lieu qu'à de faibles corrections des transitions entre situations d'emploi. Des conclusions sont tirées quant aux possibilités d'intervention en vue de prévenir la non-réponse.
Date de diffusion : 2012-12-19 - Articles et rapports : 12-001-X201200211756Description :
Nous proposons une nouvelle approche d'estimation sur petits domaines fondée sur la modélisation conjointe des moyennes et des variances. Le modèle et la méthodologie que nous proposons améliorent non seulement les estimateurs sur petits domaines, mais donnent aussi des estimateurs « lissés » des vraies variances d'échantillonnage. Le maximum de vraisemblance des paramètres du modèle est estimé au moyen de l'algorithme EM en raison de la forme non classique de la fonction de vraisemblance. Les intervalles de confiance des paramètres de petit domaine sont obtenus en adoptant une approche de la théorie de la décision plus générale que l'approche classique de minimisation de la perte quadratique. Les propriétés numériques de la méthode proposée sont étudiées au moyen d'études par simulation et comparées à celles de méthodes concurrentes proposées dans la littérature. Une justification théorique des propriétés effectives des estimateurs et intervalles de confiance résultants est également présentée.
Date de diffusion : 2012-12-19 - Articles et rapports : 12-001-X201200211757Description :
Les colinéarités entre les variables explicatives des modèles de régression linéaire affectent les estimations fondées sur des données d'enquête autant que celles fondées sur des données ne provenant pas d'enquêtes. Les effets indésirables sont des erreurs-types inutilement grandes, des statistiques t faussement faibles ou élevées et des estimations des paramètres de signe illogique. Les diagnostics de colinéarité disponibles ne conviennent généralement pas pour les données d'enquête, parce que les estimateurs de variance qui y sont intégrés ne tiennent pas compte correctement de la stratification, des grappes et des poids de sondage. Dans le présent article, nous élaborons des indices de conditionnement et des décompositions de variance pour diagnostiquer les problèmes de colinéarité dans des données provenant d'enquêtes complexes. Les diagnostics adaptés sont illustrés au moyen de données provenant d'une enquête sur les caractéristiques de l'état de santé.
Date de diffusion : 2012-12-19 - Articles et rapports : 12-001-X201200211758Description :
Le présent article décrit l'élaboration de deux méthodes bayésiennes d'inférence au sujet des quantiles de variables d'intérêt continues d'une population finie sous échantillonnage avec probabilités inégales. La première de ces méthodes consiste à estimer les fonctions de répartition des variables étudiées continues en ajustant un certain nombre de modèles de régression probit avec splines pénalisées sur les probabilités d'inclusion. Les quantiles de population finie sont alors obtenus par inversion des fonctions de répartition estimées. Cette méthode demande considérablement de calculs. La deuxième méthode consiste à prédire les valeurs pour les unités non échantillonnées en supposant qu'il existe une relation variant de façon lisse entre la variable étudiée continue et la probabilité d'inclusion, en modélisant la fonction moyenne ainsi que de la fonction de variance en se servant de splines. Les deux estimateurs bayésiens fondés sur un modèle avec splines donnent un compromis désirable entre la robustesse et l'efficacité. Des études par simulation montrent que les deux méthodes produisent une racine carrée de l'erreur quadratique moyenne plus faible que l'estimateur pondéré par les poids de sondage et que les estimateurs par le ratio et par différence décrits dans Rao, Kovar et Mantel (RKM 1990), et qu'ils sont plus robustes à la spécification incorrecte du modèle que l'estimateur fondé sur un modèle de régression passant par l'origine décrit dans Chambers et Dunstan (1986). Lorsque la taille de l'échantillon est petite, les intervalles de crédibilité à 95 % des deux nouvelles méthodes ont une couverture plus proche du niveau nominal que l'estimateur pondéré par les poids de sondage.
Date de diffusion : 2012-12-19 - Articles et rapports : 12-001-X201200211759Description :
L'un des avantages de l'imputation multiple est qu'elle permet aux utilisateurs des données de faire des inférences valides en appliquant des méthodes classiques avec des règles de combinaison simples. Toutefois, les règles de combinaison établies pour les tests d'hypothèse multivariés échouent quand l'erreur d'échantillonnage est nulle. Le présent article propose des tests modifiés utilisables dans les analyses en population finie de données de recensement comportant de multiples imputations pour contrôler la divulgation et remplacer des données manquantes, et donne une évaluation de leurs propriétés fréquentistes par simulation.
Date de diffusion : 2012-12-19 - Enquêtes et programmes statistiques — Documentation : 13-605-X201200511748Description :
Cette note fournit aux utilisateurs un rapprochement entre les mesures canadiennes et américaines du revenu disponible des ménages, de la dette ainsi que du ratio de la dette sur le marché du crédit des ménages au revenu disponible.
Date de diffusion : 2012-12-03
Données (0)
Données (0) (0 résultat)
Aucun contenu disponible actuellement
Analyses (28)
Analyses (28) (0 à 10 de 28 résultats)
- 1. La qualité des enquêtes ArchivéArticles et rapports : 12-001-X201200211751Description :
La qualité des enquêtes est un concept multidimensionnel issu de deux démarches de développement distinctes. La première démarche suit le paradigme de l'erreur d'enquête totale, qui repose sur quatre piliers dont émanent les principes qui guident la conception de l'enquête, sa mise en oeuvre, son évaluation et l'analyse des données. Nous devons concevoir les enquêtes de façon que l'erreur quadratique moyenne d'une estimation soit minimisée compte tenu du budget et d'autres contraintes. Il est important de tenir compte de toutes les sources connues d'erreur, de surveiller les principales d'entre elles durant la mise en oeuvre, d'évaluer périodiquement les principales sources d'erreur et les combinaisons de ces sources après l'achèvement de l'enquête, et d'étudier les effets des erreurs sur l'analyse des données. Dans ce contexte, on peut mesurer la qualité d'une enquête par l'erreur quadratique moyenne, la contrôler par des observations faites durant la mise en oeuvre et l'améliorer par des études d'évaluation. Le paradigme possède des points forts et des points faibles. L'un des points forts tient au fait que la recherche peut être définie en fonction des sources d'erreur et l'un des points faibles, au fait que la plupart des évaluations de l'erreur d'enquête totale sont incomplètes, en ce sens qu'il est impossible d'inclure les effets de toutes les sources. La deuxième démarche est influencée par des idées empruntées aux sciences de la gestion de la qualité. Ces sciences ont pour objet de permettre aux entreprises d'exceller dans la fourniture de produits et de services en se concentrant sur leurs clients et sur la concurrence. Ces idées ont eu une très grande influence sur de nombreux organismes statistiques. Elles ont notamment amené les fournisseurs de données à reconnaître qu'un produit de qualité ne peut pas être obtenu si la qualité des processus sous-jacents n'est pas suffisante et que des processus de qualité suffisante ne peuvent pas être obtenus sans une bonne qualité organisationnelle. Ces divers niveaux peuvent être contrôlés et évalués au moyen d'ententes sur le niveau de service, de sondages auprès des clients, d'analyses des paradonnées en recourant au contrôle statistique des processus et d'évaluations organisationnelles en se servant de modèles d'excellence opérationnelle ou d'autres ensembles de critères. À tous les niveaux, on peut rehausser la qualité en lançant des projets d'amélioration choisis selon des fonctions de priorité. L'objectif ultime de ces projets d'amélioration est que les processus concernés s'approchent progressivement d'un état où ils sont exempts d'erreur. Naturellement, il pourrait s'agir d'un objectif impossible à atteindre, mais auquel il faut tenter de parvenir. Il n'est pas raisonnable d'espérer obtenir des mesures continues de l'erreur d'enquête totale en se servant de l'erreur quadratique moyenne. Au lieu de cela, on peut espérer qu'une amélioration continue de la qualité par l'application des idées des sciences de la gestion ainsi que des méthodes statistiques permettra de minimiser les biais et d'autres problèmes que posent les processus d'enquête, afin que la variance devienne une approximation de l'erreur quadratique moyenne. Si nous y arrivons, nous aurons fait coïncider approximativement les deux démarches de développement.
Date de diffusion : 2012-12-19 - Articles et rapports : 12-001-X201200211752Description :
La coca est une plante indigène de la forêt tropicale humide amazonienne, dont on extrait la cocaïne, un alcaloïde illégal. Les agriculteurs considèrent comme délicates les questions concernant la superficie de leurs aires de culture de la coca dans les régions éloignées où cette plante est cultivée au Pérou. Par conséquent, ils ont tendance à ne pas participer aux enquêtes, à ne pas répondre aux questions de nature délicate ou à sous-déclarer la superficie de leurs aires individuelles de culture de la coca. La mesure exacte et fiable des aires de culture de la coca est une source de préoccupations politiques et stratégiques, ce qui fait que les méthodologistes d'enquête doivent déterminer comment encourager la déclaration honnête de données et la réponse aux questions de nature délicate concernant la culture de la coca. Parmi les stratégies d'enquête appliquées dans notre étude de cas figuraient l'établissement d'un rapport de confiance avec les agriculteurs, l'assurance de la confidentialité, la correspondance entre les caractéristiques des intervieweurs et celles des répondants, la modification de la présentation des questions de nature délicate et l'absence d'isolement absolu des répondants au cours de l'enquête. Les résultats de l'enquête ont été validés au moyen de données recueillies par satellite. Ils semblent indiquer que les agriculteurs ont tendance à sous-déclarer la superficie de leurs aires de culture de la coca dans une proportion de 35 % à 40 %.
Date de diffusion : 2012-12-19 - 3. Imputation pour la non-réponse non monotone dans le Survey of Industrial Research and Development ArchivéArticles et rapports : 12-001-X201200211753Description :
Dans les études longitudinales, la non-réponse est souvent de nature non monotone. Dans le cas de la Survey of Industrial Research and Development (SIRD), il est raisonnable de supposer que le mécanisme de non-réponse dépend des valeurs antérieures, en ce sens que la propension à répondre au sujet d'une variable étudiée au point t dans le temps dépend de la situation de réponse ainsi que des valeurs observées ou manquantes de la même variable aux points dans le temps antérieurs à t. Puisque cette non-réponse n'est pas ignorable, l'approche axée sur la vraisemblance paramétrique est sensible à la spécification des modèles paramétriques s'appuyant sur la distribution conjointe des variables à différents points dans le temps et sur le mécanisme de non-réponse. La non-réponse non monotone limite aussi l'application des méthodes de pondération par l'inverse de la propension à répondre. En écartant toutes les valeurs observées auprès d'un sujet après la première valeur manquante pour ce dernier, on peut créer un ensemble de données présentant une non-réponse monotone ignorable, puis appliquer les méthodes établies pour la non-réponse ignorable. Cependant, l'abandon de données observées n'est pas souhaitable et peut donner lieu à des estimateurs inefficaces si le nombre de données écartées est élevé. Nous proposons d'imputer les réponses manquantes par la régression au moyen de modèles d'imputation créés prudemment sous le mécanisme de non-réponse dépendante des valeurs antérieures. Cette méthode ne requiert l'ajustement d'aucun modèle paramétrique sur la distribution conjointe des variables à différents points dans le temps ni sur le mécanisme de non-réponse. Les propriétés des moyennes estimées en appliquant la méthode d'imputation proposée sont examinées en s'appuyant sur des études en simulation et une analyse empirique des données de la SIRD.
Date de diffusion : 2012-12-19 - Articles et rapports : 12-001-X201200211754Description :
La méthode d'ajustement sur le score de propension est souvent adoptée pour traiter le biais de sélection dans les sondages, y compris la non-réponse totale et le sous-dénombrement. Le score de propension est calculé en se servant de variables auxiliaires observées dans tout l'échantillon. Nous discutons de certaines propriétés asymptotiques des estimateurs ajustés sur le score de propension et dérivons des estimateurs optimaux fondés sur un modèle de régression pour la population finie. Un estimateur ajusté sur le score de propension optimal peut être réalisé en se servant d'un modèle de score de propension augmenté. Nous discutons de l'estimation de la variance et présentons les résultats de deux études par simulation.
Date de diffusion : 2012-12-19 - 5. Évaluation de l'exactitude des modèles de propension à répondre dans les études longitudinales ArchivéArticles et rapports : 12-001-X201200211755Description :
La question de la non-réponse dans les études longitudinales est abordée en évaluant l'exactitude des modèles de propension à répondre construits pour distinguer et prédire les divers types de non-réponse. Une attention particulière est accordée aux mesures sommaires dérivées des courbes de la fonction d'efficacité du receveur, ou courbes ROC (de l'anglais receiver operating characteristics), ainsi que des courbes de type logit sur rangs. Les concepts sont appliqués à des données provenant de la Millennium Cohort Study du Royaume-Uni. Selon les résultats, la capacité de faire la distinction entre les divers types de non-répondants et de les prévoir n'est pas grande. Les poids produits au moyen des modèles de propension à répondre ne donnent lieu qu'à de faibles corrections des transitions entre situations d'emploi. Des conclusions sont tirées quant aux possibilités d'intervention en vue de prévenir la non-réponse.
Date de diffusion : 2012-12-19 - Articles et rapports : 12-001-X201200211756Description :
Nous proposons une nouvelle approche d'estimation sur petits domaines fondée sur la modélisation conjointe des moyennes et des variances. Le modèle et la méthodologie que nous proposons améliorent non seulement les estimateurs sur petits domaines, mais donnent aussi des estimateurs « lissés » des vraies variances d'échantillonnage. Le maximum de vraisemblance des paramètres du modèle est estimé au moyen de l'algorithme EM en raison de la forme non classique de la fonction de vraisemblance. Les intervalles de confiance des paramètres de petit domaine sont obtenus en adoptant une approche de la théorie de la décision plus générale que l'approche classique de minimisation de la perte quadratique. Les propriétés numériques de la méthode proposée sont étudiées au moyen d'études par simulation et comparées à celles de méthodes concurrentes proposées dans la littérature. Une justification théorique des propriétés effectives des estimateurs et intervalles de confiance résultants est également présentée.
Date de diffusion : 2012-12-19 - Articles et rapports : 12-001-X201200211757Description :
Les colinéarités entre les variables explicatives des modèles de régression linéaire affectent les estimations fondées sur des données d'enquête autant que celles fondées sur des données ne provenant pas d'enquêtes. Les effets indésirables sont des erreurs-types inutilement grandes, des statistiques t faussement faibles ou élevées et des estimations des paramètres de signe illogique. Les diagnostics de colinéarité disponibles ne conviennent généralement pas pour les données d'enquête, parce que les estimateurs de variance qui y sont intégrés ne tiennent pas compte correctement de la stratification, des grappes et des poids de sondage. Dans le présent article, nous élaborons des indices de conditionnement et des décompositions de variance pour diagnostiquer les problèmes de colinéarité dans des données provenant d'enquêtes complexes. Les diagnostics adaptés sont illustrés au moyen de données provenant d'une enquête sur les caractéristiques de l'état de santé.
Date de diffusion : 2012-12-19 - Articles et rapports : 12-001-X201200211758Description :
Le présent article décrit l'élaboration de deux méthodes bayésiennes d'inférence au sujet des quantiles de variables d'intérêt continues d'une population finie sous échantillonnage avec probabilités inégales. La première de ces méthodes consiste à estimer les fonctions de répartition des variables étudiées continues en ajustant un certain nombre de modèles de régression probit avec splines pénalisées sur les probabilités d'inclusion. Les quantiles de population finie sont alors obtenus par inversion des fonctions de répartition estimées. Cette méthode demande considérablement de calculs. La deuxième méthode consiste à prédire les valeurs pour les unités non échantillonnées en supposant qu'il existe une relation variant de façon lisse entre la variable étudiée continue et la probabilité d'inclusion, en modélisant la fonction moyenne ainsi que de la fonction de variance en se servant de splines. Les deux estimateurs bayésiens fondés sur un modèle avec splines donnent un compromis désirable entre la robustesse et l'efficacité. Des études par simulation montrent que les deux méthodes produisent une racine carrée de l'erreur quadratique moyenne plus faible que l'estimateur pondéré par les poids de sondage et que les estimateurs par le ratio et par différence décrits dans Rao, Kovar et Mantel (RKM 1990), et qu'ils sont plus robustes à la spécification incorrecte du modèle que l'estimateur fondé sur un modèle de régression passant par l'origine décrit dans Chambers et Dunstan (1986). Lorsque la taille de l'échantillon est petite, les intervalles de crédibilité à 95 % des deux nouvelles méthodes ont une couverture plus proche du niveau nominal que l'estimateur pondéré par les poids de sondage.
Date de diffusion : 2012-12-19 - Articles et rapports : 12-001-X201200211759Description :
L'un des avantages de l'imputation multiple est qu'elle permet aux utilisateurs des données de faire des inférences valides en appliquant des méthodes classiques avec des règles de combinaison simples. Toutefois, les règles de combinaison établies pour les tests d'hypothèse multivariés échouent quand l'erreur d'échantillonnage est nulle. Le présent article propose des tests modifiés utilisables dans les analyses en population finie de données de recensement comportant de multiples imputations pour contrôler la divulgation et remplacer des données manquantes, et donne une évaluation de leurs propriétés fréquentistes par simulation.
Date de diffusion : 2012-12-19 - Articles et rapports : 75F0002M2012003Description :
La diffusion des données de 2010 de l'Enquête sur la dynamique du travail et du revenu (EDTR) a coïncidé avec une révision historique des résultats de 2006 à 2009. Les poids de l'enquête ont été mis à jour afin de tenir compte des nouvelles estimations démographiques fondées sur le Recensement de 2006, plutôt que sur le Recensement de 2001. Le présent document présente de façon sommaire les répercussions de cette révision sur les estimations d'enquête pour la période 2006-2009.
Date de diffusion : 2012-11-01
Références (5)
Références (5) ((5 résultats))
- Enquêtes et programmes statistiques — Documentation : 13-605-X201200511748Description :
Cette note fournit aux utilisateurs un rapprochement entre les mesures canadiennes et américaines du revenu disponible des ménages, de la dette ainsi que du ratio de la dette sur le marché du crédit des ménages au revenu disponible.
Date de diffusion : 2012-12-03 - Avis et consultations : 13-605-X201200111671Description :
Les données macroéconomiques pour le Canada, y compris les comptes nationaux du Canada (produit intérieur brut (PIB), épargne et valeur nette), la balance des paiements internationaux (excédent ou déficit du compte courant ou du compte de capital et bilan des investissements internationaux) et les statistiques de finances publiques (déficit et dette des administrations publiques), sont fondées sur des normes internationales. Ces dernières sont établies de façon coordonnée par des organismes internationaux, y compris les Nations Unies, l'Organisation de coopération et de développement économiques (OCDE), le Fonds monétaire international (FMI), la Banque mondiale et Eurostat, avec l'aide d'experts de partout dans le monde. Le Canada a toujours joué un rôle important dans l'élaboration et la mise à jour de ces normes, qui sont passées de lignes directrices brutes, du début au milieu du XXe siècle, aux normes bien définies qui existent aujourd'hui.
L'objectif du présent document est d'exposer une nouvelle présentation des comptes nationaux trimestriels (comptes des revenus et des dépenses, comptes des flux financiers et comptes du bilan national), qui sera utilisée au moment de la conversion des comptes nationaux du Canada à la norme internationale la plus récente - le Système de comptabilité nationale 2008.
Date de diffusion : 2012-05-30 - Avis et consultations : 62F0026M2012001Géographie : Province ou territoireDescription :
Dans ce rapport, on présente les indicateurs de qualité produits pour l'Enquête sur les dépenses des ménages de 2010. Ces indicateurs de qualité, tels que les coefficients de variation, les taux de non-réponse, les taux de glissement et les taux d'imputation, permettent aux utilisateurs d'interpréter les données.
Date de diffusion : 2012-04-25 - Avis et consultations : 62F0026M2012002Description :
À partir de l'année d'enquête 2010, l'Enquête sur les dépenses des ménages (EDM) est effectuée selon une méthodologie de collecte différente des enquêtes précédentes. La nouvelle méthodologie combine l'utilisation d'un questionnaire et d'un journal de dépenses. De plus, la collecte est désormais effectuée en continue au cours de l'année. Cette note fournit de l'information aux utilisateurs et aux utilisateurs éventuels de données de l'EDM au sujet des différences méthodologiques entre l'EDM remaniée et l'ancienne EDM.
Date de diffusion : 2012-04-25 - Enquêtes et programmes statistiques — Documentation : 98-302-XDescription :
L'Aperçu du Recensement de 2011 est un document de référence qui présente chaque phase du Recensement de la population et du Recensement de l'agriculture. Il fournit un aperçu du Recensement de 2011 à partir des lois régissant le recensement à la détermination du contenu, la collecte, le traitement, l'évaluation de la qualité des données et la diffusion des données. Il trace aussi l'histoire du recensement à partir des premiers jours de la Nouvelle-France jusqu'à présent.
De plus, l'Aperçu du recensement vise à informer les utilisateurs sur les étapes prises pour protéger les renseignements confidentiels de même que sur les étapes effectuées pour vérifier les données et réduire au minimum les erreurs. Il fournit également de l'information sur les utilisations possibles des données du recensement et présente les différents niveaux géographiques ainsi que la gamme des produits et services qui sont offerts.
L'Aperçu du recensement peut s'avérer utile, autant pour les utilisateurs chevronnés que pour les utilisateurs novices qui désirent se familiariser avec le Recensement de 2011 ainsi que pour en soutirer des renseignements précis. La première partie porte sur le Recensement de la population, alors que la deuxième concerne le Recensement de l'agriculture.
Date de diffusion : 2012-02-08
- Date de modification :