Recherche par mot-clé

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Enquête ou programme statistique

24 facets displayed. 0 facets selected.

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (473)

Tout (473) (50 à 60 de 473 résultats)

  • Articles et rapports : 12-001-X201200211755
    Description :

    La question de la non-réponse dans les études longitudinales est abordée en évaluant l'exactitude des modèles de propension à répondre construits pour distinguer et prédire les divers types de non-réponse. Une attention particulière est accordée aux mesures sommaires dérivées des courbes de la fonction d'efficacité du receveur, ou courbes ROC (de l'anglais receiver operating characteristics), ainsi que des courbes de type logit sur rangs. Les concepts sont appliqués à des données provenant de la Millennium Cohort Study du Royaume-Uni. Selon les résultats, la capacité de faire la distinction entre les divers types de non-répondants et de les prévoir n'est pas grande. Les poids produits au moyen des modèles de propension à répondre ne donnent lieu qu'à de faibles corrections des transitions entre situations d'emploi. Des conclusions sont tirées quant aux possibilités d'intervention en vue de prévenir la non-réponse.

    Date de diffusion : 2012-12-19

  • Articles et rapports : 12-001-X201200211757
    Description :

    Les colinéarités entre les variables explicatives des modèles de régression linéaire affectent les estimations fondées sur des données d'enquête autant que celles fondées sur des données ne provenant pas d'enquêtes. Les effets indésirables sont des erreurs-types inutilement grandes, des statistiques t faussement faibles ou élevées et des estimations des paramètres de signe illogique. Les diagnostics de colinéarité disponibles ne conviennent généralement pas pour les données d'enquête, parce que les estimateurs de variance qui y sont intégrés ne tiennent pas compte correctement de la stratification, des grappes et des poids de sondage. Dans le présent article, nous élaborons des indices de conditionnement et des décompositions de variance pour diagnostiquer les problèmes de colinéarité dans des données provenant d'enquêtes complexes. Les diagnostics adaptés sont illustrés au moyen de données provenant d'une enquête sur les caractéristiques de l'état de santé.

    Date de diffusion : 2012-12-19

  • Articles et rapports : 12-001-X201100211602
    Description :

    Cet article tente de répondre aux trois questions énoncées dans le titre. Il commence par une discussion des caractéristiques uniques des données d'enquêtes complexes qui diffèrent de celles des autres ensembles de données ; ces caractéristiques requièrent une attention spéciale, mais suggèrent une vaste gamme de procédures d'inférence. Ensuite, un certain nombre d'approches proposées dans la documentation pour traiter ces caractéristiques sont passées en revue en discutant de leurs mérites et de leurs limites. Ces approches diffèrent en ce qui a trait aux conditions qui sous-tendent leur utilisation, aux données additionnelles requises pour leur application, aux tests d'adéquation de l'ajustement du modèle, aux objectifs d'inférence qu'elles permettent de satisfaire, à l'efficacité statistique, aux demandes de ressources informatiques et aux compétences que doivent posséder les analystes qui ajustent les modèles. La dernière partie de l'article présente les résultats de simulations conçues pour comparer le biais, la variance et les taux de couverture des diverses approches dans le cas de l'estimation des coefficients de régression linéaire en partant d'un échantillon stratifié. Enfin, l'article se termine par une brève discussion des questions en suspens.

    Date de diffusion : 2011-12-21

  • Articles et rapports : 12-001-X201100211605
    Description :

    L'imputation composite est fréquemment employée dans les enquêtes auprès des entreprises. Le terme « composite » signifie que l'on utilise plus d'une méthode d'imputation pour remplacer les valeurs manquantes d'une variable d'intérêt. La littérature consacrée à l'estimation de la variance sous imputation composite est peu abondante. Afin de surmonter ce problème, nous examinons une extension de la méthodologie élaborée par Särndal (1992). Cette extension est de nature assez générale et est facile à mettre en oeuvre, à condition d'utiliser des méthodes d'imputation linéaires pour remplacer les valeurs manquantes. Cette catégorie de méthodes comprend l'imputation par régression linéaire, l'imputation par donneur et l'imputation par valeur auxiliaire, parfois appelée imputation « cold deck » ou imputation par substitution. Elle englobe donc les méthodes les plus couramment utilisées par les organismes statistiques nationaux pour imputer les valeurs manquantes. Notre méthodologie a été intégrée au Système d'estimation de la variance due à la non-réponse et à l'imputation (SEVANI), mis au point à Statistique Canada. Une étude par simulation est effectuée pour en évaluer les propriétés.

    Date de diffusion : 2011-12-21

  • Articles et rapports : 82-003-X201100411598
    Géographie : Canada
    Description :

    Les données longitudinales permettent d'étudier la dynamique de l'état de santé au cours du cycle de vie en modélisant les trajectoires. Les trajectoires de l'état de santé mesurées au moyen de l'indice de l'état de santé Health Utilities Index Mark 3 (HUI3) modélisées sous forme d'une fonction de l'âge seulement, ainsi que d'une fonction de l'âge et de covariables socioéconomiques, ont révélé des résidus non normaux et des problèmes d'estimation de variance. Le but de l'étude était d'examiner la possibilité de transformer la distribution des scores HUI3 de manière à obtenir des résidus qui suivent approximativement une loi normale.

    Date de diffusion : 2011-12-21

  • Articles et rapports : 12-001-X201100111445
    Description :

    Dans le présent article, nous étudions l'estimation sur petits domaines en nous servant de modèles au niveau du domaine. Nous considérons d'abord le modèle de Fay-Herriot (Fay et Herriot 1979) pour le cas d'une variance d'échantillonnage connue lissée et le modèle de You-Chapman (You et Chapman 2006) pour le cas de la modélisation de la variance d'échantillonnage. Ensuite, nous considérons des modèles spatiaux hiérarchiques bayésiens (HB) qui étendent les modèles de Fay-Herriot et de You-Chapman en tenant compte à la fois de l'hétérogénéité géographiquement non structurée et des effets de corrélation spatiale entre les domaines pour le lissage local. Les modèles proposés sont mis en 'uvre en utilisant la méthode d'échantillonnage de Gibbs pour une inférence entièrement bayésienne. Nous appliquons les modèles proposés à l'analyse de données d'enquête sur la santé et comparons les estimations fondées sur le modèle HB aux estimations directes fondées sur le plan. Nos résultats montrent que les estimations fondées sur le modèle HB ont de meilleures propriétés que les estimations directes. En outre, les modèles spatiaux au niveau du domaine proposés produisent des CV plus petits que les modèles de Fay-Herriot et de You-Chapman, particulièrement pour les domaines ayant trois domaines voisins ou plus. Nous présentons aussi une comparaison des modèles bayésiens et une analyse de l'adéquation du modèle.

    Date de diffusion : 2011-06-29

  • Articles et rapports : 12-001-X201100111446
    Description :

    L'estimation sur petits domaines fondée sur des modèles linéaires mixtes est parfois inefficace quand les relations sous-jacentes ne sont pas linéaires. Nous présentons des techniques d'estimation sur petits domaines pour des variables qui peuvent être modélisées linéairement après une transformation non linéaire. En particulier, nous étendons l'estimateur direct fondé sur un modèle de Chandra et Chambers (2005, 2009) à des données qui concordent avec un modèle linéaire mixte sur l'échelle logarithmique, en utilisant le calage sur un modèle pour définir des poids pouvant être utilisés dans cet estimateur. Nos résultats montrent que l'estimateur fondé sur la transformation que nous obtenons est à la fois efficace et robuste à la distribution des effets aléatoires dans le modèle. Une application à des données d'enquêtes auprès des entreprises démontre la performance satisfaisante de la méthode.

    Date de diffusion : 2011-06-29

  • Articles et rapports : 12-001-X201100111447
    Description :

    Ce document présente un programme R pour la stratification d'une population d'enquête à l'aide d'une variable unidimensionnelle X et pour le calcul de tailles d'échantillon dans les strates. Nous y employons des méthodes non itératives pour délimiter les strates, comme la méthode de la fonction cumulative de la racine carrée des fréquences et la méthode géométrique. Nous pouvons élaborer des plans optimaux où les bornes de strates minimisent soit le CV de l'estimateur simple par dilatation pour une taille fixe d'échantillon n, soit la valeur n pour un CV fixe. Nous disposons de deux algorithmes itératifs pour le calcul des bornes optimales. Le plan peut comporter des strates à tirage obligatoire qui sont définies par l'utilisateur et dont toutes les unités sont échantillonnées. Il est également possible d'inclure dans le plan stratifié des strates à tirage complet et à tirage nul qui permettent souvent de réduire les tailles d'échantillon. Les calculs de taille d'échantillon sont fondés sur les moments anticipés de la variable d'enquête Y étant donné la variable de stratification X. Le programme traite les distributions conditionnelles de Y étant donné X qui sont soit un modèle linéaire hétéroscédastique soit un modèle loglinéaire. Nous pouvons tenir compte de la non-réponse par strate dans l'élaboration du plan d'échantillonnage et dans les calculs de taille d'échantillon.

    Date de diffusion : 2011-06-29

  • Articles et rapports : 12-001-X201000211379
    Description :

    Le nombre de recrues dans les entreprises des zones locales de marché du travail est un important indicateur de la réorganisation des processus de production locaux. En Italie, ce paramètre peut être estimé au moyen des données de l'Enquête Excelsior, bien que celle-ci ne fournisse pas d'estimations fiables pour les domaines d'intérêt. Dans le présent article, nous proposons une méthode d'estimation sur petits domaines multivariée appliquée à des données de comptage et basée sur la loi multivariée Poisson-Log-normale. Cette méthode servira à estimer le nombre de personnes recrutées par les entreprises pour remplacer les employés qui quittent ainsi que pour doter de nouveaux postes. Dans le cadre de l'estimation sur petits domaines, on suppose habituellement que les variances et les covariances d'échantillonnage sont connues. Cependant, ces dernières, de même que les estimations ponctuelles directes, sont instables. Étant donné la rareté du phénomène que nous analysons, les dénombrements dans certains domaines sont nuls, ce qui produit des estimations nulles des covariances des erreurs d'échantillonnage. Afin de tenir compte de la variabilité supplémentaire due à la matrice de covariance d'échantillonnage estimée et de résoudre le problème des variances et covariances insensées dans certains domaines, nous proposons une approche « intégrée » suivant laquelle nous modélisons conjointement les paramètres d'intérêt et les matrices de covariance des erreurs d'échantillonnage. Nous suggérons une solution de nouveau fondée sur la loi Poisson-Log-normale pour lisser les variances et les covariances. Les résultats que nous obtenons sont encourageants : le modèle d'estimation sur petits domaines proposé donne de meilleurs résultats que le modèle d'estimation sur petits domaines fondé sur la loi multivariée normale-normale (MNN) et il rend possible une augmentation non négligeable de l'efficacité.

    Date de diffusion : 2010-12-21

  • Articles et rapports : 12-001-X201000111244
    Description :

    Nous étudions le problème de la sélection de modèles non paramétriques pour l'estimation sur petits domaines, auquel beaucoup d'attention a été accordée récemment. Nous élaborons une méthode fondée sur le concept de la méthode de l'enclos (fence method) de Jiang, Rao, Gu et Nguyen (2008) pour sélectionner la fonction moyenne pour les petits domaines parmi une classe de splines d'approximation. Les études par simulations montrent que la nouvelle méthode donne des résultats impressionnants, même si le nombre de petits domaines est assez faible. Nous appliquons la méthode à un ensemble de données hospitalières sur les échecs de greffe pour choisir un modèle non paramétrique de type Fay­Herriot.

    Date de diffusion : 2010-06-29
Données (3)

Données (3) ((3 résultats))

  • Microdonnées à grande diffusion : 89F0002X
    Description : La BD/MSPS est un modèle de microsimulation statique qui sert à l'analyse des interactions financières entre les gouvernements et les particuliers au Canada. Elle permet de calculer les impôts payés aux gouvernements et les transferts monétaires reçus de ceux-ci. Elle est formée d'une base de données, d'une série d'algorithmes et de modèles relatifs aux impôts et aux transferts, d'un logiciel d'analyse et de la documentation de l'utilisateur.
    Date de diffusion : 2024-04-12

  • Microdonnées à grande diffusion : 12M0014X
    Géographie : Province ou territoire
    Description :

    Ce rapport présente un bref aperçu de l'information recueillie dans le cycle 14 de l'Enquête sociale générale (ESG). Le cycle 14 est le premier cycle à avoir recueilli des renseignements détaillés sur l'accès aux technologies de l'information et des communications au Canada et leur utilisation. Les sujets abordés comprennent l'utilisation générale de la technologie et des ordinateurs, la technologie en milieu de travail, le développement des compétences en informatique, la fréquence de l'utilisation d'Internet et du courriel, ainsi que les non-utilisateurs et la sécurité et l'information sur Internet. La population cible de l'ESG se composait de toutes les personnes de 15 ans et plus vivant dans un ménage privé dans l'une des dix provinces.

    Date de diffusion : 2001-06-29

  • Microdonnées à grande diffusion : 82M0009X
    Description :

    On utilise la base de sondage de l'Enquête sur la population active afin de tirer un échantillon pour l'Enquête nationale sur la santé de la population (ENSP). En 1994, environ 20 000 ménages ont sélectionnés et pour ce troisième cycle, un échantillon additionnel a été constitué de la même façon. L'enquête est conduite tous les deux ans. L'échantillon est distribué entre quatre périodes trimestrielles de collecte pour une durée totale d'un an.

    Dans chacun des ménages, certains renseignements sommaires sont réunis auprès de tous les membres du ménage puis un membre du ménage choisi au hasard répond en plus à une interview en profondeur. Le premier cycle de collecte de données a commencé en 1994 et se poursuit tous les deux ans. L'enquête procure des données transversales et longitudinales. Les questionnaires portent sur l'état de santé, l'utilisation des services de santé, les déterminants de la santé, l'indice de l'état de santé, les affections chroniques et les restrictions d'activités. L'utilisation des services de santé est évaluée les visites aux prestateurs de soins de santé, traditionnels et non traditionnels, et de questions sur les médicaments et drogues. Parmi les déterminants de la santé, on retrouve l'usage du tabac, la consommation d'alcool et l'activité physique. On insistera plus particulièrement, pour ce troisième cycle de l'enquête sur les antécédents médicaaux familiaux, certaines affections chroniques dans la famille immédiate à un moment donné et les soins personnels. Les renseignements démographiques et économiques comprennent l'âge, le sexe, la scolarité, l'origine ethnique, le revenu du ménage et la situation au niveau du travail.

    Date de diffusion : 2000-12-19
Analyses (435)

Analyses (435) (0 à 10 de 435 résultats)

  • Articles et rapports : 11-522-X202100100009
    Description :

    Le recours à des données auxiliaires pour améliorer l’efficacité d’estimateurs de totaux et de moyennes au moyen d’une procédure d’estimation d’enquête assistée par un modèle de régression a reçu une attention considérable ces dernières années. Des estimateurs par la régression généralisée (GREG), fondés sur un modèle de régression linéaire, sont actuellement utilisés dans le cadre d’enquêtes auprès d’établissements, à Statistique Canada et au sein de plusieurs autres organismes de statistiques. Les estimateurs GREG utilisent des poids d’enquête communs à toutes les variables d’étude et un calage aux totaux de population de variables auxiliaires. De plus en plus de variables auxiliaires sont disponibles et certaines peuvent être superflues. Cela mène à des poids GREG instables lorsque toutes les variables auxiliaires disponibles, y compris les interactions parmi les variables catégoriques, sont utilisées dans le modèle de régression linéaire. En revanche, de nouvelles méthodes d’apprentissage automatique, comme les arbres de régression et la méthode LASSO, sélectionnent automatiquement des variables auxiliaires significatives et mènent à des poids non négatifs stables et à d’éventuels gains d’efficacité par rapport à la méthode GREG. Dans cet article, une étude par simulations, fondée sur un ensemble de données-échantillon d’une enquête-entreprise réelle traité comme la population cible, est menée afin d’examiner le rendement relatif de la méthode GREG, d’arbres de régression et de la méthode LASSO sur le plan de l’efficacité des estimateurs.

    Mots-clés : inférence assistée par modèle; estimation par calage; sélection du modèle; estimateur par la régression généralisée.

    Date de diffusion : 2021-10-29

  • Articles et rapports : 11-522-X202100100001
    Description :

    Nous envisageons ici l’analyse de régression dans le contexte de l’intégration de données. Pour combiner des renseignements partiels de sources externes, nous utilisons l’idée de calage de modèle qui introduit un modèle « de travail » réduit fondé sur les covariables observées. Ce modèle de travail réduit n’est pas nécessairement spécifié correctement, mais il peut être un outil utile pour intégrer les renseignements partiels provenant de données externes. La mise en œuvre en tant que telle se fonde sur une application nouvelle de la méthode de vraisemblance empirique. La méthode proposée est particulièrement attractive pour combiner des renseignements de plusieurs sources présentant différentes tendances d’information manquante. La méthode est appliquée à un exemple de données réelles combinant les données d’enquête de la Korean National Health and Nutrition Examination Survey (KNHANES, Enquête nationale coréenne sur la santé et la nutrition) et les mégadonnées du National Health Insurance Sharing Service (NHISS, Service national coréen de partage de l’assurance maladie).

    Mots clés : mégadonnées; probabilité empirique; modèles d’erreur de mesure; covariables manquantes.

    Date de diffusion : 2021-10-15

  • Articles et rapports : 62F0026M2020001
    Description :

    Depuis le remaniement de l'Enquête sur les dépenses des ménages de 2010, les statistiques sur la proportion annuelle des ménages déclarant des dépenses et les dépenses moyennes annuelles par ménage déclarant ne sont pas disponibles pour plusieurs catégories de biens et services. Pour aider à combler ce manque de données pour les utilisateurs, un modèle statistique a été développé afin de produire des approximations de ces statistiques. Ce produit comprend des tableaux de données et un guide de l'utilisateur.

    Date de diffusion : 2021-01-07

  • Articles et rapports : 82-003-X202001100002
    Description :

    Fondée sur les données des cycles de 2003 à 2013 de l’Enquête sur la santé dans les collectivités canadiennes, cette étude vise à caractériser les antécédents d’usage du tabac selon le sexe à l’aide des cohortes de naissance à compter de 1920. Les antécédents d’usage du tabac pour chaque cohorte de naissance comprennent l’âge auquel les personnes ont commencé à fumer et celui auquel elles ont cessé. Ces renseignements ont servi à établir la prévalence de l’usage du tabac pour chaque année civile de 1971 à 2041. L’étude vise également à caractériser les antécédents d’usage du tabac selon le statut socioéconomique.

    Date de diffusion : 2020-11-18

  • Articles et rapports : 12-001-X201800154928
    Description :

    Un processus à deux phases a été utilisé par la Substance Abuse and Mental Health Services Administration pour estimer la proportion d’Américains adultes atteints d’une maladie mentale grave (MMG). La première phase correspondait à la National Survey on Drug Use and Health (NSDUH) réalisée annuellement, tandis que la seconde phase consistait en un sous-échantillon aléatoire d’adultes ayant répondu à la NSDUH. Les personnes qui ont répondu à la deuxième phase d’échantillonnage ont été soumises à une évaluation clinique visant à déceler les maladies mentales graves. Un modèle de prédiction logistique a été ajusté à ce sous-échantillon en prenant la situation de MMG (oui ou non) déterminée au moyen de l’instrument de deuxième phase comme variable dépendante, et les variables connexes recueillies dans la NSDUH auprès de tous les adultes comme variables explicatives du modèle. Des estimations de la prévalence de la MMG chez l’ensemble des adultes et au sein de sous-populations d’adultes ont ensuite été calculées en attribuant à chaque participant à la NSDUH une situation de MMG établie en comparant sa probabilité estimée d’avoir une MMG avec un seuil diagnostique choisi sur la distribution des probabilités prédites. Nous étudions d’autres options que cet estimateur par seuil diagnostique classique, dont l’estimateur par probabilité. Ce dernier attribue une probabilité estimée d’avoir une MMG à chaque participant à la NSDUH. La prévalence estimée de la MMG est la moyenne pondérée de ces probabilités estimées. Au moyen des données de la NSDUH et de son sous-échantillon, nous montrons que, même si l’estimateur par probabilité donne une plus petite erreur quadratique moyenne quand on estime la prévalence de la MMG parmi l’ensemble des adultes, il a une plus grande tendance que l’estimateur par seuil diagnostique classique à présenter un biais au niveau de la sous-population.

    Date de diffusion : 2018-06-21

  • Articles et rapports : 12-001-X201800154963
    Description :

    Le cadre fondé sur l’échantillonnage probabiliste a joué un rôle dominant en recherche par sondage, parce qu’il fournit des outils mathématiques précis pour évaluer la variabilité d’échantillonnage. Toutefois, en raison de la hausse des coûts et de la baisse des taux de réponse, l’usage d’échantillons non probabilistes s’accroît, particulièrement dans le cas de populations générales, pour lesquelles le tirage d’échantillons à partir d’enquêtes en ligne devient de plus en plus économique et facile. Cependant, les échantillons non probabilistes posent un risque de biais de sélection dû à des différences d’accès et de degrés d’intérêt, ainsi qu’à d’autres facteurs. Le calage sur des totaux statistiques connus dans la population offre un moyen de réduire éventuellement l’effet du biais de sélection dans les échantillons non probabilistes. Ici, nous montrons que le calage assisté par un modèle en utilisant le LASSO adaptatif peut donner un estimateur convergent d’un total de population à condition qu’un sous-ensemble des variables explicatives réelles soit inclus dans le modèle de prédiction, permettant ainsi qu’un grand nombre de covariables possibles soit incluses sans risque de surajustement. Nous montrons que le calage assisté par un modèle en utilisant le LASSO adaptatif produit une meilleure estimation, pour ce qui est de l’erreur quadratique moyenne, que les méthodes concurrentes classiques, tels les estimateurs par la régression généralisée (GREG), quand un grand nombre de covariables sont nécessaires pour déterminer le modèle réel, sans vraiment qu’il y ait perte d’efficacité par rapport à la méthode GREG quand de plus petits modèles suffisent. Nous obtenons aussi des formules analytiques pour les estimateurs de variance des totaux de population, et comparons le comportement de ces estimateurs aux estimateurs bootstrap. Nous concluons par un exemple réel en utilisant des données provenant de la National Health Interview Survey.

    Date de diffusion : 2018-06-21

  • Articles et rapports : 11-633-X2017008
    Description :

    La plateforme de modélisation de microsimulation DYSEM propose un noyau de données démographiques et socioéconomiques qu’on peut utiliser avec facilité pour créer des modèles ou des applications de microsimulation dynamiques personnalisés. Le présent document décrit la plateforme DYSEM et donne un aperçu de ses usages prévus ainsi que des méthodes et données utilisées pour sa conception.

    Date de diffusion : 2017-07-28

  • Articles et rapports : 13-604-M2017083
    Description :

    Statistique Canada publie régulièrement des indicateurs macroéconomiques sur les actifs, les passifs et la valeur nette des ménages dans le cadre des comptes du bilan national (CBN) trimestriels. Ces comptes correspondent aux plus récentes normes internationales et constituent la source des estimations du patrimoine national pour tous les secteurs de l’économie, y compris les ménages, les institutions sans but lucratif, les administrations publiques et les sociétés, de même que la position du Canada en matière de richesse par rapport au reste du monde. Bien que les CBN fournissent des renseignements de grande qualité sur la position globale des ménages relativement aux autres secteurs économiques, ils ne possèdent pas la granularité requise pour comprendre les vulnérabilités de certains groupes particuliers et les conséquences qui en résultent sur le plan du bien-être économique et de la stabilité financière.

    Date de diffusion : 2017-03-15

  • Revues et périodiques : 91-621-X
    Description :

    Ce document décrit succinctement le fonctionnement général ainsi que les méthodes et sources de données du modèle de projections démographiques par microsimulation Demosim. Il constitue un complément méthodologique aux produits analytiques issus de Demosim.

    Date de diffusion : 2017-01-25

  • Articles et rapports : 12-001-X201600114538
    Description :

    La vérification automatique consiste en l’utilisation d’un ordinateur pour déceler et corriger sans intervention humaine les valeurs erronées dans un ensemble de données. La plupart des méthodes de vérification automatique actuellement employées aux fins de la statistique officielle sont fondées sur les travaux fondamentaux de Fellegi et Holt (1976). La mise en application de cette méthode dans la pratique révèle des différences systématiques entre les données vérifiées manuellement et celles qui sont vérifiées de façon automatisée, car l’humain est en mesure d’effectuer des opérations de vérification complexes. L’auteur du présent article propose une généralisation du paradigme de Fellegi-Holt qui permet d’intégrer de façon naturelle une grande catégorie d’opérations de vérification. Il présente aussi un algorithme qui résout le problème généralisé de localisation des erreurs qui en découle. Il est à espérer que cette généralisation puisse améliorer la pertinence des vérifications automatiques dans la pratique et ainsi accroître l’efficience des processus de vérification des données. Certains des premiers résultats obtenus à l’aide de données synthétiques sont prometteurs à cet égard.

    Date de diffusion : 2016-06-22
Références (32)

Références (32) (0 à 10 de 32 résultats)

  • Enquêtes et programmes statistiques — Documentation : 11-633-X2021005
    Description :

    La Direction des études analytiques et de la modélisation (DEAM) est le volet de recherche de Statistique Canada ayant pour mandat de produire des renseignements actuels, pertinents et de grande qualité sur des questions économiques, sociales et de santé qui importent aux Canadiens. La Direction fait usage stratégique de connaissances spécialisées et d’un éventail de sources de données et de techniques de modélisation pour répondre aux besoins en renseignements d’une vaste gamme de partenaires et d’intervenants du gouvernement, du milieu universitaire et du secteur public au moyen de l’analyse et de la recherche, de la modélisation et de l’analyse prédictive, et de l’élaboration de données. La Direction s’efforce de produire des recherches pertinentes, de grande qualité, actuelles, exhaustives, horizontales et intégrées, et de rendre possible l’utilisation de ses recherches grâce au renforcement des capacités et à la diffusion stratégique pour répondre aux besoins des décideurs, du milieu universitaire et du public en général.

    Ce Plan intégré pluriannuel pour la recherche, la modélisation et l’élaboration de données présente les priorités de la Direction pour les deux prochaines années.

    Date de diffusion : 2021-08-12

  • Enquêtes et programmes statistiques — Documentation : 12-539-X
    Description :

    Ce document réunit des lignes directrices et des listes de contrôles liées à de nombreuses questions dont on doit tenir compte dans la poursuite des objectifs de qualité que sous-tend l'exécution des activités statistiques. Le document s'attarde principalement à la façon d'assurer la qualité grâce à la conception ou à la restructuration efficace et adéquate d'un projet ou d'un programme statistique, des débuts jusqu'à l'évaluation, la diffusion et la documentation des données. Ces lignes directrices sont fondées sur les connaissances et l'expérience collective d'un grand nombre d'employés de Statistique Canada. On espère que les Lignes directrices concernant la qualité seront utiles au personnel chargé de la planification et de la conception des enquêtes et d'autres projets statistiques, ainsi qu'à ceux qui évaluent et analysent les résultats de ces projets.

    Date de diffusion : 2019-12-04

  • Enquêtes et programmes statistiques — Documentation : 15F0004X
    Description :

    On utilise généralement les modèles des entrées-sorties pour simuler l'incidence économique, d'une dépense sur un panier donné de biens et de services ou sur la production d'une ou de plusieurs industries. Les résultats de la simulation obtenus par suite d'un « choc » subi par un modèle d'entrées-sorties montreront les effets directs, indirects et induits de ce choc sur le PIB, les industries qui en tirent le plus d'avantages, le nombre d'emplois créés, les estimations brutes des impôts indirects et des subventions accordées, etc. Pour de plus amples renseignements, consultez le Guide d'utilisation du modèle d'entrées-sorties, qui est gratuit et disponible sur demande.

    À diverses occasions, des clients ont demandé s'ils pouvaient utiliser les modèles des prix des entrées-sorties ou de l'énergie, des modèles fiscaux ou des modèles de marchés. Sous réserve de leur disponibilité, des arrangements peuvent être pris pour l'utilisation de ces modèles sur demande.

    Le modèle d’entrées-sorties national n’était pas diffusé en 2015 ou 2016.

    Date de diffusion : 2019-04-04

  • Enquêtes et programmes statistiques — Documentation : 15F0009X
    Description :

    On utilise généralement les modèles des entrées-sorties pour simuler l'incidence économique, d'une dépense sur un panier donné de biens et de services ou sur la production d'une ou de plusieurs industries. Les résultats de la simulation obtenus par suite d'un « choc » subi par un modèle d'entrées-sorties montreront les effets directs, indirects et induits de ce choc sur le PIB, les industries qui en tirent le plus d'avantages, le nombre d'emplois créés, les estimations brutes des impôts indirects et des subventions accordées, etc. Pour de plus amples renseignements, consultez le Guide d'utilisation du modèle d'entrées-sorties, qui est gratuit et disponible sur demande.

    À diverses occasions, des clients ont demandé s'ils pouvaient utiliser les modèles des prix des entrées-sorties ou de l'énergie, des modèles fiscaux ou des modèles de marchés. Sous réserve de leur disponibilité, des arrangements peuvent être pris pour l'utilisation de ces modèles sur demande.

    Le modèle d’entrées-sorties interprovincial n’était pas diffusé en 2015 ou 2016.

    Date de diffusion : 2019-04-04

  • Enquêtes et programmes statistiques — Documentation : 71-526-X
    Description :

    L'Enquête sur la population active du Canada (EPA) est la source officielle d'estimations mensuelles de l'emploi total et du chômage. Suite au recensement de 2011, l'EPA a connu un remaniement pour tenir compte de l’évolution des caractéristiques de la population et du marché du travail, pour s’adapter aux besoins actuels et prévus des utilisateurs de données et pour mettre à jour l’information géographique requise pour mener l’enquête. Le programme de remaniement qui a suivi le recensement de 2011 a mené à l'introduction d'un nouvel échantillon au début de l'année 2015. Cette publication est un ouvrage de référence sur les aspects méthodologiques de l'EPA, y compris la stratification, l'échantillonnage, la collecte, le traitement, la pondération, l'estimation, l'estimation de la variance et la qualité des données.

    Date de diffusion : 2017-12-21

  • Avis et consultations : 92-140-X2016001
    Description :

    Le Test du contenu du Programme du Recensement de 2016 a été mené du 2 mai au 30 juin 2014. Le Test avait comme objectifs d’évaluer les changements proposés au contenu du Programme du Recensement de 2016 et de mesurer l’impact de l’inclusion d’une question relative au numéro d’assurance sociale (NAS) sur la qualité des données.

    Ce test quantitatif à panel fractionné s’appuie sur un échantillon de 55 000 logements, répartis en 11 panels de 5 000 logements chacun : cinq panels étaient consacrés au Test du contenu alors que les six panels restants étaient voués au Test du NAS. Deux modèles de questionnaires de test ont été développés pour répondre aux objectifs : un modèle avec tous les changements proposés SANS la question du NAS et un modèle avec tous les changements proposés INCLUANT la question du NAS. Un troisième modèle de questionnaire, dit « de contrôle », et présentant le contenu de 2011 a aussi été élaboré. La population ciblée était celle des ménages vivant dans les logements privés des secteurs d’envoi par la poste dans l’une des dix provinces. Les modes de collecte au format papier et électronique ont également fait partie du Test.

    Le présent rapport présente les objectifs du Test, le design et une synthèse de l’analyse pour la détermination du contenu potentiel pour le Programme du Recensement de 2016. Les résultats de l’analyse des données du Test ne sont pas les seuls éléments qui ont permis de déterminer le contenu pour 2016. D’autres éléments ont aussi été considérés, tels que le fardeau de réponse, la comparaison au fil du temps et les besoins des utilisateurs.

    Date de diffusion : 2016-04-01

  • Enquêtes et programmes statistiques — Documentation : 62F0026M2005006
    Description :

    Dans ce rapport, on présente les indicateurs de qualité produits pour l'Enquête sur les dépenses des ménages de 2003. Ces indicateurs de qualité, tels que les coefficients de variation, les taux de non-réponse, les taux de glissement et les taux d'imputation, permettent aux utilisateurs d'interpréter les données.

    Date de diffusion : 2005-10-06

  • Enquêtes et programmes statistiques — Documentation : 15-002-M2001001
    Description :

    Dans ce document, on décrit les sources, les méthodes et les concepts utilisés par les Comptes canadiens de productivité et on les compare aux sources, aux méthodes et aux concepts américains.

    Date de diffusion : 2004-12-24

  • Avis et consultations : 13-605-X20020038512
    Description :

    À compter du 30 septembre 2002, les estimations du PIB mensuel par industrie s'appuieront sur la formule en chaîne Fisher. Ce changement s'appliquera aux données remontant jusqu'à janvier 1997 et jusqu'à janvier 1961 d'ici l'an prochain.

    Date de diffusion : 2002-09-30

  • Avis et consultations : 13-605-X20010018529
    Description :

    À partir du 31 mai 2001, les Comptes trimestriels des revenus et dépenses refléteront le changement : La formule en chaîne Fisher.

    Date de diffusion : 2001-05-31
Date de modification :