Recherche par mot-clé

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (468)

Tout (468) (0 à 10 de 468 résultats)

  • Microdonnées à grande diffusion : 89F0002X
    Description :

    La BD/MSPS est un modèle de microsimulation statique qui sert à l'analyse des interactions financières entre les gouvernements et les particuliers au Canada. Elle permet de calculer les impôts payés aux gouvernements et les transferts monétaires reçus de ceux-ci. Elle est formée d'une base de données, d'une série d'algorithmes et de modèles relatifs aux impôts et aux transferts, d'un logiciel d'analyse et de la documentation de l'utilisateur.

    Date de diffusion : 2019-06-14

  • 36-23-0001
    Description :

    Les modèles des entrées-sorties servent généralement à simuler l’incidence économique d’une dépense sur un panier donné de biens et de services ou la production d’une ou de plusieurs industries. Les résultats de la simulation obtenus par suite d’un « choc » subi par de tels modèles montreront les effets directs, indirects et induits de ce choc sur le produit intérieur brut (PIB), les industries qui en tirent le plus d’avantages, le nombre d’emplois créés, les estimations des impôts indirects et des subventions accordées, etc. Le modèle comprend également des estimations des répercussions sur l’utilisation de l’énergie (en térajoules) et sur les émissions de gaz à effet de serre (équivalent de dioxyde de carbone, en kilotonnes). Des modèles des prix des entrées et sorties, des modèles de l’énergie et des modèles fiscaux peuvent également être fournis selon la disponibilité des ressources. Pour obtenir plus de renseignements, demandez un exemplaire du Guide d’utilisation du modèle d’entrées-sorties, qui est accessible sur demande.

    Date de diffusion : 2019-05-01

  • 36-23-0002
    Description :

    Les modèles des entrées-sorties servent généralement à simuler l’incidence économique d’une dépense sur un panier donné de biens et de services ou la production d’une ou de plusieurs industries. Les résultats de la simulation obtenus par suite d’un « choc » subi par de tels modèles montreront les effets directs, indirects et induits de ce choc sur le produit intérieur brut (PIB), les industries qui en tirent le plus d’avantages, le nombre d’emplois créés, les estimations des impôts indirects et des subventions accordées, etc. Le modèle comprend également une estimation des répercussions sur le flux du commerce interprovincial. Des modèles des prix des entrées et sorties, des modèles de l’énergie et des modèles fiscaux peuvent également être fournis selon la disponibilité des ressources. Pour obtenir plus de renseignements, demandez un exemplaire du Guide d’utilisation du modèle d’entrées-sorties, qui est accessible sur demande.

    Date de diffusion : 2019-05-01

  • Enquêtes et programmes statistiques — Documentation : 15F0004X
    Description :

    On utilise généralement les modèles des entrées-sorties pour simuler l'incidence économique, d'une dépense sur un panier donné de biens et de services ou sur la production d'une ou de plusieurs industries. Les résultats de la simulation obtenus par suite d'un « choc » subi par un modèle d'entrées-sorties montreront les effets directs, indirects et induits de ce choc sur le PIB, les industries qui en tirent le plus d'avantages, le nombre d'emplois créés, les estimations brutes des impôts indirects et des subventions accordées, etc. Pour de plus amples renseignements, consultez le Guide d'utilisation du modèle d'entrées-sorties, qui est gratuit et disponible sur demande.

    À diverses occasions, des clients ont demandé s'ils pouvaient utiliser les modèles des prix des entrées-sorties ou de l'énergie, des modèles fiscaux ou des modèles de marchés. Sous réserve de leur disponibilité, des arrangements peuvent être pris pour l'utilisation de ces modèles sur demande.

    Le modèle d’entrées-sorties national n’était pas diffusé en 2015 ou 2016.

    Date de diffusion : 2019-04-04

  • Enquêtes et programmes statistiques — Documentation : 15F0009X
    Description :

    On utilise généralement les modèles des entrées-sorties pour simuler l'incidence économique, d'une dépense sur un panier donné de biens et de services ou sur la production d'une ou de plusieurs industries. Les résultats de la simulation obtenus par suite d'un « choc » subi par un modèle d'entrées-sorties montreront les effets directs, indirects et induits de ce choc sur le PIB, les industries qui en tirent le plus d'avantages, le nombre d'emplois créés, les estimations brutes des impôts indirects et des subventions accordées, etc. Pour de plus amples renseignements, consultez le Guide d'utilisation du modèle d'entrées-sorties, qui est gratuit et disponible sur demande.

    À diverses occasions, des clients ont demandé s'ils pouvaient utiliser les modèles des prix des entrées-sorties ou de l'énergie, des modèles fiscaux ou des modèles de marchés. Sous réserve de leur disponibilité, des arrangements peuvent être pris pour l'utilisation de ces modèles sur demande.

    Le modèle d’entrées-sorties interprovincial n’était pas diffusé en 2015 ou 2016.

    Date de diffusion : 2019-04-04

  • Articles et rapports : 12-001-X201800154928
    Description :

    Un processus à deux phases a été utilisé par la Substance Abuse and Mental Health Services Administration pour estimer la proportion d’Américains adultes atteints d’une maladie mentale grave (MMG). La première phase correspondait à la National Survey on Drug Use and Health (NSDUH) réalisée annuellement, tandis que la seconde phase consistait en un sous-échantillon aléatoire d’adultes ayant répondu à la NSDUH. Les personnes qui ont répondu à la deuxième phase d’échantillonnage ont été soumises à une évaluation clinique visant à déceler les maladies mentales graves. Un modèle de prédiction logistique a été ajusté à ce sous-échantillon en prenant la situation de MMG (oui ou non) déterminée au moyen de l’instrument de deuxième phase comme variable dépendante, et les variables connexes recueillies dans la NSDUH auprès de tous les adultes comme variables explicatives du modèle. Des estimations de la prévalence de la MMG chez l’ensemble des adultes et au sein de sous-populations d’adultes ont ensuite été calculées en attribuant à chaque participant à la NSDUH une situation de MMG établie en comparant sa probabilité estimée d’avoir une MMG avec un seuil diagnostique choisi sur la distribution des probabilités prédites. Nous étudions d’autres options que cet estimateur par seuil diagnostique classique, dont l’estimateur par probabilité. Ce dernier attribue une probabilité estimée d’avoir une MMG à chaque participant à la NSDUH. La prévalence estimée de la MMG est la moyenne pondérée de ces probabilités estimées. Au moyen des données de la NSDUH et de son sous-échantillon, nous montrons que, même si l’estimateur par probabilité donne une plus petite erreur quadratique moyenne quand on estime la prévalence de la MMG parmi l’ensemble des adultes, il a une plus grande tendance que l’estimateur par seuil diagnostique classique à présenter un biais au niveau de la sous-population.

    Date de diffusion : 2018-06-21

  • Articles et rapports : 12-001-X201800154963
    Description :

    Le cadre fondé sur l’échantillonnage probabiliste a joué un rôle dominant en recherche par sondage, parce qu’il fournit des outils mathématiques précis pour évaluer la variabilité d’échantillonnage. Toutefois, en raison de la hausse des coûts et de la baisse des taux de réponse, l’usage d’échantillons non probabilistes s’accroît, particulièrement dans le cas de populations générales, pour lesquelles le tirage d’échantillons à partir d’enquêtes en ligne devient de plus en plus économique et facile. Cependant, les échantillons non probabilistes posent un risque de biais de sélection dû à des différences d’accès et de degrés d’intérêt, ainsi qu’à d’autres facteurs. Le calage sur des totaux statistiques connus dans la population offre un moyen de réduire éventuellement l’effet du biais de sélection dans les échantillons non probabilistes. Ici, nous montrons que le calage assisté par un modèle en utilisant le LASSO adaptatif peut donner un estimateur convergent d’un total de population à condition qu’un sous-ensemble des variables explicatives réelles soit inclus dans le modèle de prédiction, permettant ainsi qu’un grand nombre de covariables possibles soit incluses sans risque de surajustement. Nous montrons que le calage assisté par un modèle en utilisant le LASSO adaptatif produit une meilleure estimation, pour ce qui est de l’erreur quadratique moyenne, que les méthodes concurrentes classiques, tels les estimateurs par la régression généralisée (GREG), quand un grand nombre de covariables sont nécessaires pour déterminer le modèle réel, sans vraiment qu’il y ait perte d’efficacité par rapport à la méthode GREG quand de plus petits modèles suffisent. Nous obtenons aussi des formules analytiques pour les estimateurs de variance des totaux de population, et comparons le comportement de ces estimateurs aux estimateurs bootstrap. Nous concluons par un exemple réel en utilisant des données provenant de la National Health Interview Survey.

    Date de diffusion : 2018-06-21

  • Enquêtes et programmes statistiques — Documentation : 71-526-X
    Description :

    L'Enquête sur la population active du Canada (EPA) est la source officielle d'estimations mensuelles de l'emploi total et du chômage. Suite au recensement de 2011, l'EPA a connu un remaniement pour tenir compte de l’évolution des caractéristiques de la population et du marché du travail, pour s’adapter aux besoins actuels et prévus des utilisateurs de données et pour mettre à jour l’information géographique requise pour mener l’enquête. Le programme de remaniement qui a suivi le recensement de 2011 a mené à l'introduction d'un nouvel échantillon au début de l'année 2015. Cette publication est un ouvrage de référence sur les aspects méthodologiques de l'EPA, y compris la stratification, l'échantillonnage, la collecte, le traitement, la pondération, l'estimation, l'estimation de la variance et la qualité des données.

    Date de diffusion : 2017-12-21

  • Articles et rapports : 11-633-X2017008
    Description :

    La plateforme de modélisation de microsimulation DYSEM propose un noyau de données démographiques et socioéconomiques qu’on peut utiliser avec facilité pour créer des modèles ou des applications de microsimulation dynamiques personnalisés. Le présent document décrit la plateforme DYSEM et donne un aperçu de ses usages prévus ainsi que des méthodes et données utilisées pour sa conception.

    Date de diffusion : 2017-07-28

  • Articles et rapports : 13-604-M2017083
    Description :

    Statistique Canada publie régulièrement des indicateurs macroéconomiques sur les actifs, les passifs et la valeur nette des ménages dans le cadre des comptes du bilan national (CBN) trimestriels. Ces comptes correspondent aux plus récentes normes internationales et constituent la source des estimations du patrimoine national pour tous les secteurs de l’économie, y compris les ménages, les institutions sans but lucratif, les administrations publiques et les sociétés, de même que la position du Canada en matière de richesse par rapport au reste du monde. Bien que les CBN fournissent des renseignements de grande qualité sur la position globale des ménages relativement aux autres secteurs économiques, ils ne possèdent pas la granularité requise pour comprendre les vulnérabilités de certains groupes particuliers et les conséquences qui en résultent sur le plan du bien-être économique et de la stabilité financière.

    Date de diffusion : 2017-03-15
Données (4)

Données (4) ((4 résultats))

  • Microdonnées à grande diffusion : 89F0002X
    Description :

    La BD/MSPS est un modèle de microsimulation statique qui sert à l'analyse des interactions financières entre les gouvernements et les particuliers au Canada. Elle permet de calculer les impôts payés aux gouvernements et les transferts monétaires reçus de ceux-ci. Elle est formée d'une base de données, d'une série d'algorithmes et de modèles relatifs aux impôts et aux transferts, d'un logiciel d'analyse et de la documentation de l'utilisateur.

    Date de diffusion : 2019-06-14

  • Microdonnées à grande diffusion : 81M0011X
    Description :

    Cette enquête vise à déterminer dans quelle mesure les personnes ayant obtenu leur diplôme d'études postsecondaires ont réussi à se trouver un emploi par la suite, le lien entre le programme d'études du diplômé et son emploi subséquent, la satisfaction des diplômés à l'égard de leur emploi et de leurs perspectives de carrière, les taux de sous-emploi et de chômage, le type d'emploi obtenu par rapport aux possibilités de carrière et aux qualifications exigées, et l'incidence des études postsecondaires sur la réussite professionnelle. Cette information vise les responsables de l'élaboration de politiques, les chercheurs, les éducateurs, les employeurs et les jeunes adultes intéressés à l'éducation postsecondaire et à la transition de l'école au travail pour les diplômés des écoles de métiers et de la formation professionnelle, des collèges et des universités.

    Date de diffusion : 2015-01-12

  • Microdonnées à grande diffusion : 12M0014X
    Géographie : Province ou territoire
    Description :

    Ce rapport présente un bref aperçu de l'information recueillie dans le cycle 14 de l'Enquête sociale générale (ESG). Le cycle 14 est le premier cycle à avoir recueilli des renseignements détaillés sur l'accès aux technologies de l'information et des communications au Canada et leur utilisation. Les sujets abordés comprennent l'utilisation générale de la technologie et des ordinateurs, la technologie en milieu de travail, le développement des compétences en informatique, la fréquence de l'utilisation d'Internet et du courriel, ainsi que les non-utilisateurs et la sécurité et l'information sur Internet. La population cible de l'ESG se composait de toutes les personnes de 15 ans et plus vivant dans un ménage privé dans l'une des dix provinces.

    Date de diffusion : 2001-06-29

  • Microdonnées à grande diffusion : 82M0009X
    Description :

    On utilise la base de sondage de l'Enquête sur la population active afin de tirer un échantillon pour l'Enquête nationale sur la santé de la population (ENSP). En 1994, environ 20 000 ménages ont sélectionnés et pour ce troisième cycle, un échantillon additionnel a été constitué de la même façon. L'enquête est conduite tous les deux ans. L'échantillon est distribué entre quatre périodes trimestrielles de collecte pour une durée totale d'un an.

    Dans chacun des ménages, certains renseignements sommaires sont réunis auprès de tous les membres du ménage puis un membre du ménage choisi au hasard répond en plus à une interview en profondeur. Le premier cycle de collecte de données a commencé en 1994 et se poursuit tous les deux ans. L'enquête procure des données transversales et longitudinales. Les questionnaires portent sur l'état de santé, l'utilisation des services de santé, les déterminants de la santé, l'indice de l'état de santé, les affections chroniques et les restrictions d'activités. L'utilisation des services de santé est évaluée les visites aux prestateurs de soins de santé, traditionnels et non traditionnels, et de questions sur les médicaments et drogues. Parmi les déterminants de la santé, on retrouve l'usage du tabac, la consommation d'alcool et l'activité physique. On insistera plus particulièrement, pour ce troisième cycle de l'enquête sur les antécédents médicaaux familiaux, certaines affections chroniques dans la famille immédiate à un moment donné et les soins personnels. Les renseignements démographiques et économiques comprennent l'âge, le sexe, la scolarité, l'origine ethnique, le revenu du ménage et la situation au niveau du travail.

    Date de diffusion : 2000-12-19
Analyses (414)

Analyses (414) (0 à 10 de 414 résultats)

  • Articles et rapports : 12-001-X201800154928
    Description :

    Un processus à deux phases a été utilisé par la Substance Abuse and Mental Health Services Administration pour estimer la proportion d’Américains adultes atteints d’une maladie mentale grave (MMG). La première phase correspondait à la National Survey on Drug Use and Health (NSDUH) réalisée annuellement, tandis que la seconde phase consistait en un sous-échantillon aléatoire d’adultes ayant répondu à la NSDUH. Les personnes qui ont répondu à la deuxième phase d’échantillonnage ont été soumises à une évaluation clinique visant à déceler les maladies mentales graves. Un modèle de prédiction logistique a été ajusté à ce sous-échantillon en prenant la situation de MMG (oui ou non) déterminée au moyen de l’instrument de deuxième phase comme variable dépendante, et les variables connexes recueillies dans la NSDUH auprès de tous les adultes comme variables explicatives du modèle. Des estimations de la prévalence de la MMG chez l’ensemble des adultes et au sein de sous-populations d’adultes ont ensuite été calculées en attribuant à chaque participant à la NSDUH une situation de MMG établie en comparant sa probabilité estimée d’avoir une MMG avec un seuil diagnostique choisi sur la distribution des probabilités prédites. Nous étudions d’autres options que cet estimateur par seuil diagnostique classique, dont l’estimateur par probabilité. Ce dernier attribue une probabilité estimée d’avoir une MMG à chaque participant à la NSDUH. La prévalence estimée de la MMG est la moyenne pondérée de ces probabilités estimées. Au moyen des données de la NSDUH et de son sous-échantillon, nous montrons que, même si l’estimateur par probabilité donne une plus petite erreur quadratique moyenne quand on estime la prévalence de la MMG parmi l’ensemble des adultes, il a une plus grande tendance que l’estimateur par seuil diagnostique classique à présenter un biais au niveau de la sous-population.

    Date de diffusion : 2018-06-21

  • Articles et rapports : 12-001-X201800154963
    Description :

    Le cadre fondé sur l’échantillonnage probabiliste a joué un rôle dominant en recherche par sondage, parce qu’il fournit des outils mathématiques précis pour évaluer la variabilité d’échantillonnage. Toutefois, en raison de la hausse des coûts et de la baisse des taux de réponse, l’usage d’échantillons non probabilistes s’accroît, particulièrement dans le cas de populations générales, pour lesquelles le tirage d’échantillons à partir d’enquêtes en ligne devient de plus en plus économique et facile. Cependant, les échantillons non probabilistes posent un risque de biais de sélection dû à des différences d’accès et de degrés d’intérêt, ainsi qu’à d’autres facteurs. Le calage sur des totaux statistiques connus dans la population offre un moyen de réduire éventuellement l’effet du biais de sélection dans les échantillons non probabilistes. Ici, nous montrons que le calage assisté par un modèle en utilisant le LASSO adaptatif peut donner un estimateur convergent d’un total de population à condition qu’un sous-ensemble des variables explicatives réelles soit inclus dans le modèle de prédiction, permettant ainsi qu’un grand nombre de covariables possibles soit incluses sans risque de surajustement. Nous montrons que le calage assisté par un modèle en utilisant le LASSO adaptatif produit une meilleure estimation, pour ce qui est de l’erreur quadratique moyenne, que les méthodes concurrentes classiques, tels les estimateurs par la régression généralisée (GREG), quand un grand nombre de covariables sont nécessaires pour déterminer le modèle réel, sans vraiment qu’il y ait perte d’efficacité par rapport à la méthode GREG quand de plus petits modèles suffisent. Nous obtenons aussi des formules analytiques pour les estimateurs de variance des totaux de population, et comparons le comportement de ces estimateurs aux estimateurs bootstrap. Nous concluons par un exemple réel en utilisant des données provenant de la National Health Interview Survey.

    Date de diffusion : 2018-06-21

  • Articles et rapports : 11-633-X2017008
    Description :

    La plateforme de modélisation de microsimulation DYSEM propose un noyau de données démographiques et socioéconomiques qu’on peut utiliser avec facilité pour créer des modèles ou des applications de microsimulation dynamiques personnalisés. Le présent document décrit la plateforme DYSEM et donne un aperçu de ses usages prévus ainsi que des méthodes et données utilisées pour sa conception.

    Date de diffusion : 2017-07-28

  • Articles et rapports : 13-604-M2017083
    Description :

    Statistique Canada publie régulièrement des indicateurs macroéconomiques sur les actifs, les passifs et la valeur nette des ménages dans le cadre des comptes du bilan national (CBN) trimestriels. Ces comptes correspondent aux plus récentes normes internationales et constituent la source des estimations du patrimoine national pour tous les secteurs de l’économie, y compris les ménages, les institutions sans but lucratif, les administrations publiques et les sociétés, de même que la position du Canada en matière de richesse par rapport au reste du monde. Bien que les CBN fournissent des renseignements de grande qualité sur la position globale des ménages relativement aux autres secteurs économiques, ils ne possèdent pas la granularité requise pour comprendre les vulnérabilités de certains groupes particuliers et les conséquences qui en résultent sur le plan du bien-être économique et de la stabilité financière.

    Date de diffusion : 2017-03-15

  • Revues et périodiques : 91-621-X
    Description :

    Ce document décrit succinctement le fonctionnement général ainsi que les méthodes et sources de données du modèle de projections démographiques par microsimulation Demosim. Il constitue un complément méthodologique aux produits analytiques issus de Demosim.

    Date de diffusion : 2017-01-25

  • Articles et rapports : 12-001-X201600114538
    Description :

    La vérification automatique consiste en l’utilisation d’un ordinateur pour déceler et corriger sans intervention humaine les valeurs erronées dans un ensemble de données. La plupart des méthodes de vérification automatique actuellement employées aux fins de la statistique officielle sont fondées sur les travaux fondamentaux de Fellegi et Holt (1976). La mise en application de cette méthode dans la pratique révèle des différences systématiques entre les données vérifiées manuellement et celles qui sont vérifiées de façon automatisée, car l’humain est en mesure d’effectuer des opérations de vérification complexes. L’auteur du présent article propose une généralisation du paradigme de Fellegi-Holt qui permet d’intégrer de façon naturelle une grande catégorie d’opérations de vérification. Il présente aussi un algorithme qui résout le problème généralisé de localisation des erreurs qui en découle. Il est à espérer que cette généralisation puisse améliorer la pertinence des vérifications automatiques dans la pratique et ainsi accroître l’efficience des processus de vérification des données. Certains des premiers résultats obtenus à l’aide de données synthétiques sont prometteurs à cet égard.

    Date de diffusion : 2016-06-22

  • Articles et rapports : 12-001-X201600114539
    Description :

    L’appariement statistique est une technique permettant d’intégrer deux ou plusieurs ensembles de données lorsque les renseignements nécessaires pour apparier les enregistrements des participants individuels dans les ensembles de données sont incomplets. On peut considérer l’appariement statistique comme un problème de données manquantes en vertu duquel on souhaite effectuer une analyse conjointe de variables qui ne sont jamais observées ensemble. On utilise souvent une hypothèse d’indépendance conditionnelle pour créer des données imputées aux fins d’appariement statistique. Nous examinons une approche générale de l’appariement statistique faisant appel à l’imputation fractionnaire paramétrique de Kim (2011) pour créer des données imputées en vertu de l’hypothèse que le modèle spécifié est entièrement identifié. La méthode proposée ne produit pas une séquence EM convergente si le modèle n’est pas identifié. Nous présentons aussi des estimateurs de variance convenant à la procédure d’imputation. Nous expliquons comment la méthode s’applique directement à l’analyse des données obtenues à partir de plans de sondage à questionnaire scindé et aux modèles d’erreur de mesure.

    Date de diffusion : 2016-06-22

  • Articles et rapports : 12-001-X201600114540
    Description :

    Les auteurs comparent les estimateurs EBLUP et pseudo EBLUP pour l’estimation sur petits domaines en vertu d’un modèle de régression à erreur emboîtée, ainsi que trois autres estimateurs fondés sur un modèle au niveau du domaine à l’aide du modèle de Fay Herriot. Ils réalisent une étude par simulations fondée sur un plan de sondage pour comparer les estimateurs fondés sur un modèle pour des modèles au niveau de l’unité et au niveau du domaine sous un échantillonnage informatif et non informatif. Ils s’intéressent particulièrement aux taux de couverture des intervalles de confiance des estimateurs au niveau de l’unité et au niveau du domaine. Les auteurs comparent aussi les estimateurs sous un modèle dont la spécification est inexacte. Les résultats de la simulation montrent que les estimateurs au niveau de l’unité sont plus efficaces que les estimateurs au niveau du domaine. L’estimateur pseudo EBLUP donne les meilleurs résultats à la fois au niveau de l’unité et au niveau du domaine.

    Date de diffusion : 2016-06-22

  • Articles et rapports : 12-001-X201600114541
    Description :

    Le présent travail a pour objet de comparer des estimateurs non paramétriques pour des fonctions de répartition de populations finies fondés sur deux types de valeurs prédites, à savoir celles données par l’estimateur bien connu de Kuo et une version modifiée de ces dernières, qui intègre une estimation non paramétrique de la fonction de régression à la moyenne. Pour chaque type de valeurs prédites, nous considérons l’estimateur fondé sur un modèle correspondant et, après incorporation des poids de sondage, l’estimateur par la différence généralisée. Nous montrons sous des conditions assez générales que le terme principal de l’erreur quadratique moyenne sous le modèle n’est pas affecté par la modification des valeurs prédites, même si cette modification réduit la vitesse de convergence pour le biais sous le modèle. Les termes d’ordre deux des erreurs quadratiques moyennes sous le modèle sont difficiles à obtenir et ne seront pas calculés dans le présent article. La question est de savoir si les valeurs prédites modifiées offrent un certain avantage du point de vue de l’approche fondée sur un modèle. Nous examinons aussi les propriétés des estimateurs sous le plan de sondage et proposons pour l’estimateur par la différence généralisée un estimateur de variance fondé sur les valeurs prédites modifiées. Enfin, nous effectuons une étude en simulation. Les résultats des simulations laissent entendre que les valeurs prédites modifiées entraînent

    Date de diffusion : 2016-06-22

  • Articles et rapports : 12-001-X201600114542
    Description :

    La méthode du maximum de vraisemblance restreint (méthode REML pour restricted maximum likelihood) est généralement utilisée pour estimer la variance de l’effet aléatoire de domaine sous le modèle de Fay-Herriot (Fay et Herriot 1979) afin d’obtenir le meilleur estimateur linéaire sans biais empirique (estimateur EBLUP pour empirical best linear unbiased predictor) d’une moyenne de petit domaine. Lorsque l’estimation REML correspond à zéro, le poids de l’estimateur d’échantillon direct est zéro et l’EBLUP devient un estimateur synthétique, ce qui est rarement souhaitable. Pour résoudre le problème, Li et Lahiri (2011) et Yoshimori et Lahiri (2014) ont élaboré des estimateurs de variance constante par la méthode du maximum de vraisemblance ajusté (méthode ADM pour adjusted maximum likelihood), qui produisent toujours des estimations de variance positives. Certains des estimateurs ADM produisent toujours des estimations positives, mais génèrent un biais élevé, ce qui influe sur l’estimation de l’erreur quadratique moyenne (EQM) de l’estimateur EBLUP. Nous proposons d’utiliser un estimateur de variance MIX, défini comme étant une combinaison des méthodes REML et ADM. Nous montrons que cet estimateur est sans biais jusqu’à l’ordre deux et qu’il produit toujours une estimation de variance positive. Nous proposons également un estimateur de l’EQM sous la méthode MIX et montrons au moyen d’une simulation fondée sur un modèle que, dans de nombreuses situations, cet estimateur donne de meilleurs résultats que d’autres estimateurs de l’EQM par « linéarisation de Taylor » récemment proposés.

    Date de diffusion : 2016-06-22
Références (77)

Références (77) (0 à 10 de 77 résultats)

  • Enquêtes et programmes statistiques — Documentation : 15F0004X
    Description :

    On utilise généralement les modèles des entrées-sorties pour simuler l'incidence économique, d'une dépense sur un panier donné de biens et de services ou sur la production d'une ou de plusieurs industries. Les résultats de la simulation obtenus par suite d'un « choc » subi par un modèle d'entrées-sorties montreront les effets directs, indirects et induits de ce choc sur le PIB, les industries qui en tirent le plus d'avantages, le nombre d'emplois créés, les estimations brutes des impôts indirects et des subventions accordées, etc. Pour de plus amples renseignements, consultez le Guide d'utilisation du modèle d'entrées-sorties, qui est gratuit et disponible sur demande.

    À diverses occasions, des clients ont demandé s'ils pouvaient utiliser les modèles des prix des entrées-sorties ou de l'énergie, des modèles fiscaux ou des modèles de marchés. Sous réserve de leur disponibilité, des arrangements peuvent être pris pour l'utilisation de ces modèles sur demande.

    Le modèle d’entrées-sorties national n’était pas diffusé en 2015 ou 2016.

    Date de diffusion : 2019-04-04

  • Enquêtes et programmes statistiques — Documentation : 15F0009X
    Description :

    On utilise généralement les modèles des entrées-sorties pour simuler l'incidence économique, d'une dépense sur un panier donné de biens et de services ou sur la production d'une ou de plusieurs industries. Les résultats de la simulation obtenus par suite d'un « choc » subi par un modèle d'entrées-sorties montreront les effets directs, indirects et induits de ce choc sur le PIB, les industries qui en tirent le plus d'avantages, le nombre d'emplois créés, les estimations brutes des impôts indirects et des subventions accordées, etc. Pour de plus amples renseignements, consultez le Guide d'utilisation du modèle d'entrées-sorties, qui est gratuit et disponible sur demande.

    À diverses occasions, des clients ont demandé s'ils pouvaient utiliser les modèles des prix des entrées-sorties ou de l'énergie, des modèles fiscaux ou des modèles de marchés. Sous réserve de leur disponibilité, des arrangements peuvent être pris pour l'utilisation de ces modèles sur demande.

    Le modèle d’entrées-sorties interprovincial n’était pas diffusé en 2015 ou 2016.

    Date de diffusion : 2019-04-04

  • Enquêtes et programmes statistiques — Documentation : 71-526-X
    Description :

    L'Enquête sur la population active du Canada (EPA) est la source officielle d'estimations mensuelles de l'emploi total et du chômage. Suite au recensement de 2011, l'EPA a connu un remaniement pour tenir compte de l’évolution des caractéristiques de la population et du marché du travail, pour s’adapter aux besoins actuels et prévus des utilisateurs de données et pour mettre à jour l’information géographique requise pour mener l’enquête. Le programme de remaniement qui a suivi le recensement de 2011 a mené à l'introduction d'un nouvel échantillon au début de l'année 2015. Cette publication est un ouvrage de référence sur les aspects méthodologiques de l'EPA, y compris la stratification, l'échantillonnage, la collecte, le traitement, la pondération, l'estimation, l'estimation de la variance et la qualité des données.

    Date de diffusion : 2017-12-21

  • Avis et consultations : 92-140-X2016001
    Description :

    Le Test du contenu du Programme du Recensement de 2016 a été mené du 2 mai au 30 juin 2014. Le Test avait comme objectifs d’évaluer les changements proposés au contenu du Programme du Recensement de 2016 et de mesurer l’impact de l’inclusion d’une question relative au numéro d’assurance sociale (NAS) sur la qualité des données.

    Ce test quantitatif à panel fractionné s’appuie sur un échantillon de 55 000 logements, répartis en 11 panels de 5 000 logements chacun : cinq panels étaient consacrés au Test du contenu alors que les six panels restants étaient voués au Test du NAS. Deux modèles de questionnaires de test ont été développés pour répondre aux objectifs : un modèle avec tous les changements proposés SANS la question du NAS et un modèle avec tous les changements proposés INCLUANT la question du NAS. Un troisième modèle de questionnaire, dit « de contrôle », et présentant le contenu de 2011 a aussi été élaboré. La population ciblée était celle des ménages vivant dans les logements privés des secteurs d’envoi par la poste dans l’une des dix provinces. Les modes de collecte au format papier et électronique ont également fait partie du Test.

    Le présent rapport présente les objectifs du Test, le design et une synthèse de l’analyse pour la détermination du contenu potentiel pour le Programme du Recensement de 2016. Les résultats de l’analyse des données du Test ne sont pas les seuls éléments qui ont permis de déterminer le contenu pour 2016. D’autres éléments ont aussi été considérés, tels que le fardeau de réponse, la comparaison au fil du temps et les besoins des utilisateurs.

    Date de diffusion : 2016-04-01

  • Enquêtes et programmes statistiques — Documentation : 12-001-X201400114002
    Description :

    Nous proposons une approche d’imputation multiple des réponses manquant aléatoirement dans les enquêtes à grande échelle qui ne portent que sur des variables catégoriques présentant des zéros structurels. Notre approche consiste à utiliser des mélanges de lois multinomiales comme outils d’imputation et à tenir compte des zéros structurels en concevant les données observées comme un échantillon tronqué issu d’une population hypothétique ne contenant pas de zéros structurels. Cette approche possède plusieurs caractéristiques intéressantes : les imputations sont générées à partir de modèles bayésiens conjoints cohérents qui tiennent compte automatiquement des dépendances complexes et s’adaptent facilement à de grands nombres de variables. Nous décrivons un algorithme d’échantillonnage de Gibbs pour mettre en œuvre l’approche et illustrons son potentiel au moyen d’une étude par échantillonnage répété en utilisant des microdonnées de recensement à grande diffusion provenant de l’État de New York, aux États Unis.

    Date de diffusion : 2014-06-27

  • Enquêtes et programmes statistiques — Documentation : 12-001-X201300211887
    Description :

    Les modèles multiniveaux sont d'usage très répandu pour analyser les données d'enquête en faisant concorder la hiérarchie du plan de sondage avec la hiérarchie du modèle. Nous proposons une approche unifiée, basée sur une log-vraisemblance composite pondérée par les poids de sondage pour des modèles à deux niveaux, qui mène à des estimateurs des paramètres du modèle convergents sous le plan et sous le modèle, même si les tailles d'échantillon dans les grappes sont petites, à condition que le nombre de grappes échantillonnées soit grand. Cette méthode permet de traiter les modèles à deux niveaux linéaires ainsi que linéaires généralisés et requiert les probabilités d'inclusion de niveau 2 et de niveau 1, ainsi que les probabilités d'inclusion conjointe de niveau 1, où le niveau 2 représente une grappe et le niveau 1, un élément dans une grappe. Nous présentons aussi les résultats d'une étude en simulation qui donnent la preuve que la méthode proposée est supérieure aux méthodes existantes sous échantillonnage informatif.

    Date de diffusion : 2014-01-15

  • Enquêtes et programmes statistiques — Documentation : 12-001-X201200211755
    Description :

    La question de la non-réponse dans les études longitudinales est abordée en évaluant l'exactitude des modèles de propension à répondre construits pour distinguer et prédire les divers types de non-réponse. Une attention particulière est accordée aux mesures sommaires dérivées des courbes de la fonction d'efficacité du receveur, ou courbes ROC (de l'anglais receiver operating characteristics), ainsi que des courbes de type logit sur rangs. Les concepts sont appliqués à des données provenant de la Millennium Cohort Study du Royaume-Uni. Selon les résultats, la capacité de faire la distinction entre les divers types de non-répondants et de les prévoir n'est pas grande. Les poids produits au moyen des modèles de propension à répondre ne donnent lieu qu'à de faibles corrections des transitions entre situations d'emploi. Des conclusions sont tirées quant aux possibilités d'intervention en vue de prévenir la non-réponse.

    Date de diffusion : 2012-12-19

  • Enquêtes et programmes statistiques — Documentation : 12-539-X
    Description :

    Ce document réunit des lignes directrices et des listes de contrôles liées à de nombreuses questions dont on doit tenir compte dans la poursuite des objectifs de qualité que sous-tend l'exécution des activités statistiques. Le document s'attarde principalement à la façon d'assurer la qualité grâce à la conception ou à la restructuration efficace et adéquate d'un projet ou d'un programme statistique, des débuts jusqu'à l'évaluation, la diffusion et la documentation des données. Ces lignes directrices sont fondées sur les connaissances et l'expérience collective d'un grand nombre d'employés de Statistique Canada. On espère que les Lignes directrices concernant la qualité seront utiles au personnel chargé de la planification et de la conception des enquêtes et d'autres projets statistiques, ainsi qu'à ceux qui évaluent et analysent les résultats de ces projets.

    Date de diffusion : 2009-10-05

  • Enquêtes et programmes statistiques — Documentation : 12-001-X200900110882
    Description :

    Le recours à la méthode bootstrap est de plus en plus répandu dans le contexte des enquêtes par sondage réalisées par les organismes statistiques nationaux. Dans la plupart des applications, plusieurs ensembles de poids bootstrap sont fournis aux analystes avec le fichier de microdonnées d'enquête. Jusqu'à présent, l'utilisation de la méthode en pratique semble avoir été limitée principalement aux problèmes d'estimation de la variance. Dans le présent article, nous proposons une méthode bootstrap pour les tests d'hypothèses au sujet d'un vecteur de paramètres inconnus d'un modèle quand l'échantillon a été tiré d'une population finie. Le plan d'échantillonnage probabiliste utilisé pour sélectionner l'échantillon peut être informatif ou non. Notre méthode s'appuie sur des statistiques de test fondées sur un modèle dans lesquelles sont intégrés les poids de sondage. Ces statistiques sont habituellement faciles à calculer en se servant de progiciels statistiques classiques. Nous approximons la distribution sous l'hypothèse nulle de ces statistiques pondérées fondées sur un modèle en utilisant des poids bootstrap. L'un des avantages de notre méthode bootstrap par rapport aux méthodes existantes de test d'hypothèses à partir des données d'enquête est qu'après avoir reçu les ensembles de poids bootstrap, les analystes peuvent l'appliquer très facilement, même s'ils ne disposent pas de logiciels spécialisés pour le traitement des données d'enquêtes complexes. En outre, nos résultats de simulation laissent entendre que, dans l'ensemble, la méthode donne des résultats comparables à ceux de la méthode de Rao Scott et meilleurs que ceux des méthodes de Wald et de Bonferroni quand on teste des hypothèses au sujet d'un vecteur de paramètres d'un modèle de régression linéaire.

    Date de diffusion : 2009-06-22

  • Enquêtes et programmes statistiques — Documentation : 12-001-X200800210757
    Description :

    Les poids d'échantillonnage peuvent être calés de manière à refléter les totaux connus de population d'un ensemble de variables auxiliaires. Le biais des prédicteurs des totaux de population finie calculés en utilisant ces poids est faible si ces variables sont reliées à la variable d'intérêt, mais leur variance peut être élevée si l'on utilise un trop grand nombre de variables auxiliaires. Dans le présent article, nous élaborons une approche de « calage adaptatif » où les variables auxiliaires qu'il convient d'utiliser dans la pondération sont sélectionnées en se servant de données d'échantillon. Nous montrons que, dans de nombreux cas, les estimateurs calés adaptativement ont une erreur quadratique moyenne plus faible et de meilleures propriétés de couverture que les estimateurs non adaptatifs.

    Date de diffusion : 2008-12-23
Date de modification :