Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (901)

Tout (901) (0 à 10 de 901 résultats)

  • Revues et périodiques : 12-001-X
    Géographie : Canada
    Description : La revue publie des articles sur les divers aspects des méthodes statistiques qui intéressent un organisme statistique comme, par exemple, les problèmes de conception découlant de contraintes d'ordre pratique, l'utilisation de différentes sources de données et de méthodes de collecte, les erreurs dans les enquêtes, l'évaluation des enquêtes, la recherche sur les méthodes d'enquêtes, l'analyse des séries chronologiques, la désaisonnalisation, les études démographiques, l'intégration des données statistiques, les méthodes d'estimation et d'analyse de données et le développement de systèmes généralisés. Une importance particulière est accordée à l'élaboration et à l'évaluation de méthodes qui ont été utilisées pour la collecte de données ou appliquées à des données réelles.
    Date de diffusion : 2024-06-25

  • Articles et rapports : 12-001-X202400100001
    Description : Inspirés par les deux excellentes discussions de notre article, nous offrons un regard nouveau et présentons de nouvelles avancées sur le problème de l’estimation des probabilités de participation pour des échantillons non probabilistes. Tout d’abord, nous proposons une amélioration de la méthode de Chen, Li et Wu (2020), fondée sur la théorie de la meilleure estimation linéaire sans biais, qui tire plus efficacement parti des données disponibles des échantillons probabiliste et non probabiliste. De plus, nous élaborons une méthode de vraisemblance de l’échantillon, dont l’idée est semblable à la méthode d’Elliott (2009), qui tient adéquatement compte du chevauchement entre les deux échantillons quand il est possible de l’identifier dans au moins un des échantillons. Nous utilisons la théorie de la meilleure prédiction linéaire sans biais pour traiter le scénario où le chevauchement est inconnu. Il est intéressant de constater que les deux méthodes que nous proposons coïncident quand le chevauchement est inconnu. Ensuite, nous montrons que de nombreuses méthodes existantes peuvent être obtenues comme cas particulier d’une fonction d’estimation sans biais générale. Enfin, nous concluons en formulant quelques commentaires sur l’estimation non paramétrique des probabilités de participation.
    Date de diffusion : 2024-06-25

  • Articles et rapports : 12-001-X202400100002
    Description : Nous proposons des comparaisons entre trois méthodes paramétriques d’estimation des probabilités de participation ainsi que de brefs commentaires à propos des groupes homogènes et de la poststratification.
    Date de diffusion : 2024-06-25

  • Articles et rapports : 12-001-X202400100003
    Description : Beaumont, Bosa, Brennan, Charlebois et Chu (2024) proposent des méthodes novatrices de sélection de modèles aux fins d’estimation des probabilités de participation pour des unités d’échantillonnage non probabiliste. Notre examen portera principalement sur le choix de la vraisemblance et du paramétrage du modèle, qui sont essentiels à l’efficacité des techniques proposées dans l’article. Nous examinons d’autres méthodes fondées sur la vraisemblance et la pseudo-vraisemblance pour estimer les probabilités de participation et nous présentons des simulations mettant en œuvre et comparant la sélection de variables fondée sur le critère d’information d’Akaike (AIC). Nous démontrons que, dans des scénarios pratiques importants, la méthode fondée sur une vraisemblance formulée sur les échantillons non probabiliste et probabiliste groupés qui sont observés offre un meilleur rendement que les autres solutions fondées sur la pseudo-vraisemblance. La différence de sensibilité du AIC est particulièrement grande en cas de petites tailles de l’échantillon probabiliste et de petit chevauchement dans les domaines de covariables.
    Date de diffusion : 2024-06-25

  • Articles et rapports : 12-001-X202400100004
    Description : Les organismes nationaux de statistique étudient de plus en plus la possibilité d’utiliser des échantillons non probabilistes comme solution de rechange aux échantillons probabilistes. Toutefois, il est bien connu que l’utilisation d’un échantillon non probabiliste seul peut produire des estimations présentant un biais important en raison de la nature inconnue du mécanisme de sélection sous-jacent. Il est possible de réduire le biais en intégrant les données de l’échantillon non probabiliste aux données d’un échantillon probabiliste, à condition que les deux échantillons contiennent des variables auxiliaires communes. Nous nous concentrons sur les méthodes de pondération par l’inverse de la probabilité, lesquelles consistent à modéliser la probabilité de participation à l’échantillon non probabiliste. Premièrement, nous examinons le modèle logistique ainsi que l’estimation par la méthode du pseudo maximum de vraisemblance. Nous proposons une procédure de sélection de variables en fonction d’un critère d’information d’Akaike (AIC) modifié qui tient compte de la structure des données et du plan d’échantillonnage probabiliste. Nous proposons également une méthode simple fondée sur le rang pour former des strates a posteriori homogènes. Ensuite, nous adaptons l’algorithme des arbres de classification et de régression (CART) à ce scénario d’intégration de données, tout en tenant compte, encore une fois, du plan d’échantillonnage probabiliste. Nous proposons un estimateur de la variance bootstrap qui tient compte de deux sources de variabilité : le plan d’échantillonnage probabiliste et le modèle de participation. Nos méthodes sont illustrées au moyen de données recueillies par approche participative et de données d’enquête de Statistique Canada.
    Date de diffusion : 2024-06-25

  • Articles et rapports : 12-001-X202400100005
    Description : Dans cette réplique, je réponds aux commentaires des participants à l’analyse, M. Takumi Saegusa, M. Jae-Kwang Kim et Mme Yonghyun Kwon. Les commentaires de M. Saegusa, qui portent sur les différences entre l’hypothèse d’échangeabilité conditionnelle (EC) pour les inférences causales et l’hypothèse d’EC pour les inférences de population finie au moyen d’échantillons non probabilistes ainsi que sur la distinction entre les méthodes fondées sur le plan et celles fondées sur un modèle pour l’inférence de population finie au moyen d’échantillons non probabilistes, sont examinés et clarifiés dans le contexte de mon article. Je réponds ensuite au cadre exhaustif de M. Kim et de Mme Kwon pour classer les méthodes actuelles d’estimation des scores de propension (SP) en méthodes conditionnelles et inconditionnelles. J’étends leurs études par simulations pour varier les poids de sondage, permettre des modèles de SP incorrectement précisés, et inclure un estimateur supplémentaire, à savoir l’estimateur par la propension logistique ajustée mis à l’échelle (Wang, Valliant et Li (2021), noté sWBS). Dans mes simulations, on observe que l’estimateur sWBS dépasse de façon constante les autres estimateurs ou leur est comparable dans le modèle de SP incorrectement précisé. L’estimateur sWBS, ainsi que les estimateurs WBS ou ABS décrits dans mon article, ne supposent pas que les unités superposées dans les échantillons de référence probabiliste et non probabiliste sont négligeables, et ils n’exigent pas non plus l’identification des unités superposées, comme le nécessitent les estimateurs proposés par M. Kim et Mme Kwon.
    Date de diffusion : 2024-06-25

  • Articles et rapports : 12-001-X202400100006
    Description : Dans certains articles sur les échantillons non probabilistes, l’hypothèse de l’échangeabilité conditionnelle est jugée nécessaire pour une inférence statistique valide. Cette hypothèse repose sur une inférence causale, bien que son cadre de résultat potentiel diffère grandement de celui des échantillons non probabilistes. Nous décrivons les similitudes et les différences entre deux cadres et abordons les enjeux à prendre en considération lors de l’adoption de l’hypothèse d’échangeabilité conditionnelle dans les configurations d’échantillons non probabilistes. Nous examinons aussi le rôle de l’inférence de la population finie dans différentes approches de scores de propension et de modélisation de régression des résultats à l’égard des échantillons non probabilistes.
    Date de diffusion : 2024-06-25

  • Articles et rapports : 12-001-X202400100007
    Description : La construction de pseudo-poids pour l’intégration des données peut être comprise dans le cadre de l’échantillonnage à deux phases. Au moyen du cadre d’échantillonnage à deux phases, nous abordons deux approches de l’estimation des scores de propension et mettons au point une nouvelle façon de construire la fonction de score de propension pour l’intégration des données en utilisant la méthode de maximum de vraisemblance conditionnelle. Les résultats d’une étude de simulation limitée sont aussi présentés.
    Date de diffusion : 2024-06-25

  • Articles et rapports : 12-001-X202400100008
    Description : Des échantillons non probabilistes émergent rapidement pour aborder des sujets prioritaires urgents dans différents domaines. Ces données sont actuelles, mais sujettes à un biais de sélection. Afin de réduire le biais de sélection, une littérature abondante portant sur la recherche sur les enquêtes a étudié l’utilisation de méthodes d’ajustement par le score de propension (SP) pour améliorer la représentativité de la population des échantillons non probabilistes, au moyen d’échantillons d’enquête probabilistes utilisés comme références externes. L’hypothèse d’échangeabilité conditionnelle (EC) est l’une des principales hypothèses requises par les méthodes d’ajustement fondées sur le SP. Dans le présent article, j’examine d’abord la validité de l’hypothèse de l’EC conditionnellement à plusieurs estimations de scores d’équilibrage qui sont utilisées dans les méthodes d’ajustement fondées sur le SP existantes. Un score d’équilibrage adaptatif est proposé aux fins d’estimation sans biais des moyennes de population. Les estimateurs de la moyenne de population selon les trois hypothèses de l’EC sont évalués au moyen d’études de simulation de Monte Carlo et illustrés au moyen de l’étude sur la séroprévalence du SRAS-CoV-2 des National Institutes of Health pour estimer la proportion d’adultes aux États-Unis qui présentaient des anticorps de la COVID-19 du 1er avril au 4 août 2020.
    Date de diffusion : 2024-06-25

  • Articles et rapports : 12-001-X202400100009
    Description : Nos commentaires répondent aux points de discussion soulevés par Sen, Brick et Elliott. Nous évaluons les avantages et les inconvénients potentiels de la suggestion de Sen de recourir à l’apprentissage automatique pour repérer les faux répondants au moyen d’interactions et de combinaisons improbables de variables. Nous rejoignons la réflexion de Brick sur l’incidence des faux répondants sur les enquêtes non probabilistes menées à des fins commerciales. Enfin, nous examinons les solutions proposées par Elliott pour relever le défi exposé dans notre étude.
    Date de diffusion : 2024-06-25
Stats en bref (0)

Stats en bref (0) (0 résultat)

Aucun contenu disponible actuellement

Articles et rapports (897)

Articles et rapports (897) (10 à 20 de 897 résultats)

  • Articles et rapports : 12-001-X202400100011
    Description : Kennedy, Mercer et Lau étudient la question des erreurs de déclaration faites par les répondants dans les échantillons non probabilistes et, ce faisant, mettent au jour un nouvel aspect, à savoir les erreurs volontaires de déclaration en ce qui concerne des caractéristiques démographiques. Ce constat laisse à penser que le bras de fer auquel on assiste entre les chercheurs et les personnes déterminées à nuire à la pratique des sciences sociales se poursuit. Les chercheurs doivent donc tenir compte de ces personnes lorsqu’ils utilisent des enquêtes probabilistes de grande qualité pour réduire les erreurs dans les échantillons non probabilistes.
    Date de diffusion : 2024-06-25

  • Articles et rapports : 12-001-X202400100012
    Description : Devenue populaire pour certains types de projets de recherche par enquête, l’utilisation d’échantillons non probabilistes est rapide et peu coûteuse. Kennedy, Mercer et Lau examinent certains problèmes de qualité des données associés aux échantillons non probabilistes des panels volontaires, un type d’échantillon fréquemment utilisé aux États-Unis. Les auteurs montrent que les estimations obtenues à partir de ces échantillons posent de graves problèmes qui vont au-delà de la représentativité. Afin de bien évaluer tous les types d’enquêtes qui existent, il est important d’adopter le point de vue de l’erreur d’enquête totale.
    Date de diffusion : 2024-06-25

  • Articles et rapports : 12-001-X202400100013
    Description : Les méthodes statistiques élaborées pour les échantillons non probabilistes sont généralement axées sur la sélection non aléatoire comme principale raison pour laquelle les répondants à l’enquête peuvent différer systématiquement de la population cible. Selon une théorie bien établie, dans ces cas, si elle est conditionnée sur des variables auxiliaires nécessaires, la sélection peut devenir ignorable et les estimations d’enquête sont alors sans biais. Toutefois, cette logique repose sur l’hypothèse selon laquelle l’erreur de mesure est inexistante ou faible. Dans la présente étude, nous testons cette hypothèse de deux façons. Premièrement, nous utilisons une vaste étude d’étalonnage qui permet de déterminer les sous-groupes pour lesquels les erreurs dans les échantillons d’enquêtes non probabilistes menées en ligne à des fins commerciales sont particulièrement grandes d’une manière improbable en raison des effets de sélection. Nous présentons ensuite une étude de suivi qui porte sur une des causes des grandes erreurs : les fausses réponses (c’est-à-dire les réponses d’enquête qui sont frauduleuses, malveillantes ou non sincères d’une autre manière). Nous constatons que les fausses réponses, en particulier chez les répondants qui déclarent être jeunes ou d’origine hispanique, constituent un problème important et répandu dans les échantillons d’enquêtes non probabilistes menées en ligne à des fins commerciales, du moins aux États-Unis. La présente étude met en évidence la nécessité pour les statisticiens utilisant des échantillons non probabilistes établis à des fins commerciales de traiter les fausses réponses et les questions de représentativité, et pas uniquement ces dernières.
    Date de diffusion : 2024-06-25

  • Articles et rapports : 12-001-X202400100014
    Description : Cet article est une introduction au numéro spécial sur l’utilisation d’échantillons non probabilistes comprenant trois articles présentés lors de la 29e conférence Morris Hansen par Courtney Kennedy, Yan Li et Jean-François Beaumont.
    Date de diffusion : 2024-06-25

  • Articles et rapports : 12-001-X202300200001
    Description : Lorsqu’un fournisseur de soins de santé de Medicare est soupçonné de fraude liée à la facturation, on isole une population de paiements X versés à ce fournisseur sur une certaine période. Un examinateur médical agréé peut, dans un long processus, établir le trop-payé Y = X - (montant justifié par la preuve) pour chaque paiement. En temps normal, il y aura trop de paiements dans une population pour que chacun soit examiné avec soin, aussi prélève-t-on un échantillon probabiliste. Les trop-payés de cet échantillon servent alors à calculer une borne inférieure de l’intervalle de confiance de 90 % pour le trop-payé total de cette population. La borne correspond au montant exigé en recouvrement auprès du fournisseur. Malheureusement, les méthodes classiques de calcul de cette borne ne permettent parfois pas de dégager le niveau de confiance de 90 %, plus particulièrement lorsqu’on utilise un échantillon stratifié.

    Dans le présent document, nous présentons et décrivons 166 échantillons épurés tirés des enquêtes au sujet de l’intégrité de Medicare qui comportent 156 populations de paiements correspondantes. Les 7 588 paires échantillonnées (Y, X) indiquent 1) que les vérifications réalisées au sein de Medicare affichent des taux d’erreur élevés : plus de 76 % des paiements en question sont considérés comme étant des erreurs. Elles indiquent aussi 2) que les configurations de ces échantillons vont dans le sens d’un modèle de mélange « tout ou rien » pour (Y, X) qui est déjà défini dans les études spécialisées. Nous analysons des procédures de test de Monte Carlo fondées sur un modèle pour les plans de sondage de Medicare, ainsi que des méthodes de stratification fondées sur les moments anticipés du modèle. Pour la viabilité (atteinte d’un niveau de confiance de 90 %), nous définissons dans le présent article une nouvelle méthode de stratification qui rivalise avec les meilleures parmi de nombreuses méthodes existantes et qui semble moins sensible au choix de paramètres d’exploitation. Pour ce qui est du recouvrement des trop-payés (ce qui équivaut à une mesure de la précision), la nouvelle méthode se compare aussi aux meilleures parmi les nombreuses méthodes expérimentées. Malheureusement, aucun algorithme de stratification mis à l’essai ne s’est révélé viable pour plus de la moitié environ des 104 populations visées par l’essai.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200002
    Description : Il est essentiel de pouvoir quantifier l’exactitude (biais, variance) des résultats publiés dans les statistiques officielles. Dans ces dernières, les résultats sont presque toujours divisés en sous-populations selon une variable de classification, comme le revenu moyen par catégorie de niveau de scolarité. Ces résultats sont également appelés « statistiques de domaine ». Dans le présent article, nous nous limitons aux variables de classification binaire. En pratique, des erreurs de classification se produisent et contribuent au biais et à la variance des statistiques de domaine. Les méthodes analytiques et numériques servant actuellement à estimer cet effet présentent deux inconvénients. Le premier inconvénient est qu’elles exigent que les probabilités de classification erronée soient connues au préalable et le deuxième est que les estimations du biais et de la variance sont elles-mêmes biaisées. Dans le présent article, nous présentons une nouvelle méthode, un modèle de mélange gaussien estimé par un algorithme espérance-maximisation (EM) combiné à un bootstrap, appelé « méthode bootstrap EM ». Cette nouvelle méthode n’exige pas que les probabilités de classification erronée soient connues au préalable, bien qu’elle soit plus efficace quand on utilise un petit échantillon de vérification qui donne une valeur de départ pour les probabilités de classification erronée dans l’algorithme EM. Nous avons comparé le rendement de la nouvelle méthode et celui des méthodes numériques actuellement disponibles, à savoir la méthode bootstrap et la méthode SIMEX. Des études antérieures ont démontré que pour les paramètres non linéaires, le bootstrap donne de meilleurs résultats que les expressions analytiques. Pour presque toutes les conditions mises à l’essai, les estimations du biais et de la variance obtenues par la méthode bootstrap EM sont plus proches de leurs vraies valeurs que celles obtenues par les méthodes bootstrap et SIMEX. Nous terminons l’article par une discussion sur les résultats et d’éventuels prolongements de la méthode.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200003
    Description : Nous étudions la prédiction sur petits domaines des paramètres généraux à partir de deux modèles pour les dénombrements au niveau de l’unité. Nous construisons des prédicteurs de paramètres, comme les quartiles, qui peuvent être des fonctions non linéaires de la variable réponse du modèle. Nous élaborons d’abord une procédure pour construire les meilleurs prédicteurs empiriques et les estimateurs de l’erreur quadratique moyenne des paramètres généraux dans un modèle Gamma-Poisson au niveau de l’unité. Nous utilisons ensuite un algorithme de rééchantillonnage préférentiel pour élaborer des prédicteurs pour un modèle linéaire mixte généralisé (MLMG) avec une distribution de la réponse de Poisson. Nous comparons les deux modèles au moyen d’une simulation et d’une analyse des données de l’Iowa Seat-Belt Use Survey (une enquête sur l’utilisation de la ceinture de sécurité dans l’État de l’Iowa).
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200004
    Description : Nous présentons une nouvelle méthodologie pour réconcilier des estimations des totaux des superficies cultivées au niveau du comté à un total prédéfini au niveau de l’État soumis à des contraintes d’inégalité et à des variances aléatoires dans le modèle de Fay-Herriot. Pour la superficie ensemencée du National Agricultural Statistics Service (NASS), un organisme du ministère de l’Agriculture des États-Unis (USDA), il est nécessaire d’intégrer la contrainte selon laquelle les totaux estimés, dérivés de données d’enquête et d’autres données auxiliaires, ne sont pas inférieurs aux totaux administratifs de la superficie ensemencée préenregistrés par d’autres organismes du USDA, à l’exception de NASS. Ces totaux administratifs sont considérés comme fixes et connus, et cette exigence de cohérence supplémentaire ajoute à la complexité de la réconciliation des estimations au niveau du comté. Une analyse entièrement bayésienne du modèle de Fay-Herriot offre un moyen intéressant d’intégrer les contraintes d’inégalité et de réconciliation et de quantifier les incertitudes qui en résultent, mais l’échantillonnage à partir des densités a posteriori comprend une intégration difficile; des approximations raisonnables doivent être faites. Tout d’abord, nous décrivons un modèle à rétrécissement unique, qui rétrécit les moyennes lorsque l’on suppose que les variances sont connues. Ensuite, nous élargissons ce modèle pour tenir compte du rétrécissement double par l’emprunt d’information dans les moyennes et les variances. Ce modèle élargi comporte deux sources de variation supplémentaire; toutefois, comme nous rétrécissons à la fois les moyennes et les variances, ce second modèle devrait avoir un meilleur rendement sur le plan de la qualité de l’ajustement (fiabilité) et, possiblement, sur le plan de la précision. Les calculs sont difficiles pour les deux modèles, qui sont appliqués à des ensembles de données simulées dont les propriétés ressemblent à celles des cultures de maïs de l’Illinois.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200005
    Description : Le sous-dénombrement de la population est un des principaux obstacles avec lesquels il faut composer lors de l’analyse statistique d’échantillons d’enquête non probabilistes. Nous considérons dans le présent article deux scénarios types de sous-dénombrement, à savoir le sous-dénombrement stochastique et le sous-dénombrement déterministe. Nous soutenons que l’on peut appliquer directement les méthodes d’estimation existantes selon l’hypothèse de positivité sur les scores de propension (c’est-à-dire les probabilités de participation) pour traiter le scénario de sous-dénombrement stochastique. Nous étudions des stratégies visant à atténuer les biais lors de l’estimation de la moyenne de la population cible selon le sous-dénombrement déterministe. Plus précisément, nous examinons une méthode de population fractionnée (split-population method) fondée sur une formulation d’enveloppe convexe et nous construisons des estimateurs menant à des biais réduits. Un estimateur doublement robuste peut être construit si un sous-échantillon de suivi de l’enquête probabiliste de référence comportant des mesures sur la variable étudiée devient réalisable. Le rendement de six estimateurs concurrents est examiné au moyen d’une étude par simulations, et des questions nécessitant un examen plus approfondi sont brièvement abordées.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200006
    Description : Les spécialistes de la recherche sur les enquêtes se tournent de plus en plus vers la collecte multimodale de données pour composer avec la baisse des taux de réponse aux enquêtes et l’augmentation des coûts. Une approche efficace propose des modes de collecte moins coûteux (par exemple sur le Web) suivis d’un mode plus coûteux pour un sous-échantillon des unités (par exemple les ménages) dans chaque unité primaire d’échantillonnage (UPE). Nous présentons deux solutions de rechange à cette conception classique. La première consiste à sous-échantillonner les UPE plutôt que les unités pour limiter les coûts. La seconde est un plan hybride qui comprend un échantillon (à deux degrés) par grappes et un échantillon indépendant sans mise en grappes. À l’aide d’une simulation, nous démontrons que le plan hybride comporte des avantages considérables.
    Date de diffusion : 2024-01-03
Revues et périodiques (4)

Revues et périodiques (4) ((4 résultats))

  • Revues et périodiques : 12-001-X
    Géographie : Canada
    Description : La revue publie des articles sur les divers aspects des méthodes statistiques qui intéressent un organisme statistique comme, par exemple, les problèmes de conception découlant de contraintes d'ordre pratique, l'utilisation de différentes sources de données et de méthodes de collecte, les erreurs dans les enquêtes, l'évaluation des enquêtes, la recherche sur les méthodes d'enquêtes, l'analyse des séries chronologiques, la désaisonnalisation, les études démographiques, l'intégration des données statistiques, les méthodes d'estimation et d'analyse de données et le développement de systèmes généralisés. Une importance particulière est accordée à l'élaboration et à l'évaluation de méthodes qui ont été utilisées pour la collecte de données ou appliquées à des données réelles.
    Date de diffusion : 2024-06-25

  • Revues et périodiques : 11-008-X
    Géographie : Canada
    Description :

    Cette publication expose les changements économiques, sociaux et démographiques qui touchent la vie des Canadiens.

    Gratuit - Fichiers PDF et HTML téléchargeables : publiés toutes les six semaines Version imprimée: publiée tous les six mois (deux fois par année)

    Date de diffusion : 2012-07-30

  • Revues et périodiques : 11-010-X
    Géographie : Canada
    Description :

    Ce mensuel constitue la publication vedette de Statistique Canada en matière de statistiques économiques. Chaque numéro comprend un sommaire de la conjoncture, les principaux événements économiques et une étude distincte. Un aperçu statistique présente également un large éventail de tableaux et de graphiques comportant les principales séries chronologiques de l'économie du Canada, des provinces et des grands pays industrialisés. On peut consulter un répertoire historique de ces mêmes données dans l'Observateur économique canadien : supplément statistique historique, publication n° 11-210-XPB et XIB au catalogue.

    Date de diffusion : 2012-06-15

  • Revues et périodiques : 87-003-X
    Géographie : Canada
    Description :

    Info-voyages est un bulletin trimestriel d'information qui analyse les tendances des voyages internationaux, les comptes de voyages internationaux et l'indice des prix des voyages. De plus, on y présente les plus récents indicateurs du tourisme et des articles de fond relatifs au tourisme.

    Date de diffusion : 2005-01-26
Date de modification :