Recherche par mot-clé

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Année de publication

1 facets displayed. 1 facets selected.

Enquête ou programme statistique

102 facets displayed. 0 facets selected.

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (817)

Tout (817) (810 à 820 de 817 résultats)

  • Articles et rapports : 12-001-X200700210493
    Description :

    Dans le présent article, nous étudions le problème de l'estimation de la variance pour un ratio de deux totaux quand l'imputation hot deck aléatoire marginale est utilisée pour remplacer les données manquantes. Nous considérons deux approches d'inférence. Dans la première, l'établissement de la validité d'un modèle d'imputation est nécessaire. Dans la seconde, la validité d'un modèle d'imputation n'est pas nécessaire, mais il faut estimer les probabilités de réponse, auquel cas il est nécessaire d'établir la validité d'un modèle de non réponse. Nous obtenons les estimateurs de la variance sous deux cadres distincts, à savoir le cadre à deux phases habituel et le cadre inversé.

    Date de diffusion : 2008-01-03

  • Articles et rapports : 12-001-X200700210494
    Description :

    L'Australian Bureau of Statistics vient de développer un système généralisé d'estimation pour traiter les données de ses enquêtes entreprises annuelles et infra annuelles de grande portée. Les plans de sondage de ces enquêtes comportent d'un grand nombre de strates, un échantillonnage aléatoire simple dans les strates, des fractions d'échantillonnage non négligeables, ainsi qu'un chevauchement d'échantillons pour des périodes consécutives et peuvent faire l'objet de modifications de la base de sondage. Un défi important consistait à choisir la méthode d'estimation de la variance répondant le mieux aux critères suivants : être valide pour une grande gamme d'estimateurs (par exemple, ratio et régression généralisée), nécessiter un temps de calcul limité, être facilement adaptable à divers plans de sondage et estimateurs, et avoir de bonnes propriétés théoriques en ce qui concerne le biais et la variance. Le présent article décrit le bootstrap rééchelonné sans remise (BRSR) qui a été mis en oeuvre par l'ABS et montre qu'il est sensiblement plus efficace que le bootstrap rééchelonné avec remise (BRAR) de Rao et Wu (1988). Les principaux avantages du bootstrap comparativement à d'autres estimateurs de variance par rééchantillonnage sont son efficacité (c'est à dire son exactitude par unité d'espace de mémorisation) et la simplicité relative avec laquelle il peut être spécifié dans un système. Le présent article décrit l'estimateur de variance du bootstrap BRSR pour les estimations ponctuelles et les estimations des changements qui peut être exprimé comme une fonction des moyennes de population finie. Les résultats des simulations entreprises dans le cadre du processus d'évaluation montrent que le BRSR est plus efficace que le BRAR, particulièrement dans les situations où la taille des échantillons dans les strates peut être aussi petite que 5.

    Date de diffusion : 2008-01-03

  • Articles et rapports : 12-001-X200700210495
    Description :

    Il s'agit d'obtenir des estimations fiables pour des domaines d'étude où les tailles d'échantillon peuvent être des plus modestes et pour lesquels la strate du plan d'échantillonnage ne coïncide pas avec le domaine. On ignore les tailles de population autant pour le domaine d'étude que pour la strate du plan d'échantillonnage. Dans le calcul des estimations paramétriques des domaines d'étude, le choix d'une taille d'échantillon aléatoire s'impose souvent. Nous proposons une nouvelle famille de modèles mixtes linéaires généralisés (MMLG) à effets aléatoires corrélés lorsqu'il y a plus d'un paramètre inconnu. Le modèle que nous proposons estimera tant la taille de population que le paramètre d'intérêt. Pour ce cadre, nous donnons des formules générales pour les distributions conditionnelles intégrales qu'exigent des simulations de Monte Carlo à chaîne de Markov (MCCM). Nous présentons aussi des équations de prévision et d'estimation bayésiennes pour les domaines d'étude. Nous nous servons enfin de l'enquête de 1998 sur la chasse aux dindons dans le Missouri, laquelle stratifie des échantillons en fonction du lieu de résidence du chasseur, et nous voulons obtenir des estimations au niveau du domaine, c'est à-dire du comté où le chasseur de dindons s'adonne effectivement à cette activité.

    Date de diffusion : 2008-01-03

  • Articles et rapports : 12-001-X200700210496
    Description :

    Le panel communautaire de ménages (PCM) est une enquête par panel qui porte sur un large éventail de sujets concernant les conditions socio-économiques et les conditions de vie. Plus précisément, cette enquête permet de calculer le revenu équivalent disponible des ménages, qui constitue une variable clé de l'étude de l'inégalité économique et de la pauvreté. Pour obtenir des estimations fiables de la moyenne de cette variable pour des régions données de pays, il faut avoir recours aux méthodes d'estimation pour petits domaines. Dans le présent document, nous nous attardons sur les prédicteurs linéaires empiriques du revenu équivalent moyen en fonction de l'emprunt d'information des « modèles au niveau des unités », d'une région à l'autre et d'une période à l'autre. En nous appuyant sur une étude par simulation basée sur les données du PCM, nous comparons les estimateurs suggérés avec les estimateurs transversaux, fondés sur les modèles et fondés sur le plan de sondage. Dans le cas de ces prédicteurs empiriques, nous comparons également trois différents types d'estimateurs de l'EQM. Les résultats indiquent que les estimateurs qui sont rattachés aux modèles qui tiennent compte de l'autocorrélation des unités entrainent d'importants gains d'efficience, même en l'absence de covariables dont on connaît la moyenne de population.

    Date de diffusion : 2008-01-03

  • Articles et rapports : 12-001-X200700210497
    Description :

    Les défauts de couverture sont estimés et analysés pour le recensement de la population de l'an 2000 en Suisse. La composante de sous-couverture est estimée sur la base d'un échantillon indépendant du recensement et d'un appariement avec le recensement. La composante de sur-couverture est estimée sur la base d'un échantillon tiré dans la liste du recensement et d'un appariement avec le reste du recensement. Les composantes de sur- et sous-couverture sont ensuite combinées pour obtenir une estimation de la couverture nette résultante. Cette estimation est basée sur un modèle de capture-recapture, nommé système dual, combiné avec un modèle synthétique. Les estimateurs sont calculés pour la population entière et différents sous-groupes, avec une variance estimée par un jackknife stratifié. Les analyses de couverture sont complétées par une étude des appariements entre l'échantillon indépendant et le recensement afin de déterminer les erreurs de mesure et de localisation potentielles dans les données du recensement.

    Date de diffusion : 2008-01-03

  • Articles et rapports : 12-001-X200700210498
    Description :

    Dans le présent document, nous décrivons une méthodologie utilisée pour combiner un échantillon de convenance avec un échantillon probabiliste afin de produire un estimateur ayant une erreur quadratique moyenne (EQM) plus faible que les estimateurs fondés uniquement sur un échantillon probabiliste. Nous examinons ensuite les propriétés de l'estimateur composite obtenu, qui est en fait une combinaison linéaire des estimateurs de l'échantillon de convenance et de l'échantillon probabiliste, les poids étant fonction du biais. Nous discutons des propriétés de l'estimateur dans le contexte de l'échantillonnage de convenance électronique. Notre analyse démontre que le recours à un échantillon de convenance pour suppléer un échantillon probabiliste en vue d'améliorer l'EQM de l'estimation pourrait s'avérer utile seulement dans des circonstances restreintes. Premièrement, le biais résiduel de l'estimateur fondé sur l'échantillon de convenance doit être très faible, représentant tout au plus 0,1 de l'écart-type de la population obtenue. En cas de résultat dichotomique, cela signifie un biais ne dépassant pas cinq points de pourcentage à 50 % de prévalence, et trois points de pourcentage à 10 % de prévalence. Deuxièmement, l'échantillon probabiliste devrait contenir au moins 1 000 à 10 000 observations pour donner lieu à une estimation adéquate du biais de l'estimateur de l'échantillon de convenance. Troisièmement, il doit être rentable et faisable de recueillir au moins des milliers (et probablement des dizaines de milliers) d'observations à partir de l'échantillon électronique de convenance. Les conclusions au sujet de l'utilité limitée des échantillons de convenance lorsque le biais de l'estimateur comporte un écart-type de plus de 0,1 s'appliquent également à l'utilisation directe des estimateurs en fonction de cet échantillon.

    Date de diffusion : 2008-01-03

  • Articles et rapports : 12-001-X200700210499
    Description :

    La rubrique Dans ce numéro contient une brève présentation par le rédacteur en chef de chacun des articles contenus dans le présent numéro de Techniques d'enquête. Aussi, on y trouve parfois quelques commentaires sur des changements dans la structure ou la gestion de la revue.

    Date de diffusion : 2008-01-03
Données (370)

Données (370) (10 à 20 de 370 résultats)

Analyses (394)

Analyses (394) (0 à 10 de 394 résultats)

  • Articles et rapports : 12-001-X200800210754
    Description :

    Le contexte de la discussion est la fréquence croissante des enquêtes internationales, dont fait partie l'International Tobacco Control (ITC) Policy Evaluation Project, qui a débuté en 2002. Les enquêtes ITC nationales, qui sont longitudinales, ont pour but d'évaluer les effets des mesures stratégiques adoptées dans divers pays en vertu de la Convention-cadre pour la lutte antitabac de l'OMS. Nous examinons et illustrons les défis que posent l'organisation, la collecte des données et l'analyse des enquêtes internationales. L'analyse est une raison qui motive de plus en plus la réalisation d'enquêtes transculturelles à grande échelle. La difficulté fondamentale de l'analyse est de discerner la réponse réelle (ou le manque de réponse) aux changements de politiques et de la séparer des effets du mode de collecte des données, de la non­réponse différentielle, des événements extérieurs, de la durée de la présence dans l'échantillon, de la culture et de la langue. Deux problèmes ayant trait à l'analyse statistique sont examinés. Le premier est celui de savoir quand et comment analyser des données regroupées provenant de plusieurs pays, afin de renforcer des conclusions qui pourraient être généralement valides. Bien que cela paraisse simple, dans certains cas les avis sont partagés quant à la mesure dans laquelle ce regroupement est possible et raisonnable. Selon certains, les modèles à effets aléatoires sont conceptuellement utiles pour les comparaisons formelles. Le deuxième problème consiste à trouver des modèles de mesure applicables à diverses cultures et à divers modes de collecte de données qui permettent l'étalonnage des réponses continues, binaires et ordinales, ainsi que la production de comparaisons dont ont été éliminés les effets extérieurs. Nous constatons que les modèles hiérarchiques offrent un moyen naturel de relâcher les exigences d'invariance du modèle entre les groupes.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210755
    Description :

    L'interview avec rétroinformation (IRI) est utilisée dans de nombreuses enquêtes longitudinales pour « reporter » les données d'une vague à la suivante. Bien qu'il s'agisse d'une technique prometteuse qui a permis d'améliorer la qualité des données à certains égards, on en sait assez peu sur la façon dont elle est effectivement appliquée sur le terrain. La présente étude a pour but d'aborder cette question par la voie du codage du comportement. Divers styles d'IRI ont été employés dans l'English Longitudinal Study of Ageing (ELSA) de janvier 2006 et les interviews pilotes sur le terrain ont été enregistrées. Les enregistrements ont été analysés afin de déterminer si les questions (particulièrement les éléments d'IRI) étaient administrées convenablement et d'explorer la réaction des répondants à l'égard des données reportées. Un des objectifs était de déterminer si les répondants confirmaient ou contestaient l'information déclarée antérieurement, si les données de la vague précédente jouaient un rôle quand les répondants fournissaient les réponses à la vague courante et la façon dont toute discordance était négociée par l'intervieweur et le répondant. Un autre objectif était d'examiner l'efficacité de divers styles d'IRI. Par exemple, dans certains cas, les données de la vague précédente ont été reportées et on a demandé aux répondants de les confirmer explicitement ; dans d'autres, les données antérieures ont été lues et ont a demandé aux répondants si la situation était encore la même. Les résultats révèlent divers niveaux de conformité en ce qui a trait à la lecture initiale de la question et donnent à penser que certains styles d'IRI pourraient être plus efficaces que d'autres.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210756
    Description :

    Dans les enquêtes longitudinales, la non-réponse survient souvent selon un schéma non monotone. Nous considérons l'estimation des moyennes dépendantes du temps sous l'hypothèse que le mécanisme de non-réponse dépend de la dernière valeur. Puisque cette dernière valeur peut elle-même manquer quand la non-réponse est non monotone, le mécanisme de non-réponse examiné est non ignorable. Nous proposons une méthode d'imputation qui consiste à établir d'abord certains modèles d'imputation par la régression en fonction du mécanisme de non-réponse, puis à appliquer l'imputation par la régression non paramétrique. Nous supposons que les données longitudinales suivent une chaîne de Markov admettant des moments finis de deuxième ordre. Aucune autre contrainte n'est imposée à la distribution conjointe des données longitudinales et à leurs indicateurs de non-réponse. La variance est estimée par une méthode du bootstrap. Nous présentons certains résultats de simulation et un exemple concernant une enquête sur l'emploi.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210757
    Description :

    Les poids d'échantillonnage peuvent être calés de manière à refléter les totaux connus de population d'un ensemble de variables auxiliaires. Le biais des prédicteurs des totaux de population finie calculés en utilisant ces poids est faible si ces variables sont reliées à la variable d'intérêt, mais leur variance peut être élevée si l'on utilise un trop grand nombre de variables auxiliaires. Dans le présent article, nous élaborons une approche de « calage adaptatif » où les variables auxiliaires qu'il convient d'utiliser dans la pondération sont sélectionnées en se servant de données d'échantillon. Nous montrons que, dans de nombreux cas, les estimateurs calés adaptativement ont une erreur quadratique moyenne plus faible et de meilleures propriétés de couverture que les estimateurs non adaptatifs.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210758
    Description :

    Nous proposons une méthode pour estimer la variance des estimateurs des évolutions qui prend en compte toutes les composantes de ceux-ci : le plan de sondage, le traitement des non-réponses, le traitement des grosses entreprises, la corrélation de la non-réponse d'une vague à l'autre, l'effet dû à l'utilisation d'un panel, la robustification et le calage au moyen d'un estimateur par le ratio. Cette méthode, qui permet la détermination d'intervalles de confiance des évolutions, est ensuite appliquée à l'enquête suisse sur la valeur ajoutée.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210759
    Description :

    L'analyse des données recueillies auprès d'un échantillon stratifié à plusieurs degrés requiert de l'information sur le plan de sondage, telle que les identificateurs de strate et d'unité primaire d'échantillonnage (UPE), ou les poids de rééchantillonnage connexes, pour l'estimation de la variance. Dans certains fichiers de données à grande diffusion, l'information sur le plan de sondage est masquée en vue d'éviter le risque de divulgation, tout en permettant à l'utilisateur d'obtenir des estimations valides des variances. Par exemple, dans le cas des enquêtes aréolaires comptant un nombre limité d'UPE, les UPE originales sont divisées et (ou) recombinées pour construire des pseudo UPE dans lesquelles sont permutées les unités d'échantillonnage de deuxième degré et de degré subséquent. Cependant, ces méthodes de masquage des UPE faussent manifestement la structure de mise en grappes du plan d'échantillonnage, ce qui donne des estimations de variance biaisées pouvant présenter un rapport systématique entre les deux estimations de variance obtenues avec et sans masquage des identificateurs d'UPE. Certains travaux antérieurs ont révélé certaines tendances du ratio des estimations de la variance obtenues avec et sans masquage si on représente ce ratio graphiquement en fonction de l'effet de plan sans masquage. Le présent article traite de l'effet du masquage des UPE sur les estimations de la variance sous échantillonnage en grappes en fonction de divers aspects, dont la structure de mise en grappes et le degré de masquage. En outre, nous tâchons d'établir une stratégie de masquage des UPE par permutation des unités d'échantillonnage du degré subséquent qui réduit le biais résultant des estimations de la variance. En guise d'illustration, nous utilisons des données provenant de la National Health Interview Survey (NHIS) auxquelles nous avons apporté certaines modifications artificielles. La stratégie proposée permet de bien réduire le biais des estimations de la variance. Les résultats tant théoriques qu'empiriques indiquent que l'effet du masquage des UPE sur les estimations de la variance est modeste si la permutation des unités d'échantillonnage de degré subséquent est minimale. Nous avons appliqué la stratégie de masquage proposée aux données diffusées de la National Health and Nutrition Examination Survey (NHANES) de 2003 2004.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210760
    Description :

    Pour concevoir un échantillon aléatoire simple stratifié sans remise à partir d'une population finie, il faut résoudre deux grandes questions : définir une règle de partition de la population en strates et répartir les unités d'échantillonnage entre les strates sélectionnées. Dans le présent article, nous examinons une stratégie arborescente en vue d'aborder conjointement ces deux questions quand l'enquête est polyvalente et que de l'information multivariée, quantitative ou qualitative, est disponible. Nous formons les strates à l'aide d'un algorithme divisif hiérarchique qui sélectionne des partitions de plus en plus fines en minimisant, à chaque étape, la répartition d'échantillon requise pour atteindre les niveaux de précision établis pour chaque variable étudiée. De cette façon, nous pouvons satisfaire un grand nombre de contraintes sans augmenter fortement la taille globale d'échantillon et sans écarter certaines variables sélectionnées pour la stratification ni diminuer le nombre de leurs intervalles de classe. En outre, l'algorithme a tendance à ne pas définir de strate vide ou presque vide, ce qui évite de devoir regrouper certaines strates. Nous avons appliqué la méthode au remaniement de l'Enquête sur la structure des exploitations agricoles en Italie. Les résultats indiquent que le gain d'efficacité réalisé en utilisant notre stratégie n'est pas trivial. Pour une taille d'échantillon donnée, cette méthode permet d'obtenir la précision requise en exploitant un nombre de strates qui est habituellement égal à une fraction très faible du nombre de strates disponibles quand on combine toutes les classes possibles provenant de n'importe quelle covariable.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210761
    Description :

    La stratification optimale est la méthode qui consiste à choisir les meilleures bornes qui rendent les strates intérieurement homogènes, étant donné la répartition de l'échantillon. Afin de rendre les strates intérieurement homogènes, celles ci doivent être construites de façon que les variances de strate de la caractéristique étudiée soient aussi faibles que possible. Un moyen efficace d'y arriver, si l'on connaît la distribution de la principale variable étudiée, consiste à créer des strates en découpant l'étendue de la distribution à des points appropriés. Si la distribution des fréquences de la variable étudiée est inconnue, on peut l'approximer en se fondant sur l'expérience passée ou sur certains renseignements a priori obtenus au cours d'une étude récente. Dans le présent article, le problème de la détermination des bornes optimales de strate (BOS) est considéré comme étant le problème de la détermination des largeurs optimales de strate (LOS). Il est formulé comme un problème de programmation mathématique (PPM) consistant à minimiser la variance du paramètre de population estimé sous la répartition de Neyman en imposant que la somme des largeurs des strates soit égale à l'étendue totale de la distribution. La variable étudiée est considérée comme suivant un loi continue dont la densité de probabilité est triangulaire ou normale standard. Les PPM formulés, qui s'avèrent être des problèmes de décision à plusieurs degrés, peuvent alors être résolus en utilisant la méthode de programmation dynamique proposée par Bühler et Deutler (1975). Des exemples numériques sont présentés pour illustrer les calculs. Les résultats obtenus sont également comparés à ceux donnés par la méthode de Dalenius et Hodges (1959) dans le cas d'une distribution normale.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210762
    Description :

    Le présent article porte sur le traitement de la répartition optimale dans l'échantillonnage stratifié multivarié comme une optimisation matricielle non linéaire en nombres entiers. Un problème non linéaire d'optimisation multi-objectifs en nombres entiers est étudié à titre de cas particulier. Enfin, un exemple détaillé, y compris certaines méthodes proposées, est donné à la fin de l'exposé.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210763
    Description :

    Le présent article décrit une stratégie d'échantillonnage utile pour obtenir une taille d'échantillon planifiée pour des domaines appartenant à différentes partitions de la population et pour garantir que les erreurs d'échantillonnage des estimations de domaine soient inférieures à un seuil donné. La stratégie d'échantillonnage, qui englobe le cas multidomaine multivarié, est avantageuse quand la taille globale d'échantillon est bornée et que, par conséquent, la solution standard consistant à utiliser un échantillon stratifié dont les strates sont obtenues par le recoupement des variables qui définissent les diverses partitions n'est pas faisable, puisque le nombre de strates est plus grand que la taille globale d'échantillon. La stratégie d'échantillonnage proposée est fondée sur l'utilisation d'une méthode d'échantillonnage équilibré et sur une estimation de type GREG. Le principal avantage de la solution est la faisabilité des calculs, laquelle permet de mettre en oeuvre facilement une stratégie globale d'estimation pour petits domaines qui tient compte simultanément du plan d'échantillonnage et de l'estimateur, et qui améliore l'efficacité des estimateurs directs de domaine. Les propriétés empiriques de la stratégie d'échantillonnage étudiée sont illustrées au moyen d'une simulation portant sur des données de population réelles et divers estimateurs de domaine.

    Date de diffusion : 2008-12-23
Références (54)

Références (54) (10 à 20 de 54 résultats)

  • Enquêtes et programmes statistiques — Documentation : 75F0002M2008005
    Description :

    L'Enquête sur la dynamique du travail et du revenu (EDTR) est une enquête longitudinale qui date de 1993. Elle se veut un moyen de mesurer les variations du bien-être économique des Canadiens ainsi que les facteurs touchant ces changements. Les enquêtes par sondage sont sujet aux erreurs d'échantillonnage. Pour tenir compte de ces erreurs, les estimations présentées dans la série "Tendance du revenu au Canada" viennent avec un indicateur de qualité basé sur le coefficient de variation. Cependant d'autres facteurs doivent également ête considérés afin d'utiliser les données de l'enquête à bon escient. Statistique Canada met un temps et un effort considérable à contrôler les erreurs à chaque stade de l'enquête et à optimiser l'utilité des données. Malgré tout, la façon dont l'enquête a été conçue et le traitement des données peuvent limiter la bonne utilisation des données de l'enquête. Statistique Canada a pour politique de fournir des mesures de la qualité des données pour aider ses utilisateurs à bien interpréter les données. Le présent rapport résume l'ensemble des mesures de qualité des données de l'EDTR. Parmi les mesures incluses dans le rapport nous retrouvons la composition de l'échantillon, le taux d'érosion, les erreurs d'échantillonnage, les erreurs de couverture, le taux de réponse, le taux de permission d'accès au dossier fiscal, le taux de couplage avec le dossier fiscal et le taux d'imputation.

    Date de diffusion : 2008-08-20

  • Enquêtes et programmes statistiques — Documentation : 97-560-G
    Description :

    Ce guide porte sur la variable démographique : Scolarité.

    Fournit des renseignements qui permettent aux utilisateurs de se servir des données du Recensement de 2006, de les mettre en application et de les interpréter. Chaque guide renferme des définitions et des explications sur les concepts du recensement et de la qualité des données du recensement. Des renseignements supplémentaires seront inclus pour des variables spécifiques afin d'aider les utilisateurs en général à mieux comprendre les concepts et les questions utilisés dans le recensement.

    Date de diffusion : 2008-08-05

  • Enquêtes et programmes statistiques — Documentation : 97-560-G2006003
    Description :

    Ce guide porte sur la variable démographique : Scolarité.

    Fournit des renseignements qui permettent aux utilisateurs de se servir des données du Recensement de 2006, de les mettre en application et de les interpréter. Chaque guide renferme des définitions et des explications sur les concepts du recensement et de la qualité des données du recensement. Des renseignements supplémentaires seront inclus pour des variables spécifiques afin d'aider les utilisateurs en général à mieux comprendre les concepts et les questions utilisés dans le recensement.

    Date de diffusion : 2008-08-05

  • Enquêtes et programmes statistiques — Documentation : 97-557-G
    Description :

    Ces guides fournissent des renseignements qui permettent aux utilisateurs de se servir des données du Recensement de 2006, de les mettre en application et de les interpréter. Chaque guide renferme des définitions et des explications sur les concepts du recensement, la qualité des données et la comparabilité historique des données. Des renseignements supplémentaires seront inclus pour des variables spécifiques afin d'aider les utilisateurs en général à mieux comprendre les concepts et les questions utilisés dans le recensement.

    Date de diffusion : 2008-07-29

  • Enquêtes et programmes statistiques — Documentation : 97-562-G
    Description :

    Ce guide porte sur les variables démographiques : Population des minorités visibles et Groupe de population.

    Fournit les renseignements qui permettent aux utilisateurs de se servir des données du Recensement de 2006, de les mettre en application et de les interpréter. Chaque guide renferme des définitions et des explications sur les concepts du recensement, la qualité et la comparabilité historique des données. Des renseignements supplémentaires seront inclus pour des variables spécifiques afin d'aider les utilisateurs en général à mieux comprendre les concepts et les questions utilisés dans le recensement.

    Date de diffusion : 2008-07-29

  • Enquêtes et programmes statistiques — Documentation : 97-557-G2006003
    Description :

    Ce guide porte sur les variables démographiques suivantes : le lieu de naissance, le statut des générations, la citoyenneté et l'immigration.

    Fournissent des renseignements qui permettent aux utilisateurs de se servir des données du Recensement de 2006, de les mettre en application et de les interpréter. Chaque guide renferme des définitions et des explications sur les concepts du recensement, la qualité des données et la comparabilité historique des données. Des renseignements supplémentaires seront inclus pour des variables spécifiques afin d'aider les utilisateurs en général à mieux comprendre les concepts et les questions du recensement.

    Date de diffusion : 2008-07-29

  • Enquêtes et programmes statistiques — Documentation : 97-562-G2006003
    Description :

    Ce guide porte sur les variables démographiques : Population des minorités visibles et Groupe de population.

    Fournit les renseignements qui permettent aux utilisateurs de se servir des données du Recensement de 2006, de les mettre en application et de les interpréter. Chaque guide renferme des définitions et des explications sur les concepts du recensement, la qualité et la comparabilité historique des données. Des renseignements supplémentaires seront inclus pour des variables spécifiques afin d'aider les utilisateurs en général à mieux comprendre les concepts et les questions utilisés du recensement.

    Date de diffusion : 2008-07-29

  • Enquêtes et programmes statistiques — Documentation : 97-562-G2006025
    Description :

    Ce guide porte sur la variable démographique : Origine ethnique. Fournit des renseignements qui permettent aux utilisateurs de se servir des données du Recensement de 2006, de les mettre en application et de les interpréter. Chaque guide renferme des définitions et des explications sur les concepts du recensement, la qualité et la comparabilité historique des données. Des renseignements supplémentaires seront inclus pour des variables spécifiques afin d'aider les utilisateurs en général à mieux comprendre les concepts et les questions du recensement.

    Date de diffusion : 2008-07-29

  • Enquêtes et programmes statistiques — Documentation : 15-206-X2008018
    Description :

    Les données officielles produites par les organismes statistiques ne sont pas toujours idéales aux fins de comparaisons entre pays en raison de différences relatives aux sources de données et de la méthodologie. Les analystes qui procèdent à des comparaisons entre pays doivent choisir avec soin entre plusieurs options et parfois adapter les données à leurs propres fins. Dans le présent document, nous élaborons des estimations comparables du stock de capital pour examiner l'intensité relative du capital au Canada et aux États Unis.

    À cette fin, nous appliquons des taux de dépréciation communs aux actifs du Canada et des États-Unis pour produire des estimations comparables du stock de capital selon la catégorie d'actifs et selon l'industrie dans les deux pays. Après application de taux de dépréciation communs, nous concluons que l'intensité du capital est plus forte dans le secteur canadien des entreprises que dans le secteur des entreprises aux États-Unis. Il s'agit du résultat net de ratios assez différents au niveau des actifs individuels. L'intensité des actifs d'infrastructure de génie par dollar de produit intérieur brut produit est plus forte au Canada. L'intensité des actifs des machines et du matériel (M et M) liés aux technologies de l'information et des communications (TIC) est plus faible au Canada. L'intensité des actifs des M et M non TIC et des bâtiments est semblable dans les deux pays.

    Toutefois, ces résultats ne tiennent pas compte du fait que les différentes intensités du capital selon les actifs au Canada et aux États-Unis peuvent provenir d'une structure industrielle différente. Lorsque les actifs et la structure industrielle sont pris en compte, la situation globale est un peu modifiée. Au Canada, l'intensité des actifs d'infrastructure de génie est toujours plus forte et l'intensité des actifs des bâtiments demeure semblable; toutefois, ce pays enregistre un déficit en intensité des actifs des M et M qui surpasse celui des actifs des TIC.

    Date de diffusion : 2008-07-10

  • Enquêtes et programmes statistiques — Documentation : 13-017-X
    Description : Ce guide donne une vue générale des comptes des revenus et dépenses. Il contient également une description des concepts et des définitions, une explication des sources et des méthodes statistiques utilisées, un glossaire et un recueil d'autres faits à propos des comptes.
    Date de diffusion : 2008-06-30
Date de modification :