Recherche par mot-clé

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Géographie

1 facets displayed. 0 facets selected.

Portail

    Contenu

    1 facets displayed. 0 facets selected.
    Aide à l'ordre
    entrées

    Résultats

    Tout (82)

    Tout (82) (20 à 30 de 82 résultats)

    • Articles et rapports : 12-001-X201100211609
      Description :

      Le présent article propose un examen et une évaluation de l'échantillonnage équilibré par la méthode du cube. Il débute par une définition de la notion d'échantillon équilibré et d'échantillonnage équilibré, suivie par un court historique du concept d'équilibrage. Après un exposé succinct de la théorie de la méthode du cube, l'accent est mis sur les aspects pratiques de l'échantillonnage équilibré, c'est-à-dire l'intérêt de la méthode comparativement à d'autres méthodes d'échantillonnage et au calage, le domaine d'application, la précision de l'équilibrage, le choix des variables auxiliaires et les moyens de mettre la méthode en oeuvre.

      Date de diffusion : 2011-12-21

    • Articles et rapports : 12-001-X201100111451
      Description :

      Dans la méthode du calage de Deville et Särndal (1992), les équations de calage ne prennent en compte que les estimations exactes de totaux des variables auxiliaires. L'objectif de cet article est de s'intéresser à d'autres paramètres que le total pour caler. Ces paramètres que l'on qualifie de complexes sont par exemple le ratio, la médiane ou la variance de variables auxiliaires.

      Date de diffusion : 2011-06-29

    • Articles et rapports : 12-001-X200900211038
      Description :

      Nous cherchons à corriger la surestimation causée par la non-réponse de lien dans l'échantillonnage indirect lorsque l'on utilise la méthode généralisée de partage des poids (MGPP). Nous avons élaboré quelques méthodes de correction pour tenir compte de la non-réponse de lien dans la MGPP applicables lorsque l'on dispose ou non de variables auxiliaires. Nous présentons une étude par simulation de certaines de ces méthodes de correction fondée sur des données d'enquête longitudinale. Les résultats des simulations révèlent que les corrections proposées de la MGPP réduisent bien le biais et la variance d'estimation. L'accroissement de la réduction du biais est significatif.

      Date de diffusion : 2009-12-23

    • Articles et rapports : 12-001-X200900211045
      Description :

      Dans l'analyse de données d'enquête, on se sert souvent du nombre de degrés de liberté pour évaluer la stabilité des estimateurs de variance fondé sur le plan de sondage. Par exemple, ce nombre de degrés de liberté est utilisé pour construire les intervalles de confiances fondés sur des approximations de la loi t, ainsi que des tests t connexes. En outre, un petit nombre de degrés de liberté donne une idée qualitative des limites possibles d'un estimateur de variance particulier dans une application. Parfois, le calcul du nombre de degrés de liberté s'appuie sur des formes de l'approximation de Satterthwaite. Ces calculs fondés sur l'approche de Satterthwaite dépendent principalement des grandeurs relatives des variances au niveau de la strate. Cependant, pour des plans de sondage comportant la sélection d'un petit nombre d'unités primaires par strate, les estimateurs de variance au niveau de la strate classiques ne fournissent que des renseignements limités sur les variances réelles de strate. Le cas échéant, les calculs habituels fondés sur l'approche de Satterthwaite peuvent poser des problèmes, surtout dans les analyses portant sur des sous-populations concentrées dans un nombre relativement faible de strates. Pour résoudre ce problème, nous utilisons dans le présent article les estimations des variances à l'intérieur des unités primaires d'échantillonnage (variances intra-UPE) pour fournir de l'information auxiliaire sur les grandeurs relatives des variances globales au niveau de la strate. Les résultats des analyses indiquent que l'estimateur du nombre de degrés de liberté résultant est meilleur que les estimateurs de type Satterthwaite modifiés, à condition que : a) les variances globales au niveau de la strate soient approximativement proportionnelles aux variances intra-strate correspondantes et b) les variances des estimateurs de variance intra-UPE soient relativement faibles. En outre, nous élaborons des méthodes à erreurs sur les variables qui permettent de vérifier empiriquement les conditions a) et b). Pour ces vérifications de modèle, nous établissons des distributions de référence fondées sur des simulations qui diffèrent considérablement des distributions de référence fondées sur les approximations normales en grand échantillon habituelles. Nous appliquons les méthodes proposées à quatre variables de la troisième National Health and Nutrition Examination Survey (NHANES III) réalisée aux États-Unis.

      Date de diffusion : 2009-12-23

    • Articles et rapports : 12-001-X200900211046
      Description :

      Nous élaborons un modèle de régression semiparamétrique pour les enquêtes complexes. Dans ce modèle, les variables explicatives sont représentées séparément sous forme d'une partie non paramétrique et d'une partie linéaire paramétrique. Les méthodes d'estimation combinent l'estimation par la régression polynomiale locale non paramétrique et l'estimation par les moindres carrés. Nous élaborons également des résultats asymptotiques, tels que la convergence et la normalité des estimateurs des coefficients de régression et des fonctions de régression. Nous recourrons à la simulation et à des exemples empiriques tirés de l'Enquête sur la santé en Ontario de 1990 pour illustrer la performance de la méthode et les propriétés des estimations.

      Date de diffusion : 2009-12-23

    • Articles et rapports : 11-522-X200800010957
      Description :

      Les enquêtes menées auprès d'entreprises diffèrent des enquêtes menées auprès de la population ou des ménages à bien des égards. Deux des plus importantes différences sont : (a) les répondants aux enquêtes-entreprises ne répondent pas à des questions sur des caractéristiques les concernant (leurs expériences, leurs comportements, leurs attitudes et leurs sentiments), mais sur des caractéristiques de leur organisation (taille, revenu, politiques, stratégies, etc.) et (b) les répondants aux questions parlent au nom d'une organisation. Les enquêtes-entreprises théoriques diffèrent pour leur part des autres enquêtes-entreprises, comme celles des bureaux nationaux de la statistique, à bien des égards aussi. Le fait que les enquêtes-entreprises théoriques ne visent habituellement pas la production de statistiques descriptives mais plutôt la réalisation de tests d'hypothèses (relations entre variables) constitue la plus importante différence. Les taux de réponse aux enquêtes-entreprises théoriques sont très faibles, ce qui suppose un risque énorme de biais de non-réponse. Aucune tentative n'est habituellement faite pour évaluer l'importance du biais attribuable à la non-réponse, et les résultats publiés peuvent par conséquent ne pas refléter fidèlement les vraies relations au sein de la population, ce qui augmente par ricochet la probabilité que les résultats des tests soient incorrects.

      Les auteurs de la communication analysent la façon dont le risque de biais dû à la non-réponse est étudié dans les documents de recherche publiés dans les grandes revues de gestion. Ils montrent que ce biais n'est pas suffisamment évalué et que la correction du biais est difficile ou très coûteux dans la pratique, si tant est que des tentatives sont faites en ce sens. Trois façons de traiter ce problème sont examinées :(a) réunir des données par d'autres moyens que des questionnaires;(b) mener des enquêtes auprès de très petites populations;(c) mener des enquêtes avec de très petits échantillons.

      Les auteurs examinent les raisons pour lesquelles ces méthodes constituent des moyens appropriés de mise à l'essai d'hypothèses dans les populations. Les compromis concernant le choix d'une méthode sont aussi examinés.

      Date de diffusion : 2009-12-03

    • Articles et rapports : 11-522-X200800010959
      Description :

      L'Enquête unifiée auprès des entreprises (EUE) réalisée par Statistique Canada est une enquête-entreprise annuelle dont le but est d'uniformiser plus de 60 enquêtes couvrant diverses industries. À l'heure actuelle, deux types de fonctions de score sont utilisés durant la collecte des données de l'EUE pour en faire le suivi. L'objectif est d'employer une fonction de score qui maximise les taux de réponse à l'enquête pondérés par le poids économique en ce qui a trait aux principales variables d'intérêt, sous la contrainte d'un budget de suivi limité. Les deux types de fonctions de score étant fondés sur des méthodologies différentes, leur incidence sur les estimations finales pourrait ne pas être la même.

      La présente étude consiste à comparer, d'une manière générale, les deux types de fonctions de score en s'appuyant sur des données concernant la collecte recueillies au cours des deux dernières années. Aux fins des comparaisons, chaque type de fonction de score est appliqué aux mêmes données et diverses estimations de variables financières et de variables liées aux marchandises (biens et services) pour lesquelles des données sont publiées sont calculées, ainsi que leur écart par rapport à la pseudo valeur réelle et leur écart quadratique moyen, en se fondant sur chaque méthode. Ces estimations de l'écart et de l'écart quadratique moyen calculées selon chaque méthode sont ensuite utilisées pour mesurer l'effet de chaque fonction de score sur les estimations finales des variables financières et des variables liées aux biens et services.

      Date de diffusion : 2009-12-03

    • Articles et rapports : 11-522-X200800010967
      Description :

      Le présent article traite du contexte de l'utilisation du langage XBRL (eXtensible Business Reporting Language) et de la participation de Statistics Netherlands au projet de taxonomie des Pays-Bas. La discussion porte principalement sur le contexte statistique de l'utilisation de XBRL et de la taxonomie des Pays-Bas pour préciser les termes de données aux sociétés.

      Date de diffusion : 2009-12-03

    • Articles et rapports : 11-536-X200900110803
      Description :

      L'estimateur GREG « traditionnel » est utilisé ici pour renvoyer à l'estimateur de régression généralisée qui a fait l'objet de longues discussions, notamment dans le document de Särndal, Swensson et Wretman (1992). Le document résume certaines nouvelles applications de l'estimateur GREG traditionnel dans le cadre de l'estimation des totaux des sous-groupes de population ou des domaines. L'estimation GREG a été mise en pratique pour l'estimation des domaines dans Särndal (1981, 1984), Hidiroglou et Särndal (1985) et Särndal et Hidiroglou (1989); cette application a été examinée de plus près dans l'article de Estevao, Hidiroglou et Särndal (1995). Pour l'estimateur GREG traditionnel, le modèle linéaire à effets fixes sert de modèle sous-jacent de travail ou de soutien, et les totaux auxiliaires au niveau agrégé sont intégrés dans la procédure d'estimation. Dans certains modèles récents, on suppose que l'accès aux données auxiliaires au niveau de l'unité pour l'estimation GREG sur domaines est disponible. De toute évidence, l'accès au registre micro-fusionné et aux données d'enquêtes nécessite une grande souplesse pour l'estimation de domaines. Ce point de vue a été adopté pour l'estimation GREG, notamment dans Lehtonen et Veijanen (1998), Lehtonen, Särndal et Veijanen (2003, 2005), et Lehtonen, Myrskylä, Särndal et Veijanen (2007). Ces nouvelles applications englobent les cas de variables réponses continues et binaires ou polytomiques, l'utilisation de modèles mixtes linéaires généralisés comme modèles de soutien et des plans de sondage probabilistes inégaux. Les mérites relatifs et les défis associés aux divers estimateurs GREG seront soulevés.

      Date de diffusion : 2009-08-11

    • Articles et rapports : 11-536-X200900110807
      Description :

      On a démontré que la calibration à des modèles (Wu et Sitter, JASA 2001) produit des estimations plus efficaces que la calibration classique lorsque les valeurs d'une ou plusieurs variables auxiliaires sont disponibles pour chaque unité de la population et que les relations entre de telles variables et les variables d'intérêt sont plus complexes qu'une relation linéaire. La calibration à un modèle, par contre, fournit un ensemble de poids différents pour chaque variable d'intérêt. Pour surmonter ce problème, un estimateur est proposé: on vise à calibrer simultanément par rapport aux valeurs des variables auxiliaires et par rapport aux valeurs prédites de la variables d'intérêt obtenues par des modèles paramétriques et/ou nonparamétriques. Ceci permet d'obtenir la cohérence entre les estimations et plus d'efficacité si le modèle est bien spécifié. On étudie les propriétés asymptotiques de l'estimateur résultant par rapport au plan de sondage. On traite de la question de la grande variabilité des poids en relâchant des contraintes fermes sur les variables qui sont inclues pour des raisons d'efficacité dans les équations de calibration. On présente aussi une étude par simulations pour mieux comprendre le comportement de l'estimateur proposé dans de petits échantillons.

      Date de diffusion : 2009-08-11
    Données (0)

    Données (0) (0 résultat)

    Aucun contenu disponible actuellement

    Analyses (52)

    Analyses (52) (0 à 10 de 52 résultats)

    • Articles et rapports : 82-003-X202400500002
      Description : La disponibilité de mesures permettant d’opérationnaliser la charge allostatique — les conséquences cumulatives sur le corps de l’exposition à des stresseurs — dans le cadre des enquêtes sur la santé de la population peut varier d’une année ou d’une enquête à l’autre, ce qui entrave les analyses portant sur l’ensemble de la population échantillonnée. L’étude a permis d’évaluer les incidences de la sélection des variables et de la méthode de calcul pour créer un indice de charge allostatique applicable à l’ensemble des cycles de l’Enquête canadienne sur les mesures de la santé (ECMS). Les données de l’ECMS ont été utilisées pour comparer les variations des valeurs des indices de charge allostatique au niveau des personnes et de la population pour lesquelles d’autres mesures couramment utilisées ont été remplacées par le rapport taille-hanche. Les liens entre les divers concepts les indicateurs de la situation socioéconomique ont ensuite été évalués pour déterminer si les relations étaient maintenues entre les indices.
      Date de diffusion : 2024-05-15

    • Stats en bref : 98-20-00032021029
      Description : Cette vidéo est conçue pour vous donner une compréhension de base des questions et des concepts relatifs au travail. Elle présente les trois sous-thèmes de données qui sont collectés à partir des 14 questions sur le travail. Elle vous aidera à comprendre la population cible des données sur le travail, pourquoi les questions sur le travail sont posées et les périodes de référence des questions sur le travail.
      Date de diffusion : 2023-03-29

    • Articles et rapports : 11-633-X2021001
      Description :

      À l’aide des données de l’Enquête canadienne sur le logement (ECL), le présent projet visait à établir une mesure de l’inclusion sociale, laquelle repose sur des indicateurs déterminés par la Société canadienne d’hypothèques et de logement (SCHL), afin de faire état de la cote d’inclusion sociale de chaque strate géographique séparément pour les logements qui sont ou non des logements sociaux et abordables. Ce projet visait en outre à examiner les associations entre l’inclusion sociale et un ensemble de variables économiques, sociales et sanitaires.

      Date de diffusion : 2021-01-05

    • Articles et rapports : 11F0019M2016376
      Description : La mesure dans laquelle les travailleurs se déplacent d’une région géographique à une autre, que ce soit en raison de possibilités d’emploi émergentes ou à la suite de chocs défavorables sur la demande de main d’œuvre, constitue un élément clé entrant dans le processus d’ajustement d’une économie et dans la capacité de cette dernière à assurer une répartition adéquate des ressources.

      La présente étude a pour but d’estimer l’effet causal des traitements et salaires annuels réels après impôt sur la propension des jeunes hommes à migrer vers l’Alberta ou à y accepter des emplois tout en continuant de résider dans leur province d’origine. À cette fin, l’étude tire parti de la variation interprovinciale de la croissance des revenus, induite vraisemblablement par des hausses des cours mondiaux du pétrole durant les années 2000.

      Date de diffusion : 2016-04-11

    • Articles et rapports : 12-001-X201500214236
      Description :

      Nous proposons une extension assistée par modèle des mesures de l’effet de plan dû à la pondération. Nous élaborons une statistique de niveau sommaire pour différentes variables d’intérêt, sous échantillonnage à un degré et ajustement des poids par calage. La mesure de l’effet de plan que nous proposons traduit les effets conjoints d’un plan d’échantillonnage avec probabilités de sélection inégales, des poids inégaux produits en utilisant des ajustements par calage et de la force de l’association entre la variable d’analyse et les variables auxiliaires utilisées pour le calage. Nous comparons la mesure proposée aux mesures existantes de l’effet de plan au moyen de simulations en utilisant des variables semblables à celles pour lesquelles des données sont recueillies dans les enquêtes auprès des établissements et dans les enquêtes téléphoniques auprès des ménages.

      Date de diffusion : 2015-12-17

    • Articles et rapports : 12-001-X201500114199
      Description :

      Dans les enquêtes auprès des entreprises, il est courant de collecter des variables économiques dont la distribution est fortement asymétrique. Dans ce contexte, la winsorisation est fréquemment utilisée afin de traiter le problème des valeurs influentes. Cette technique requiert la détermination d’une constante qui correspond au seuil à partir duquel les grandes valeurs sont réduites. Dans cet article, nous considérons une méthode de détermination de la constante qui consiste à minimiser le plus grand biais conditionnel estimé de l’échantillon. Dans le contexte de l’estimation pour des domaines, nous proposons également une méthode permettant d’assurer la cohérence entre les estimations winsorisées calculées au niveau des domaines et l’estimation winsorisée calculée au niveau de la population. Les résultats de deux études par simulation suggèrent que les méthodes proposées conduisent à des estimateurs winsorisés ayant de bonnes propriétés en termes de biais et d’efficacité relative.

      Date de diffusion : 2015-06-29

    • Articles et rapports : 12-001-X201400114002
      Description :

      Nous proposons une approche d’imputation multiple des réponses manquant aléatoirement dans les enquêtes à grande échelle qui ne portent que sur des variables catégoriques présentant des zéros structurels. Notre approche consiste à utiliser des mélanges de lois multinomiales comme outils d’imputation et à tenir compte des zéros structurels en concevant les données observées comme un échantillon tronqué issu d’une population hypothétique ne contenant pas de zéros structurels. Cette approche possède plusieurs caractéristiques intéressantes : les imputations sont générées à partir de modèles bayésiens conjoints cohérents qui tiennent compte automatiquement des dépendances complexes et s’adaptent facilement à de grands nombres de variables. Nous décrivons un algorithme d’échantillonnage de Gibbs pour mettre en œuvre l’approche et illustrons son potentiel au moyen d’une étude par échantillonnage répété en utilisant des microdonnées de recensement à grande diffusion provenant de l’État de New York, aux États Unis.

      Date de diffusion : 2014-06-27

    • Articles et rapports : 12-001-X201300211871
      Description :

      Les modèles de régression sont utilisés couramment pour analyser les données d'enquête lorsque l'on souhaite déterminer quels sont les facteurs influents associés à certains indices comportementaux, sociaux ou économiques au sein d'une population cible. Lorsque des données sont recueillies au moyen d'enquêtes complexes, il convient de réexaminer les propriétés des approches classiques de sélection des variables élaborées dans des conditions i.i.d. ne faisant pas appel au sondage. Dans le présent article, nous dérivons un critère BIC fondé sur la pseudovraisemblance pour la sélection des variables dans l'analyse des données d'enquête et proposons une approche de vraisemblance pénalisée dans des conditions de sondage pour sa mise en oeuvre. Les poids de sondage sont attribués comme il convient pour corriger le biais de sélection causé par la distorsion entre l'échantillon et la population cible. Dans un cadre de randomisation conjointe, nous établissons la cohérence de la procédure de sélection proposée. Les propriétés en échantillon fini de l'approche sont évaluées par des analyses et des simulations informatiques en se servant de données provenant de la composante de l'hypertension de l'Enquête sur les personnes ayant une maladie chronique au Canada de 2009.

      Date de diffusion : 2014-01-15

    • Articles et rapports : 12-001-X201300211884
      Description :

      Le présent article offre une solution au problème de la détermination de la stratification optimale de la base de sondage de la population disponible en vue de minimiser le coût de l'échantillon requis pour satisfaire aux contraintes de précision sur un ensemble d'estimations cibles différentes. La solution est recherchée en explorant l'univers de toutes les stratifications qu'il est possible d'obtenir par classification croisée des variables auxiliaires catégoriques disponibles dans la base de sondage (les variables auxiliaires continues peuvent être transformées en variables catégoriques par des méthodes appropriées). Par conséquent, l'approche suivie est multivariée en ce qui concerne les variables cibles ainsi que les variables auxiliaires. L'algorithme proposé est fondé sur une approche évolutionniste non déterministe qui fait appel au paradigme de l'algorithme génétique. La caractéristique principale de l'algorithme est que l'on considère chaque stratification possible comme un individu susceptible d'évoluer dont l'adaptation est mesurée par le coût de l'échantillon associé requis pour satisfaire à un ensemble de contraintes de précision, ce coût étant calculé en appliquant l'algorithme de Bethel pour une répartition multivariée. Cet algorithme de stratification optimale, implémenté dans un module (ou package) R (SamplingStrata), a été appliqué jusqu'à présent à un certain nombre d'enquêtes courantes à l'Institut national de statistique de l'Italie : les résultats montrent systématiquement une amélioration importante de l'efficacité des échantillons obtenus comparativement aux stratifications adoptées antérieurement.

      Date de diffusion : 2014-01-15

    • Articles et rapports : 12-001-X201300211888
      Description :

      Lorsque les variables étudiées sont fonctionnelles et que les capacités de stockage sont limitées ou que les coûts de transmission sont élevés, les sondages, qui permettent de sélectionner une partie des observations de la population, sont des alternatives intéressantes aux techniques de compression du signal. Notre étude est motivée, dans ce contexte fonctionnel, par l'estimation de la courbe de charge électrique moyenne sur une période d'une semaine. Nous comparons différentes stratégies d'estimation permettant de prendre en compte une information auxiliaire telle que la consommation moyenne de la période précédente. Une première stratégie consiste à utiliser un plan de sondage aléatoire simple sans remise, puis de prendre en compte l'information auxiliaire dans l'estimateur en introduisant un modèle linéaire fonctionnel. La seconde approche consiste à incorporer l'information auxiliaire dans les plans de sondage en considérant des plans à probabilités inégales tels que les plans stratifiés et les plans pi. Nous considérons ensuite la question de la construction de bandes de confiance pour ces estimateurs de la moyenne. Lorsqu'on dispose d'estimateurs performants de leur fonction de covariance et si l'estimateur de la moyenne satisfait un théorème de la limite centrale fonctionnel, il est possible d'utiliser une technique rapide de construction de bandes de confiance qui repose sur la simulation de processus Gaussiens. Cette approche est comparée avec des techniques de bootstrap qui ont été adaptées afin de tenir compte du caractère fonctionnel des données.

      Date de diffusion : 2014-01-15
    Références (30)

    Références (30) (20 à 30 de 30 résultats)

    • Enquêtes et programmes statistiques — Documentation : 11-522-X19980015020
      Description :

      Fin 1993, Eurostat a pris la décision de lancer un panel communautaire de ménages. La première vague, réalisée en 1994 dans les douze pays de l'Union, a touché en France environ 7.300 ménages, comportant un peu plus de 14.000 adultes de 17 ans ou plus. Chaque individu devait alors être suivi et interrogé chaque année, même en cas de déménagement. Les individus disparaissant de l'échantillon présentent un profil particulier. Dans une première partie, nous présentons le schéma d'évolution de notre échantillon ainsi qu'une analyse des caractéristiques principales des non-répondants. Nous proposons ensuite deux modèles de correction de la non-réponse par catégories homogènes. Nous décrivons ensuite les distributions des poids longitudinaux obtenus selon les deux modèles, et des poids transversaux dérivés, calculés selon la méthode de partage des poids. Nous comparons enfin les valeurs de quelques indicateurs estimés à l'aide de l'un ou l'autre jeu de pondérations.

      Date de diffusion : 1999-10-22

    • Enquêtes et programmes statistiques — Documentation : 11-522-X19980015037
      Description :

      Pour des données longitudinales, les modéles mixtes sont fréquemment utilisés puisqu'ils permettent de tenir compte de la corrélation entre les observations provenant d'un même individu. Le modèle pour un mélange fini de distributions peut être considéré comme un cas particulier d'un modéle mixte. Dans ce document, on portera l'attention sur la méthode du maximum de vraisemblance. La maximisation de la fonction de vraisemblance pour un mélange fini de distributions est généralement plus ardue que dans le cas usuel d'une seule distribution et peut exiger beaucoup de temps. L'objectif de ce travail a donc consisté principalement à déterminer le(s) algorithme(s) qui satisfait(ont) au mieux les critères de temps d'exécution et d'efficacité pour trouver la solution. Pour atteindre cet objectif, on a effectué une étude de simulation. On n'a considéré que la situation dans laquelle la variable dépendante est dichotomique. Cette situation est très utile en pratique puisqu'elle sert, entre autres, à modéliser des durées discrètes telle que la durée dans l'état "faible revenu".

      Date de diffusion : 1999-10-22

    • Avis et consultations : 92-126-S
      Description :

      Le présent rapport fait état des résultats du processus de consultation sur la géographie en prévision du recensement de 2001. Lors de la conférence fédérale-provinciale tenue en juin 1998 sur le recensement de 2001, la géographie a été décrite comme étant la « pierre angulaire » du recensement. D'après les présentations reçues au cours de la dernière année, de nombreux utilisateurs sont du même avis. Ce sont les régions géographiques normalisées qui déterminent le cadre dans lequel les données seront diffusées. Ce sont par ailleurs les utilisateurs qui, grâce au processus de consultation, influent sur les modifications qu'on recommande aux genres de régions géographiques normalisées pour chaque recensement.

      Date de diffusion : 1999-03-31

    • Avis et consultations : 13F0026M1999001
      Description :

      Les objectifs principaux d'une nouvelle enquête canadienne sur les biens et les dettes des familles et des particuliers seront de mettre à jour les données existantes sur le patrimoine qui remontent à plus de 10 ans; de produire des estimations plus fiables du patrimoine; et, de servir d'outil principal pour l'analyse de nombreux dossiers publics importants ayant trait à la distribution des avoirs et des dettes, aux possibilités de consommation future et à l'épargne, dossiers auxquels s'intéressent les administrations publiques, les entreprises et les collectivités.

      Ce document est la pierre angulaire qui a servi au développement de la nouvelle enquête sur les avoirs et les dettes, renommée depuis l'Enquête sur la sécurité financière. Il examine le cadre conceptuel de l'enquête, y compris l'unité de mesure appropriée (famille, ménage ou particulier) et traite de la question concernant les mesures comme la création d'un cadre comptable pour les avoirs et les dettes. Il fait aussi état des variables susceptibles d'être incluses dans l'enquête. Ce rapport soumet plusieurs questions aux lecteurs et cherche à obtenir des commentaires et de la rétroaction.

      Date de diffusion : 1999-03-23

    • Enquêtes et programmes statistiques — Documentation : 81-580-X
      Description :

      Le secteur de l'éducation et de la formation des adultes est aussi complexe que dynamique. Afin d'en cerner toutes les facettes, Statistique Canada conduit plusieurs enquêtes auprès de clientèles très variées. Étant donné la diversité des sources de données et leurs différences conceptuelles et méthodologiques, il est parfois très difficile pour les chercheurs ou les décideurs publics de trouver les informations ou données désirées. Ce guide est un outil qui devrait permettre de faciliter ce travail. Il décrit sommairement toutes les enquêtes de Statistique Canada qui touchent l'éducation ou la formation des adultes. Il permet, à partir d'une variable sélectionnée, d'identifier les enquêtes susceptibles de fournir des informations. Il indique également les publications pertinentes et comment obtenir des informations additionnelles.

      Date de diffusion : 1997-03-12

    • Enquêtes et programmes statistiques — Documentation : 75F0002M199303B
      Description :

      Dans ce document, on présente des renseignements détaillés sur les diverses variables spécifiques liées aux fichiers de microdonnées de l'Enquête sur la dynamique du travail et du revenu (EDTR).

      Date de diffusion : 1995-12-30

    • Enquêtes et programmes statistiques — Documentation : 75F0002M1994006
      Description :

      Dans ce document, on décrit le travail accompli jusqu'à ce jour concernant l'élaboration de variables dérivées au niveau des ménages et des familles de l'Enquête sur la dynamique du travail et du revenu (EDTR).

      Date de diffusion : 1995-12-30

    • Enquêtes et programmes statistiques — Documentation : 75F0002M1994008
      Description :

      Ce document décrit le contenu de l'enquête qui a été élaboré en vue du questionnaire sur les données liées au revenu de l'Enquête sur la dynamique du travail et du revenu (EDTR). On y examine également les procédures de l'enquête.

      Date de diffusion : 1995-12-30

    • Enquêtes et programmes statistiques — Documentation : 75F0002M1994018
      Description :

      Dans ce document, on décrit les variables dérivées à caractère démographique, culturel et géographique de l'Enquête sur la dynamique du travail et du revenu (EDTR).

      Date de diffusion : 1995-12-30

    • Enquêtes et programmes statistiques — Documentation : 75F0002M1995018
      Description :

      Dans ce document, on donne un aperçu des variables du premier fichier de microdonnées de l'Enquête sur la dynamique du travail et du revenu (EDTR).

      Date de diffusion : 1995-12-30
    Date de modification :