Inférence et fondements

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Géographie

1 facets displayed. 0 facets selected.

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (100)

Tout (100) (60 à 70 de 100 résultats)

  • Articles et rapports : 11-522-X20020016730
    Description :

    Une vaste gamme de modèles utilisés dans le domaine de la recherche sociale et économique peuvent être représentés en spécifiant une structure paramétrique pour les covariances des variables observées. L'existence de logiciels tels que LISREL (Jöreskog et Sörbom, 1988) et EQS (Bentler, 1995) a permis d'ajuster ces modèles aux données d'enquêtes dans de nombreuses applications. Dans cet article, on étudie deux inférences au sujet de ce genre de modèle en utilisant des données d'enquêtes à plan d'échantillonnage complexe. On examine les preuves de l'existence de biais d'échantillon fini dans l'estimation des paramètres et les moyens de réduire ces biais (Altonji et Segal, 1996), ainsi que les questions connexes de l'efficacité de l'estimation, de l'estimation de l'erreur type et des tests. On utilise des données longitudinales provenant de la British Household Panel Survey en guise d'illustration. La collecte de ces données étant sujette à l'érosion de l'échantillon, on examine aussi comment utiliser des poids de non réponse dans la modélisation.

    Date de diffusion : 2004-09-13

  • Articles et rapports : 11-522-X20020016731
    Description :

    En recherche behavioriste, diverses techniques sont utilisées pour prédire les scores des répondants pour des facteurs ou des concepts que l'on ne peut observer directement. La satisfaction concernant l'emploi, le stress au travail, l'aptitude à poursuivre des études de deuxième ou de troisième cycle et les aptitudes mathématiques des enfants en sont des exemples. Les méthodes utilisées couramment pour modéliser ce genre de concepts incluent l'analyse factorielle, la modélisation d'équation structurelle, les échelles psychométriques classiques et la théorie de la réponse à l'item, et, pour chaque méthode, il existe souvent plusieurs stratégies distinctes permettant de produire des scores individuels. Cependant, les chercheurs se satisfont rarement de simples mesures de ces concepts. Souvent, ils utilisent des scores dérivés en tant que variables dépendantes ou indépendantes dans la régression multiple, l'analyse de la variance et de nombreuses autres procédures multivariées. Bien que ces applications de scores dérivés puissent produire des estimations biaisées des paramètres des modèles structuraux, ces difficultés sont mal comprises et souvent ignorées. Nous passerons en revue les publications qui traitent de la question, en mettant l'accent sur les méthodes de la TRI, en vue de déterminer quels sont les domaines problématiques et de formuler des questions à étudier dans l'avenir.

    Date de diffusion : 2004-09-13

  • Articles et rapports : 11-522-X20020016733
    Description :

    Bien qu'on considère souvent que les recensements et les enquêtes donnent des mesures des populations telles qu'elles sont, la plupart reflètent les renseignements sur les particuliers tels qu'ils étaient au moment où la mesure a été effectuée, voire à un point antérieur dans le temps. Par conséquent, les inférences faites à partir de telles données doivent tenir compte des changements qui surviennent au fil du temps à l'échelle de la population et des particuliers. Dans cet article, on fournit un cadre unique pour ce type de problèmes d'inférence, en l'illustrant au moyen de divers exemples, dont : 1) l'estimation de la situation de résidence le jour du recensement d'après des dossiers administratifs multiples; 2) la combinaison de dossiers administratifs pour estimer la taille de la population des États-Unis; 3) l'utilisation de moyennes mobiles tirées de l'American Community Survey; 4) l'estimation de la prévalence de l'abus des droits de l'homme.

    Plus précisément, à l'échelle de la population, les variables étudiées, telles que la taille ou les caractéristiques moyennes d'une population, pourraient évoluer. Parallèlement, des sujets individuels pourraient rentrer dans le champ de l'étude ou en sortir, ou changer de caractéristiques. Ces changements au fil du temps peuvent avoir des répercussions sur les études statistiques de données gouvernementales qui regroupent des renseignements provenant de sources multiples, y compris des recensements, des enquêtes et des dossiers administratifs, une pratique de plus en plus courante. Les inférences d'après les bases de données fusionnées résultantes dépendent souvent fortement de choix particuliers faits au moment de combiner, de vérifier et d'analyser les données qui reflètent des hypothèses quant à l'évolution ou à la stabilité de la population au fil du temps.

    Date de diffusion : 2004-09-13

  • Articles et rapports : 11-522-X20020016743
    Description :

    On s'intéresse beaucoup à l'utilisation de données provenant d'enquêtes longitudinales pour comprendre les processus qui surviennent au cours de la vie, comme la scolarité, l'emploi, la fécondité, la santé et le mariage. L'analyse des données sur la durée des épisodes que vivent les personnes dans certains états (par exemple, l'emploi, le mariage) est un des outils principaux de l'étude de ces processus. Cet article porte sur les méthodes d'analyse des données sur la durée qui tiennent compte de caractéristiques importantes des enquêtes longitudinales, à savoir l'utilisation de plans d'échantillonnage complexes dans des populations hétérogènes, l'absence ou l'inexactitude des renseignements sur le moment où ont lieu les événements et la possibilité qu'il existe des mécanismes de retrait de l'enquête ou de censure des données qui ne peuvent être ignorés. On considère des méthodes paramétriques et non paramétriques d'estimation et de vérification des modèles. On propose de nouvelles méthodes, ainsi que des méthodes existantes qu'on applique à l'analyse des données sur la durée provenant de l'Enquête sur la dynamique du travail et du revenu (EDTR) réalisée au Canada.

    Date de diffusion : 2004-09-13

  • Articles et rapports : 11-522-X20020016745
    Description :

    L'attrait du plan expérimental de discontinuité de la régression tient à sa grande similarité avec un plan expérimental normal. Cependant, son applicabilité est limitée, puisqu'il n'est pas très fréquent que les unités soient affectées au groupe subissant le traitement d'après une mesure observable (par l'analyste) avant le programme. En outre, il permet uniquement de déterminer l'effet moyen sur une sous population très spécifique. Dans cet article, on montre que le plan expérimental de discontinuité de la régression peut être généralisé facilement aux cas où l'admissibilité des unités est établie d'après une mesure observable avant le programme et où est permise l'autosélection libre des unités admissibles dans le programme. Ces conditions s'avèrent aussi fort pratiques pour la construction d'un test de spécification sur des estimateurs non expérimentaux conventionnels de l'effet moyen du programme. On décrit explicitement les exigences concernant les données.

    Date de diffusion : 2004-09-13

  • Articles et rapports : 11-522-X20020016750
    Description :

    Les analyses de données provenant d'enquêtes sociales et économiques s'appuient parfois sur des modèles à fonction généralisée de la variance pour adoucir la variance due au plan de sondage des estimateurs ponctuels des moyennes et des proportions de population. Les analystes peuvent utiliser les estimations résultantes de l'erreur type pour calculer les intervalles de confiance ou les variables à tester pour les moyennes et les proportions étudiées. Comparativement aux estimateurs de la variance basés sur le plan de sondage calculés directement à partir des microdonnées d'enquête, les modèles à fonction généralisée de la variance peuvent offrir plusieurs avantages. Comme le révèle cette étude, ces avantages sont la simplicité des opérations, une plus grande stabilité des erreurs types et, dans le cas où l'on utilise des ensembles de données à grande diffusion, la réduction des problèmes de limitation de la divulgation des renseignements personnels que pose la grande diffusion d'indicateurs de strates et de grappes.

    Cependant, plusieurs problèmes d'inférence peuvent annuler en partie ces avantages éventuels. Premièrement, les propriétés des statistiques inférentielles fondées sur des fonctions généralisées de la variance (par exemple, le taux de couverture et de largeur des intervalles de confiance) dépendent fortement de l'importance empirique relative des composantes de la variabilité associée, respectivement, à :

    a) la sélection aléatoire d'un sous-ensemble d'items utilisés pour estimer le modèle à fonction généralisée de la variance; b) la sélection d'unités d'échantillonnage conformément à un plan d'échantillonnage complexe; (c) le mauvais ajustement du modèle à fonction généralisée de la variance; d) la génération d'une population finie sous les conditions d'un modèle de superpopulation.

    Deuxièmement, sous certaines conditions, on peut lier chacune des composantes (a) à (d) à diverses mesures empiriques de l'adéquation prédictive d'un modèle à fonction généralisée de la variance. Par conséquent, ces mesures d'adéquation prédictive peuvent fournir certains éclaircissements sur la mesure à laquelle un modèle à fonction généralisée de la variance donné convient à l'inférence dans des applications particulières.

    Enfin, certains tests et diagnostics proposés sont appliqués aux données de la U.S. Survey of Doctoral Recipients et de la U.S. Current Employment Survey. La Survey of Doctoral Recipients s'occupe principalement des composantes (a), (c) et (d), alors que la Current Employment Survey accorde plutôt de l'importance aux composantes (b), (c) et (d). La disponibilité de microdonnées de population permet le développement de modèles particulièrement détaillés pour les composantes (b) et (c).

    Date de diffusion : 2004-09-13

  • Articles et rapports : 12-001-X20030026785
    Description :

    L'une des méthodes permettant d'éviter les divulgations consiste à diffuser des ensembles de microdonnées à grande diffusion partiellement synthétiques. Ces ensembles comprennent les unités enquêtés au départ, mais certaines valeurs recueillies, comme celles de nature délicate présentant un haut risque de divulgation ou celles d'identificateurs clés, sont remplacées par des imputations multiples. Bien qu'on recoure à l'heure actuelle à des approches partiellement synthétiques pour protéger les données à grande diffusion, on ne les a pas encore assorties de méthodes d'inférence valides. Le présent article décrit de telles méthodes. Elles sont fondées sur les concepts de l'imputation multiple en vue de remplacer des données manquantes, mais s'appuient sur des règles différentes pour combiner les estimations ponctuelles et les estimations de la variance. Ces règles de combinaison diffèrent aussi de celles élaborées par Raghunathan, Reiter et Rubin (2003) pour les ensembles de données entièrement synthétiques. La validité de ces nouvelles règles est illustrée au moyen d'études par simulation.

    Date de diffusion : 2004-01-27

  • Articles et rapports : 12-001-X20030016610
    Description :

    En présence de non-réponse partielle, en pratique, on recourt souvent à des méthodes d'imputation non pondérée, mais celles-ci produisent généralement des estimateurs biaisés sous l'hypothèse d'une réponse uniforme à l'intérieur des classes d'imputation. En nous inspirant de Skinner et Rao (2002), nous proposons un estimateur corrigé pour le biais d'une moyenne de population sous imputation par le ratio non pondérée et sous imputation aléatoire hot-deck, et nous calculons des estimateurs de la variance par linéarisation. Nous réalisons une petite étude en simulation pour évaluer les propriétés de biais et d'erreur quadratique moyenne des estimateurs obtenus. Nous étudions aussi le biais relatif et la stabilité relative des estimateurs de la variance.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 92F0138M2003002
    Description :

    Le présent document de travail, qui décrit les régions métropolitaines de recensement et les agglomérations de recensement provisoires pour le Recensement de 2006, est présenté aux fins de recueillir les commentaires des utilisateurs. Il décrit brièvement les facteurs qui ont mené à la modification de certaines régions métropolitaines de recensement et agglomérations de recensement, et comprend des tableaux et des cartes qui énumèrent et illustrent les changements apportés à leurs limites et aux subdivisions de recensement composantes.

    Date de diffusion : 2003-07-11

  • Articles et rapports : 92F0138M2003001
    Description :

    L'objectif de ce document de travail est d'évaluer dans quelle mesure la méthode actuelle dont se sert le Canada pour délimiter les régions métropolitaines de recensement (RMR) et les agglomérations de recensement (AR) reflète bien la nature métropolitaine de ces régions géographiques selon les installations et les services qu'elles offrent. En appliquant un modèle fonctionnel aux RMR et aux AR de Statistique Canada, on peut évaluer l'efficacité de la méthode de délimitation du Canada.

    À la suite de la recherche faite pour ce document de travail, Statistique Canada a proposé d'abaisser le seuil de population du noyau urbain utilisé pour définir une RMR : une AR deviendra une RMR si sa population totale atteint 100 000 habitants et que 50 000 de ceux-ci résident dans le noyau urbain. On a consulté les utilisateurs à ce sujet à l'automne 2002. Cela faisait partie du processus de détermination du contenu du recensement de 2006.

    Date de diffusion : 2003-03-31
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (92)

Analyses (92) (10 à 20 de 92 résultats)

  • Articles et rapports : 12-001-X202200200008
    Description :

    La présente réponse contient des remarques supplémentaires sur certaines questions soulevées par les participants à la discussion.

    Date de diffusion : 2022-12-15

  • Articles et rapports : 12-001-X202200200011
    Description :

    L’échantillonnage à deux phases est un plan de sondage rentable couramment utilisé dans les enquêtes. Le présent article propose une méthode optimale d’estimation linéaire des totaux dans un échantillonnage à deux phases, qui exploite au mieux l’information auxiliaire de l’enquête. Tout d’abord, on calcule formellement un meilleur estimateur linéaire sans biais (MELSB) de tout total sous une forme analytique, et on démontre qu’il s’agit d’un estimateur par calage. Ensuite, la reformulation appropriée du MELSB et l’estimation de ses coefficients inconnus permettent de construire un estimateur par la régression « optimal », qui peut également être obtenu au moyen d’une procédure de calage adéquate. Ce calage présente une caractéristique distinctive : l’alignement des estimations des deux phases dans une procédure en une étape comprenant les échantillons combinés de la première et de la deuxième phase. L’estimation optimale est faisable pour certains plans à deux phases souvent employés dans les enquêtes à grande échelle. Pour les plans généraux à deux phases, une autre procédure de calage donne un estimateur par la régression généralisée comme estimateur optimal approximatif. L’approche générale proposée d’estimation optimale permet d’utiliser le plus efficacement possible l’information auxiliaire disponible dans toute enquête à deux phases. Les avantages de cette méthode par rapport aux méthodes existantes d’estimation dans un échantillonnage à deux phases sont démontrés théoriquement et au moyen d’une étude par simulations.

    Date de diffusion : 2022-12-15

  • Articles et rapports : 12-001-X202200100004
    Description :

    Lorsque la taille de l’échantillon d’un domaine est faible, le fait d’emprunter des renseignements aux voisins est une technique d’estimation sur petits domaines qui permet d’obtenir des estimations plus fiables. L’un des modèles les plus connus en ce qui concerne l’estimation sur petits domaines est un modèle multinomial hiérarchique de Dirichlet pour les comptes multinomiaux. En raison des caractéristiques naturelles des données, il est pertinent d’émettre une hypothèse sur la restriction d’ordre unimodal dans le cas des espaces de paramètres. Dans notre application, l’indice de masse corporelle est plus susceptible de correspondre à un niveau de surpoids, ce qui signifie que la restriction d’ordre unimodal pourrait être raisonnable. La même restriction d’ordre unimodal pour tous les domaines pourrait être trop forte pour s’avérer dans certains cas. Pour accroître la souplesse, nous ajoutons une incertitude à la restriction d’ordre unimodal. Chaque domaine présentera des tendances unimodaux similaires, sans être identiques. Comme la restriction d’ordre intégrant de l’incertitude augmente la difficulté d’inférence, nous effectuons une comparaison avec les valeurs sommaires a posteriori et la pseudo-vraisemblance marginale logarithmique approximative.

    Date de diffusion : 2022-06-21

  • Articles et rapports : 12-001-X202200100009
    Description :

    La probabilité inverse, aussi connue en tant que l’estimateur de Horvitz-Thompson, est un outil de base de l’estimation pour une population finie. Même lorsque de l’information auxiliaire est disponible pour modéliser la variable d’intérêt, elle est utilisée pour estimer l’erreur du modèle. Dans la présente étude, l’estimateur de probabilité inverse est généralisé par l’introduction d’une matrice définie positive. L’estimateur de probabilité inverse habituel est un cas spécial de l’estimateur généralisé, dans lequel la matrice définie positive est la matrice identité. Étant donné que l’estimation par calage permet de chercher des poids qui sont proches des poids de probabilité inverse, elle peut également être généralisée pour permettre de chercher des poids qui sont proches de ceux de l’estimateur de probabilité inverse généralisé. Nous savons que le calage est optimal, car il atteint asymptotiquement la borne inférieure de Godambe-Joshi, et celle-ci a été obtenue à partir d’un modèle dépourvu de corrélation. Cette borne inférieure peut également être généralisée en vue de permettre des corrélations. En choisissant judicieusement la matrice définie positive qui généralise les estimateurs par calage, cette borne inférieure généralisée peut être atteinte de façon asymptotique. Bien souvent, il n’existe pas de formule analytique pour calculer les estimateurs généralisés. Toutefois, des exemples simples et clairs sont fournis dans la présente étude pour illustrer la façon dont les estimateurs généralisés tirent parti des corrélations. Cette simplicité s’obtient en supposant une corrélation de 1 entre certaines unités de la population. Ces estimateurs simples peuvent être utiles, même si cette corrélation est inférieure à 1. Des résultats de simulation sont utilisés pour comparer les estimateurs généralisés aux estimateurs ordinaires.

    Date de diffusion : 2022-06-21

  • Articles et rapports : 12-001-X202100200003
    Description :

    La pondération par calage est un moyen statistiquement efficace de traiter la non-réponse totale. En supposant que le modèle (ou la sortie) de la réponse justifiant l’ajustement du poids de calage est exact, il est souvent possible de mesurer la variance des estimations de façon asymptotique et sans biais. Une des manières d’estimer la variance consiste à créer des poids de rééchantillonnage jackknife. Cependant, il arrive que la méthode classique de calcul des poids de rééchantillonnage jackknife pour les poids d’analyse calés échoue. Dans ce cas, il existe généralement une autre méthode de calcul des poids de rééchantillonnage jackknife. Cette méthode est décrite ici et appliquée à un exemple simple.

    Date de diffusion : 2022-01-06

  • Articles et rapports : 12-001-X202100200006
    Description :

    Le calage fondé sur l’échantillon se produit quand les poids d’une enquête sont calés pour contrôler les totaux aléatoires, au lieu de représenter les totaux fixes au niveau de la population. Les totaux de contrôle peuvent être estimés à partir de différentes phases de la même enquête ou d’une autre enquête. En cas de calage fondé sur l’échantillon, pour que l’estimation de la variance soit valide, il est nécessaire de tenir compte de la contribution de l’erreur due à l’estimation des totaux de contrôle. Nous proposons une nouvelle méthode d’estimation de la variance qui utilise directement les poids de rééchantillonnage de deux enquêtes, dont une sert à fournir des totaux de contrôle pour le calage des autres poids d’enquête. Aucune restriction n’est établie quant à la nature des deux méthodes de rééchantillonnage et il n’est pas nécessaire de calculer d’estimation de la variance-covariance, ce qui simplifie la mise en œuvre pratique de la méthode proposée. Nous fournissons la description générale de la méthode utilisée pour les enquêtes comportant deux méthodes de rééchantillonnage arbitraire avec un nombre de répliques différent. Il est démontré que l’estimateur de la variance obtenu est convergent pour la variance asymptotique de l’estimateur calé, quand le calage est effectué au moyen de l’estimation par la régression ou la méthode itérative du quotient (raking). La méthode est illustrée dans une application réelle, dans laquelle il faut harmoniser la composition démographique de deux enquêtes pour améliorer la comparabilité des estimations de l’enquête.

    Date de diffusion : 2022-01-06

  • Articles et rapports : 12-001-X202000100001
    Description :

    Depuis plusieurs décennies, les agences nationales de statistique dans le monde utilisent des enquêtes probabilistes comme outil privilégié pour répondre à des besoins d’informations au sujet d’une population d’intérêt. Au cours des dernières années, on a observé un vent de changement et on considère de plus en plus d’autres sources de données. Cette tendance peut être expliquée par cinq facteurs principaux : le déclin des taux de réponse dans les enquêtes probabilistes, les coûts de collecte élevés, l’accroissement du fardeau sur les répondants, le désir d’avoir accès à des statistiques en « temps réel » et la prolifération des sources de données non probabilistes. Certaines personnes en sont même venues à croire que les enquêtes probabilistes pourraient graduellement disparaître. Dans cet article, nous passons en revue quelques approches qui permettent de réduire, voire éliminer, l’utilisation d’enquêtes probabilistes tout en conservant un cadre d’inférence statistique valide. Toutes les approches que nous considérons utilisent des données d’une source non probabiliste accompagnées, dans la plupart des cas, de données d’une enquête probabiliste. Certaines d’entre elles reposent sur la validité d’hypothèses de modèle ce qui contraste avec les approches fondées sur le plan de sondage probabiliste. Ces dernières sont généralement moins efficaces mais, en contrepartie, elles ne sont pas affectées par le risque de biais découlant d’une mauvaise spécification d’un modèle.

    Date de diffusion : 2020-06-30

  • Articles et rapports : 12-001-X201800254956
    Description :

    En Italie, l’Institut statistique national (ISTAT) mène tous les trimestres l’enquête sur la population active (EPA) et en tire des estimations de la situation d’activité de la population à différents niveaux géographiques. Il estime en particulier le nombre de salariés et de chômeurs en s’appuyant sur cette enquête pour les zones locales de marché du travail (ZLMT). En tant que ZLMT, on compte 611 grappes infrarégionales de municipalités. Ce sont là des domaines non planifiés pour lesquels les estimations directes sont entachées de trop grandes erreurs d’échantillonnage, d’où la nécessité de recourir aux méthodes d’estimation sur petits domaines (EPD). Nous exposerons ici une nouvelle méthode EPD à niveaux de zones avec un modèle latent ou caché de Markov (MLM) comme modèle de couplage. Dans de tels modèles, la caractéristique d’intérêt et son évolution dans le temps sont représentées par un processus caché en chaîne de Markov, habituellement du premier ordre. Ainsi, les zones en question sont à même de changer leur état latent dans le temps. Nous appliquons le modèle proposé aux données trimestrielles de l’EPA de 2004 à 2014 et l’ajustons dans un cadre bayésien hiérarchique au moyen d’un échantillonneur de Gibbs à augmentation de données. Nous comparons nos estimations à celles du modèle classique de Fay-Herriot, à un modèle EPD à niveaux de zones et en séries chronologiques et enfin aux données du recensement de la population de 2011.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 12-001-X201800154928
    Description :

    Un processus à deux phases a été utilisé par la Substance Abuse and Mental Health Services Administration pour estimer la proportion d’Américains adultes atteints d’une maladie mentale grave (MMG). La première phase correspondait à la National Survey on Drug Use and Health (NSDUH) réalisée annuellement, tandis que la seconde phase consistait en un sous-échantillon aléatoire d’adultes ayant répondu à la NSDUH. Les personnes qui ont répondu à la deuxième phase d’échantillonnage ont été soumises à une évaluation clinique visant à déceler les maladies mentales graves. Un modèle de prédiction logistique a été ajusté à ce sous-échantillon en prenant la situation de MMG (oui ou non) déterminée au moyen de l’instrument de deuxième phase comme variable dépendante, et les variables connexes recueillies dans la NSDUH auprès de tous les adultes comme variables explicatives du modèle. Des estimations de la prévalence de la MMG chez l’ensemble des adultes et au sein de sous-populations d’adultes ont ensuite été calculées en attribuant à chaque participant à la NSDUH une situation de MMG établie en comparant sa probabilité estimée d’avoir une MMG avec un seuil diagnostique choisi sur la distribution des probabilités prédites. Nous étudions d’autres options que cet estimateur par seuil diagnostique classique, dont l’estimateur par probabilité. Ce dernier attribue une probabilité estimée d’avoir une MMG à chaque participant à la NSDUH. La prévalence estimée de la MMG est la moyenne pondérée de ces probabilités estimées. Au moyen des données de la NSDUH et de son sous-échantillon, nous montrons que, même si l’estimateur par probabilité donne une plus petite erreur quadratique moyenne quand on estime la prévalence de la MMG parmi l’ensemble des adultes, il a une plus grande tendance que l’estimateur par seuil diagnostique classique à présenter un biais au niveau de la sous-population.

    Date de diffusion : 2018-06-21

  • Articles et rapports : 12-001-X201700254872
    Description :

    La présente note expose les fondements théoriques de l’extension de l’intervalle de couverture bilatéral de Wilson à une proportion estimée à partir de données d’enquêtes complexes. Il est démontré que l’intervalle est asymptotiquement équivalent à un intervalle calculé en partant d’une transformation logistique. Une légèrement meilleure version est examinée, mais les utilisateurs pourraient préférer construire un intervalle unilatéral déjà décrit dans la littérature.

    Date de diffusion : 2017-12-21
Références (8)

Références (8) ((8 résultats))

  • Enquêtes et programmes statistiques — Documentation : 11-522-X201300014259
    Description :

    Dans l’optique de réduire le fardeau de réponse des exploitants agricoles, Statistique Canada étudie d’autres approches que les enquêtes par téléphone pour produire des estimations des grandes cultures. Une option consiste à publier des estimations de la superficie récoltée et du rendement en septembre, comme cela se fait actuellement, mais de les calculer au moyen de modèles fondés sur des données par satellite et des données météorologiques, ainsi que les données de l’enquête téléphonique de juillet. Toutefois, avant d’adopter une telle approche, on doit trouver une méthode pour produire des estimations comportant un niveau d’exactitude suffisant. Des recherches sont en cours pour examiner différentes possibilités. Les résultats de la recherche initiale et les enjeux à prendre en compte sont abordés dans ce document.

    Date de diffusion : 2014-10-31

  • Enquêtes et programmes statistiques — Documentation : 12-002-X20040027035
    Description :

    Lors du traitement des données du cycle 4 de l'Enquête longitudinale nationale sur les enfants et les jeunes (ELNEJ), des révisions historiques ont été apportées au trois premiers cycles de l'enquête afin de corriger des erreurs et faire une mise à jour des données. Au cours du traitement, une attention particulière a été portée à la variable PERSRUK (l'identificateur au niveau de la personne) et à la variable FIELDRUK (l'identificateur au niveau du ménage). Le même niveau d'attention n'a pas été accordé aux autres identificateurs incluent dans la base de données, soit, la variable CHILDID (un identificateur au niveau de l'enfant) et la variable _IDHD01 (un identificateur au niveau du ménage). Ces identificateurs ont été créés pour les fichiers publics et ils se retrouvent par défaut dans les fichiers maîtres. Lorsque les fichiers maîtres sont utilisés, la variable PERSRUK devrait être utilisée pour lier les différents fichiers de données de l'enquête entre eux et la variable FIELDRUK pour déterminer le ménage.

    Date de diffusion : 2004-10-05

  • Enquêtes et programmes statistiques — Documentation : 13F0026M2001003
    Description :

    Les premiers résultats de l'Enquête sur la sécurité financière (ESF), qui fournit de l'information sur la valeur nette du patrimoine des Canadiens, ont été publiés le 15 mars 2001 dans Le quotidien. L'enquête a recueilli des renseignements sur la valeur des avoirs financiers et non financiers de chaque unité familiale et sur le montant de sa dette.

    Statistique Canada travaille actuellement à préciser cette première estimation de la valeur nette en y ajoutant une estimation de la valeur des droits à pension constitués dans les régimes de retraite d'employeur. Il s'agit d'un volet essentiel pour toute enquête sur l'avoir et la dette étant donné que, pour la plupart des unités familiales, c'est probablement l'un des avoirs les plus importants. Le vieillissement de la population rend l'information sur la constitution des droits à pension nécessaire afin de mieux comprendre la situation financière des personnes qui approchent de la retraite. Ces estimations mises à jour seront publiées à la fin de l'automne 2001.

    Le processus utilisé pour obtenir une estimation de la valeur des droits à pension constitués dans les régimes de pension agréés d'employeur (RPA) est complexe. Le présent document décrit la méthodologie utilisée pour estimer cette valeur en ce qui concerne les groupes suivants : a) Les personnes qui faisaient partie d'un RPA au moment de l'enquête (appelées membres actuels d'un régime de retraite); b) Les personnes qui ont déjà fait partie d'un RPA et qui ont laissé l'argent dans le régime de retraite ou qui l'ont transféré dans un nouveau régime de retraite; c) Les personnes qui touchent des prestations d'un RPA.

    Cette méthodologie a été proposée par Hubert Frenken et Michael Cohen. Hubert Frenken compte de nombreuses années d'expérience avec Statistique Canada où il a travaillé avec des données sur les régimes de retraite d'employeur. Michael Cohen fait partie de la direction de la firme d'actuariat-conseil William M. Mercer. Plus tôt cette année, Statistique Canada a organisé une consultation publique sur la méthodologie proposée. Le présent rapport inclut des mises à jour faites après avoir reçu les rétroactions des utilisateurs des données.

    Date de diffusion : 2001-09-05

  • Enquêtes et programmes statistiques — Documentation : 13F0026M2001002
    Description :

    L'Enquête sur la sécurité financière (ESF) fournira des renseignements sur la situation nette des Canadiens. C'est pourquoi elle a recueilli, en mai et juin 1999, des données sur la valeur de l'avoir et de la dette de chacune des familles ou personnes seules comprises dans l'échantillon. Il s'est avéré difficile de calculer ou d'estimer la valeur d'un avoir en particulier, à savoir la valeur actualisée du montant que les répondants ont constitué dans leur régime de retraite d'employeur. On appelle souvent ces régimes des régimes de pension agréés (RPA), car ils doivent être agréés par l'Agence des douanes et du revenu du Canada (ARDC) (c'est-à-dire enregistrés auprès de l'ADRC). Bien qu'on communique à certains participants à un RPA une estimation de la valeur de leurs droits constitués, ils l'ignorent dans la plupart des cas. Pourtant, il s'agit sans doute d'un des avoirs les plus importants pour bon nombre d'unités familiales. De plus, à mesure que la génération du baby boom se rapproche de la retraite, le besoin d'information sur ses rentes constituées se fait très pressant si l'on veut mieux comprendre sa capacité financière à négocier ce nouveau virage.

    La présente étude vise deux objectifs : décrire, pour stimuler des discussions, la méthodologie proposée en vue d'estimer la valeur actualisée des droits à pension pour les besoins de l'Enquête sur la sécurité financière; et recueillir des réactions à la méthodologie proposée. Le présent document propose une méthodologie pour estimer la valeur des droits constitués dans un régime d'employeur pour les groupes suivants : a) les personnes qui adhéraient à un RPA au moment de l'enquête (les «participants actuels»); b) les personnes qui ont déjà adhéré à un RPA et qui ont soit laissé leurs fonds dans le régime ou les ont transférés dans un nouveau régime; et c) les personnes qui touchent une rente prévue par un RPA.

    Date de diffusion : 2001-02-07

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015642
    Description :

    La Base de données longitudinale sur l'immigration (BDIM) établit un lien entre les dossiers administratifs de l'immigration et de l'impôt en une source exhaustive de données sur le comportement sur le marché du travail de la population des immigrants ayant obtenu le droit d'établissement au Canada. Elle porte sur la période de 1980 à 1995 et sera mise à jour en 1999 pour l'année d'imposition 1996. Statistique Canada gère la base de données pour le compte d'un consortium fédéral-provincial dirigé par Citoyenneté et Immigration Canada. Le présent document examine les enjeux du développement d'une base de données longitudinale combinant des dossiers administratifs, à l'appui de la recherche et de l'analyse en matière de politiques. L'accent est plus particulièrement mis sur les questions de méthodologie, de concepts, d'analyse et de protection des renseignements personnels découlant de la création et du développement continu de cette base de données. Le présent document aborde en outre brièvement les résultats des recherches, qui illustrent les liens en matière de résultats des politiques que la BDIM permet aux décideurs d'examiner.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015650
    Description :

    La U.S. Manufacturing Plant Ownership Change Database (OCD) a été créée d'après des données sur les usines extraites de la Longitudinal Research Database (LRD) du Census Bureau. Elle contient des données sur toutes les usines de fabrication qui ont changé de propriétaire au moins une fois entre 1963 et 1992. L'auteur fait le point sur l'OCD et examine les possibilités de recherche. Pour utiliser empiriquement ces possibilités, il se sert de données extraites de la base de données pour étudier le lien entre les changements de propriété et les fermetures d'usines.

    Date de diffusion : 2000-03-02

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015658
    Description :

    Le radon, qui est un gaz dont la présence est observée naturellement dans la plupart des maisons, est un facteur de risque confirmé pour le cancer du poumon chez les humains. Le National Research Council des États-Unis (1999) vient de terminer une évaluation approfondie du risque pour la santé de l'exposition résidentielle au radon, tout en élaborant des modèles de projection du risque de cancer pulmonaire dû au radon pour l'ensemble de la population. Cette analyse indique que le radon joue possiblement un rôle dans l'étiologie de 10-15 % des cas de cancer du poumon aux États-Unis, bien que ces estimations comportent une part appréciable d'incertitude. Les auteurs présentent une analyse partielle de l'incertidude et de la variabilité des estimations du risque de cancer pulmonaire dû à l'exposition résidentielle au radon, aux États-Unis, à l'aide d'un cadre général d'analyse de l'incertitude et de la variabilité établi antérieurement par ces mêmes auteurs. Plus particulièrement, il est question des estimations de l'excès de risque relatif (EFF) par âge et du risque relatif à vie (RRV), qui varient tous deux considérablement d'une personne à l'autre.

    Date de diffusion : 2000-03-02

  • Fichiers et documentation sur la géographie : 92F0138M1993001
    Géographie : Canada
    Description :

    Dans une perspective d'amélioration et de développement, les divisions de la géographie de Statistique Canada et du U.S. Bureau of the Census ont entrepris conjointement un programme de recherche pour étudier les régions géographiques, et la pertinence de ces dernières. Un des principaux objectifs poursuivis est la définition d'une région géographique commune qui servira de base géostatistique aux travaux transfrontaliers de recherche, d'analyse et de cartographie.

    Le présent rapport, première étape du programme de recherche, dresse la liste des régions géographiques normalisées canadiennes et américaines comparables d'après les définitions actuelles. Statistique Canada et l'U.S. Bureau of the Census ont deux grandes catégories d'entités géographiques normalisées: les régions administratives ou législatives (appelées entités "légales" aux États-Unis) et les régions statistiques.

    Ce premier appariement de régions géographiques s'est fait uniquement à partir des définitions établies pour le Recensement de la population et du logement du Canada du 4 juin 1991 et du Recensement de la population et du logement des États- Unis du 1er avril 1990. La comparabilité globale des concepts est l'aspect important d'un tel appariement, non pas les seuils numériques utilisés pour les délimitations des régions.

    Les utilisateurs doivent se servir du présent rapport comme d'un guide général pour comparer les régions géographiques de recensement du Canada et des États- Unis. Ils doivent garder à l'esprit que les types de peuplement et les niveaux de population présentent des différences qui font qu'une correspondance parfaite ne peut être établie entre des régions conceptuellement semblables. Les régions géographiques comparées dans le présent rapport peuvent servir de cadre pour d'autres recherches et d'autres analyses empiriques.

    Date de diffusion : 1999-03-05
Date de modification :