Recherche par mot-clé

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Géographie

1 facets displayed. 0 facets selected.

Portail

    Contenu

    1 facets displayed. 0 facets selected.
    Aide à l'ordre
    entrées

    Résultats

    Tout (82)

    Tout (82) (60 à 70 de 82 résultats)

    • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015684
      Description :

      Il arrive souvent qu'on recueille, de façon pratiquement simultaée, la même information sur plusieurs enquêtes différentes. En France, cela est institutionnalisé dans les enquêtes auprès des ménages qui comportent un tronc commun de variables portant sur la situation démographique, l'emploi, le logement et les revenus. Ces variables sont des cofacteurs importants des variables d'intérêt de chacune des enquêtes et leur utilisation judicieuse peut permettre un renforcement des estimations dans chacune d'elle. Les techniques de calage sur information incertaine peuvent s'appliquer de façon naturelle dans ce contexte. Cela revient à rechercher le meilleur estimateur sans biais des variables communes et à caler chacune des enquêtes sur cet estimateur. Il se trouve que l'estimateur ainsi obtenu dans chaque enquête est toujours un estimateur linéaire dont les pondérations sont faciles à expliciter, que la variance s'obtient sans problème nouveau de même que l'estimation de variance. Si on veut compléter la panoplie des estimateurs par régression, on peut aussi voir cette technique comme un estimateur par ridge-regression, ou encore comme une estimation par régression bayésienne.

      Date de diffusion : 2000-03-02

    • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015688
      Description :

      Des données de sources multiples sont couplées pour examiner les liens géographique et temporel entre la pollution atmosphérique et l'asthme. Ces sources incluent les dossiers administratifs établis par 59 cabinets de médecins généralistes répartis à travers l'Angleterre et le Pays de Galles au sujet d'un demi million de patients venus à la consultation pour cause d'asthme, ainsi que des renseignements socioéconomiques recueillis dans le cadre d'une enquête par interview. Les codes postaux permettent de coupler ces données à celles sur i) la densité routière calculée pour les routes locales, ii) les émissions estimatives de dioxyde de soufre et d'oxydes d'azote, iii) la concentration de fumée noire, de dioxyde de soufre, de dioxyde d'azote et d'autres polluants mesurée ou interpolée aux emplacements des cabinets de médecins. Parallèlement, on analyse des séries chronologiques de Poisson, en tenant compte des variations entre cabinets de médecins, pour examiner les corrélations quotidiennes dans le cas des cabinets situés près des stations de surveillance de la qualité de l'air. Les analyses préliminaires montrent une association faible, en général non significative, entre les taux de consultations et les marqueurs de pollution. On examine les problèmes méthodologiques que posent la combinaison de données de ce genre et l'interprétation des résultats.

      Date de diffusion : 2000-03-02

    • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015690
      Description :

      La construction de l'échantillon virtuel est réalisé en deux étapes. La première consiste, en partant d'un panel maître, à effectuer une Analyse des Correspondances Multiples (ACM) sur des variables fondamentales pour l'étude. Puis, on génére aléatoirement des individus muets à partir de la distribution de chaque facteur significatif de l'analyse. Enfin, pour chaque individu, on génére une valeur pour chaque variable fondamentale la plus liée à un des facteurs précédents. Cette méthode assure un tirage indépendant d'ensembles de variables. La seconde étape consiste à greffer un certain nombre d'autres bases de données, dont on donnera les propriétés requises. On génére une variable à rajouter à l'aide de sa distribution estimée, avec un modèle linéaire généralisé en fonction des variables communes et celles qui ont déjà été rajoutées. Le même procédé est alors utilisé pour greffer les autres échantillons. Nous avons appliqué cette méthode pour générer un échantillon virtuel à partir de deux enquêtes. L'échantillon virtuel généré a été validé à l'aide de tests de comparaison d'échantillons. Les résultats obtenus sont positifs et montrent la faisabilité de cette méthode.

      Date de diffusion : 2000-03-02

    • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015692
      Description :

      Les tarifs d'électricité qui varient selon la période de la journée, appelés aussi tarifs horaires ou tarifs multiples, sont susceptibles d'accroître considérablement l'efficacité économique du marché de l'énergie. Plusieurs services publics d'électricité ont étudié les effets économiques des programmes de tarification selon la période de consommation offerts à leur clientèle résidentielle. On recourt ici à la méta-analyse pour regrouper les résultats de trente-huit programmes distincts en vue d'étudier l'effet des tarifs multiples sur la demande d'électricité. Quatre constations importantes se dégagent de l'analyse. Premièrement, le rapport entre le tarif de période de pointe et le tarif en période creuse doit être élevé pour que l'effet sur la demande de pointe soit important. Deuxièmement, les tarifs de période de pointe ontune incidence relativement plus importante sur la demande en été qu'en hiver. Troisièmement, les tarifs sont relativement plus efficaces s'ils sont sur une base permanente plutôt qu'expérimentale. Quatrièmement, la perception de frais en fonction de la demande concurrence les tarifs multiples ordinaires sur la demande de pointe.

      Date de diffusion : 2000-03-02

    • Articles et rapports : 11F0019M2000143
      Géographie : Canada
      Description :

      Le présent document est consacré à un examen des différences entre les établissements innovateurs et les établissements non innovateurs dans les branches des services aux entreprises. Il est axé sur les petits établissements qui fournissent des facteurs techniques essentiels à d'autres entreprises : les établissements des branches des services informatiques et des services connexes, des services de génie et des autres services scientifiques et techniques.

      L'analyse débute par un examen de l'incidence de l'innovation au sein de la population des petites entreprises. Quarante pour cent des petites entreprises déclarent implanter (ou introduire) de nouveaux produits ou procédés ou de nouvelles formes d'organisation ou des produits, des procédés ou des formes d'organisation améliorées. Parmi ces entreprises, l'innovation en produits domine par rapport à l'innovation en procédés ou au changement organisationnel. Une majorité de ces établissements laisse voir, en implantant régulièrement des innovations, un engagement permanent en faveur de programmes d'innovation. À l'opposé, les entreprises qui n'implantent pas de nouveaux produits ou procédés ou de nouvelles méthodes d'organisation ou des produits, des procédés ou des méthodes d'organisation améliorées fournissent peu de preuves à l'appui d'activités d'innovation.

      Le présent document porte ensuite sur un examen des différences au niveau de l'intensité stratégique entre les entreprises innovatrices et les entreprises non innovatrices. Les innovateurs attachent plus d'importance à la gestion financière et à l'acquisition de capital. Les innovateurs mettent aussi davantage l'accent sur le recrutement de personnel qualifié et sur la promotion d'une rémunération comportant des incitatifs. Ces distinctions sont sensées; parmi les petites entreprises des branches effectuant beaucoup de R-D, le financement et les compétences des ressources humaines jouent un rôle crucial à l'intérieur du processus d'innovation.

      La dernière section du présent document est consacrée à un examen visant à déterminer si les obstacles à l'innovation diffèrent entre les innovateurs et les non-innovateurs. Les innovateurs sont plus susceptibles de déclarer des difficultés reliées à la réussite sur le marché, à l'imitation (ou à la copie) et aux restrictions en matière de compétences. Les preuves d'apprentissage par l'action sont plus évidentes dans un cadre multidimensionnel. La probabilité de se heurter à des obstacles reliés aux risques et à des restrictions en matière de ressources est plus élevée à l'intérieur des établissements qui s'engagent dans la R-D et qui ont recours à des droits de propriété intellectuelle, deux éléments clés du processus d'innovation. Bien des obstacles à l'innovation sont également plus évidents pour les entreprises qui insistent sur les stratégies de financement, de marketing, de production ou en matière de ressources humaines.

      Date de diffusion : 2000-01-25

    • Articles et rapports : 11F0019M1999105
      Géographie : Canada
      Description :

      Le présent document fournit un aperçu de la croissance de l'utilisation des technologies de pointe au cours de la dernière décennie dans les établissements canadiens de fabrication. Il présente le pourcentage d'usines qui utilisaient l'une des technologies de pointe étudiées et la nature de l'évolution de leur utilisation entre 1989 et 1998. Il est aussi consacré à un examen du degré de variation dans les années 90 des taux de croissance de l'utilisation des différentes technologies de pointe à l'intérieur d'aspects fonctionnels bien précis du processus de production, comme la conception et l'ingénierie, la fabrication, les communications et l'intégration et le contrôle. Afin de découvrir en quoi les changements au niveau de l'utilisation des technologies de pointe sont reliés à certaines caractéristiques des usines, le document est ensuite consacré à un examen visant à déterminer si la croissance de l'utilisation des technologies en question varie entre des usines qui diffèrent par leur taille, la nationalité des intérêts auxquels elles appartiennent et l'industrie dont elles font partie. On y utilise une analyse multidimensionnelle pour examiner les effets conjoints de la taille d'une usine, de son appartenance à des intérêts étrangers et de l'industrie dont elle fait partie sur la fréquence d'adoption des technologies de pointe et de quelle(s) façon(s) ces effets ont évolué au cours de la dernière décennie.

      Date de diffusion : 1999-12-14

    • Articles et rapports : 11F0019M1999101
      Géographie : Canada
      Description :

      Le présent document est un rapport d'examen des facteurs qui contribuent à l'activité innovatrice dans le secteur canadien de la transformation des aliments. Il est premièrement axé sur l'importance de la recherche-développement (R-D) et sur les pratiques commerciales de pointe utilisées par les services d'ingénierie et de production. Il est deuxièmement consacré à examiner à quel degré la taille plus importante d'une entreprise et une compétition moins grande servent à stimuler la concurrence, la soi-disant hypothèse schumpétérienne. Il est troisièmement consacré à une étude des conséquences sur l'innovation de la nationalité du ou des propriétaires d'une entreprise et, finalement, sur un examen des effets d'industrie.

      Le document révèle que les pratiques commerciales sont énormément reliées à la probabilité qu'une entreprise soit une entreprise innovatrice. C'est aussi le cas pour la R-D. La taille a des effets importants, en particulier pour les innovations en procédés. Ailleurs, leur effet s'en trouve grandement diminué une fois qu'on inclut les pratiques commerciales. La propriété étrangère d'une entreprise n'est importante que pour les innovations en procédés. La concurrence importe, davantage pour les innovations en produits que pour les innovations en procédés. Quand il s'agit d'innovations, les établissements dans l'industrie des « autres » produits alimentaires ont tendance à devancer la moyenne de l'industrie, tandis que les usines de transformation du poisson ont tendance à traîner de l'arrière par rapport à la moyenne de l'industrie.

      Date de diffusion : 1999-11-25

    • Enquêtes et programmes statistiques — Documentation : 11-522-X19980015020
      Description :

      Fin 1993, Eurostat a pris la décision de lancer un panel communautaire de ménages. La première vague, réalisée en 1994 dans les douze pays de l'Union, a touché en France environ 7.300 ménages, comportant un peu plus de 14.000 adultes de 17 ans ou plus. Chaque individu devait alors être suivi et interrogé chaque année, même en cas de déménagement. Les individus disparaissant de l'échantillon présentent un profil particulier. Dans une première partie, nous présentons le schéma d'évolution de notre échantillon ainsi qu'une analyse des caractéristiques principales des non-répondants. Nous proposons ensuite deux modèles de correction de la non-réponse par catégories homogènes. Nous décrivons ensuite les distributions des poids longitudinaux obtenus selon les deux modèles, et des poids transversaux dérivés, calculés selon la méthode de partage des poids. Nous comparons enfin les valeurs de quelques indicateurs estimés à l'aide de l'un ou l'autre jeu de pondérations.

      Date de diffusion : 1999-10-22

    • Enquêtes et programmes statistiques — Documentation : 11-522-X19980015037
      Description :

      Pour des données longitudinales, les modéles mixtes sont fréquemment utilisés puisqu'ils permettent de tenir compte de la corrélation entre les observations provenant d'un même individu. Le modèle pour un mélange fini de distributions peut être considéré comme un cas particulier d'un modéle mixte. Dans ce document, on portera l'attention sur la méthode du maximum de vraisemblance. La maximisation de la fonction de vraisemblance pour un mélange fini de distributions est généralement plus ardue que dans le cas usuel d'une seule distribution et peut exiger beaucoup de temps. L'objectif de ce travail a donc consisté principalement à déterminer le(s) algorithme(s) qui satisfait(ont) au mieux les critères de temps d'exécution et d'efficacité pour trouver la solution. Pour atteindre cet objectif, on a effectué une étude de simulation. On n'a considéré que la situation dans laquelle la variable dépendante est dichotomique. Cette situation est très utile en pratique puisqu'elle sert, entre autres, à modéliser des durées discrètes telle que la durée dans l'état "faible revenu".

      Date de diffusion : 1999-10-22

    • Articles et rapports : 11F0019M1999135
      Géographie : Canada
      Description :

      Deux quasi-expériences sont menées pour évaluer l'effet du divorce des parents sur les revenus et le comportement sur le marché du travail des adolescents devenus adultes, ainsi que sur leur recours aux programmes sociaux et leur comportement en matière de mariage et de fécondité. Elles mettent en jeu l'utilisation d'individus qui ont subi la perte d'un parent par décès et les modifications apportées en 1986 à la législation canadienne sur le divorce. On présuppose que la perte d'un parent par décès est exogène; le cheminement des enfants dont le passé est marqué par un tel deuil sert de repère pour évaluer le caractère endogène de la perte parentale occasionnée par un divorce. Les différences entre les sujets dont les parents sont divorcés et ceux provenant de familles intactes et endeuillées exagèrent de beaucoup l'incidence du divorce sur les résultats des enfants dans un large éventail de domaines. Lorsque l'on neutralise les caractéristiques du passé familial, en particulier le revenu et l'activité sur le marché du travail des parents au cours des années précédant le divorce, le divorce des parents semble influencer les décisions des enfants concernant le mariage et la fécondité, mais non leurs résultats sur le marché du travail. Les enfants dont les parents ont divorcé ont tendance à retarder leur mariage et, une fois mariés, leur union a une plus grande probabilité d'être instable, mais leurs gains et leur revenu ne diffèrent pas beaucoup des autres.

      Date de diffusion : 1999-06-09
    Données (0)

    Données (0) (0 résultat)

    Aucun contenu disponible actuellement

    Analyses (52)

    Analyses (52) (0 à 10 de 52 résultats)

    • Articles et rapports : 82-003-X202400500002
      Description : La disponibilité de mesures permettant d’opérationnaliser la charge allostatique — les conséquences cumulatives sur le corps de l’exposition à des stresseurs — dans le cadre des enquêtes sur la santé de la population peut varier d’une année ou d’une enquête à l’autre, ce qui entrave les analyses portant sur l’ensemble de la population échantillonnée. L’étude a permis d’évaluer les incidences de la sélection des variables et de la méthode de calcul pour créer un indice de charge allostatique applicable à l’ensemble des cycles de l’Enquête canadienne sur les mesures de la santé (ECMS). Les données de l’ECMS ont été utilisées pour comparer les variations des valeurs des indices de charge allostatique au niveau des personnes et de la population pour lesquelles d’autres mesures couramment utilisées ont été remplacées par le rapport taille-hanche. Les liens entre les divers concepts les indicateurs de la situation socioéconomique ont ensuite été évalués pour déterminer si les relations étaient maintenues entre les indices.
      Date de diffusion : 2024-05-15

    • Stats en bref : 98-20-00032021029
      Description : Cette vidéo est conçue pour vous donner une compréhension de base des questions et des concepts relatifs au travail. Elle présente les trois sous-thèmes de données qui sont collectés à partir des 14 questions sur le travail. Elle vous aidera à comprendre la population cible des données sur le travail, pourquoi les questions sur le travail sont posées et les périodes de référence des questions sur le travail.
      Date de diffusion : 2023-03-29

    • Articles et rapports : 11-633-X2021001
      Description :

      À l’aide des données de l’Enquête canadienne sur le logement (ECL), le présent projet visait à établir une mesure de l’inclusion sociale, laquelle repose sur des indicateurs déterminés par la Société canadienne d’hypothèques et de logement (SCHL), afin de faire état de la cote d’inclusion sociale de chaque strate géographique séparément pour les logements qui sont ou non des logements sociaux et abordables. Ce projet visait en outre à examiner les associations entre l’inclusion sociale et un ensemble de variables économiques, sociales et sanitaires.

      Date de diffusion : 2021-01-05

    • Articles et rapports : 11F0019M2016376
      Description : La mesure dans laquelle les travailleurs se déplacent d’une région géographique à une autre, que ce soit en raison de possibilités d’emploi émergentes ou à la suite de chocs défavorables sur la demande de main d’œuvre, constitue un élément clé entrant dans le processus d’ajustement d’une économie et dans la capacité de cette dernière à assurer une répartition adéquate des ressources.

      La présente étude a pour but d’estimer l’effet causal des traitements et salaires annuels réels après impôt sur la propension des jeunes hommes à migrer vers l’Alberta ou à y accepter des emplois tout en continuant de résider dans leur province d’origine. À cette fin, l’étude tire parti de la variation interprovinciale de la croissance des revenus, induite vraisemblablement par des hausses des cours mondiaux du pétrole durant les années 2000.

      Date de diffusion : 2016-04-11

    • Articles et rapports : 12-001-X201500214236
      Description :

      Nous proposons une extension assistée par modèle des mesures de l’effet de plan dû à la pondération. Nous élaborons une statistique de niveau sommaire pour différentes variables d’intérêt, sous échantillonnage à un degré et ajustement des poids par calage. La mesure de l’effet de plan que nous proposons traduit les effets conjoints d’un plan d’échantillonnage avec probabilités de sélection inégales, des poids inégaux produits en utilisant des ajustements par calage et de la force de l’association entre la variable d’analyse et les variables auxiliaires utilisées pour le calage. Nous comparons la mesure proposée aux mesures existantes de l’effet de plan au moyen de simulations en utilisant des variables semblables à celles pour lesquelles des données sont recueillies dans les enquêtes auprès des établissements et dans les enquêtes téléphoniques auprès des ménages.

      Date de diffusion : 2015-12-17

    • Articles et rapports : 12-001-X201500114199
      Description :

      Dans les enquêtes auprès des entreprises, il est courant de collecter des variables économiques dont la distribution est fortement asymétrique. Dans ce contexte, la winsorisation est fréquemment utilisée afin de traiter le problème des valeurs influentes. Cette technique requiert la détermination d’une constante qui correspond au seuil à partir duquel les grandes valeurs sont réduites. Dans cet article, nous considérons une méthode de détermination de la constante qui consiste à minimiser le plus grand biais conditionnel estimé de l’échantillon. Dans le contexte de l’estimation pour des domaines, nous proposons également une méthode permettant d’assurer la cohérence entre les estimations winsorisées calculées au niveau des domaines et l’estimation winsorisée calculée au niveau de la population. Les résultats de deux études par simulation suggèrent que les méthodes proposées conduisent à des estimateurs winsorisés ayant de bonnes propriétés en termes de biais et d’efficacité relative.

      Date de diffusion : 2015-06-29

    • Articles et rapports : 12-001-X201400114002
      Description :

      Nous proposons une approche d’imputation multiple des réponses manquant aléatoirement dans les enquêtes à grande échelle qui ne portent que sur des variables catégoriques présentant des zéros structurels. Notre approche consiste à utiliser des mélanges de lois multinomiales comme outils d’imputation et à tenir compte des zéros structurels en concevant les données observées comme un échantillon tronqué issu d’une population hypothétique ne contenant pas de zéros structurels. Cette approche possède plusieurs caractéristiques intéressantes : les imputations sont générées à partir de modèles bayésiens conjoints cohérents qui tiennent compte automatiquement des dépendances complexes et s’adaptent facilement à de grands nombres de variables. Nous décrivons un algorithme d’échantillonnage de Gibbs pour mettre en œuvre l’approche et illustrons son potentiel au moyen d’une étude par échantillonnage répété en utilisant des microdonnées de recensement à grande diffusion provenant de l’État de New York, aux États Unis.

      Date de diffusion : 2014-06-27

    • Articles et rapports : 12-001-X201300211871
      Description :

      Les modèles de régression sont utilisés couramment pour analyser les données d'enquête lorsque l'on souhaite déterminer quels sont les facteurs influents associés à certains indices comportementaux, sociaux ou économiques au sein d'une population cible. Lorsque des données sont recueillies au moyen d'enquêtes complexes, il convient de réexaminer les propriétés des approches classiques de sélection des variables élaborées dans des conditions i.i.d. ne faisant pas appel au sondage. Dans le présent article, nous dérivons un critère BIC fondé sur la pseudovraisemblance pour la sélection des variables dans l'analyse des données d'enquête et proposons une approche de vraisemblance pénalisée dans des conditions de sondage pour sa mise en oeuvre. Les poids de sondage sont attribués comme il convient pour corriger le biais de sélection causé par la distorsion entre l'échantillon et la population cible. Dans un cadre de randomisation conjointe, nous établissons la cohérence de la procédure de sélection proposée. Les propriétés en échantillon fini de l'approche sont évaluées par des analyses et des simulations informatiques en se servant de données provenant de la composante de l'hypertension de l'Enquête sur les personnes ayant une maladie chronique au Canada de 2009.

      Date de diffusion : 2014-01-15

    • Articles et rapports : 12-001-X201300211884
      Description :

      Le présent article offre une solution au problème de la détermination de la stratification optimale de la base de sondage de la population disponible en vue de minimiser le coût de l'échantillon requis pour satisfaire aux contraintes de précision sur un ensemble d'estimations cibles différentes. La solution est recherchée en explorant l'univers de toutes les stratifications qu'il est possible d'obtenir par classification croisée des variables auxiliaires catégoriques disponibles dans la base de sondage (les variables auxiliaires continues peuvent être transformées en variables catégoriques par des méthodes appropriées). Par conséquent, l'approche suivie est multivariée en ce qui concerne les variables cibles ainsi que les variables auxiliaires. L'algorithme proposé est fondé sur une approche évolutionniste non déterministe qui fait appel au paradigme de l'algorithme génétique. La caractéristique principale de l'algorithme est que l'on considère chaque stratification possible comme un individu susceptible d'évoluer dont l'adaptation est mesurée par le coût de l'échantillon associé requis pour satisfaire à un ensemble de contraintes de précision, ce coût étant calculé en appliquant l'algorithme de Bethel pour une répartition multivariée. Cet algorithme de stratification optimale, implémenté dans un module (ou package) R (SamplingStrata), a été appliqué jusqu'à présent à un certain nombre d'enquêtes courantes à l'Institut national de statistique de l'Italie : les résultats montrent systématiquement une amélioration importante de l'efficacité des échantillons obtenus comparativement aux stratifications adoptées antérieurement.

      Date de diffusion : 2014-01-15

    • Articles et rapports : 12-001-X201300211888
      Description :

      Lorsque les variables étudiées sont fonctionnelles et que les capacités de stockage sont limitées ou que les coûts de transmission sont élevés, les sondages, qui permettent de sélectionner une partie des observations de la population, sont des alternatives intéressantes aux techniques de compression du signal. Notre étude est motivée, dans ce contexte fonctionnel, par l'estimation de la courbe de charge électrique moyenne sur une période d'une semaine. Nous comparons différentes stratégies d'estimation permettant de prendre en compte une information auxiliaire telle que la consommation moyenne de la période précédente. Une première stratégie consiste à utiliser un plan de sondage aléatoire simple sans remise, puis de prendre en compte l'information auxiliaire dans l'estimateur en introduisant un modèle linéaire fonctionnel. La seconde approche consiste à incorporer l'information auxiliaire dans les plans de sondage en considérant des plans à probabilités inégales tels que les plans stratifiés et les plans pi. Nous considérons ensuite la question de la construction de bandes de confiance pour ces estimateurs de la moyenne. Lorsqu'on dispose d'estimateurs performants de leur fonction de covariance et si l'estimateur de la moyenne satisfait un théorème de la limite centrale fonctionnel, il est possible d'utiliser une technique rapide de construction de bandes de confiance qui repose sur la simulation de processus Gaussiens. Cette approche est comparée avec des techniques de bootstrap qui ont été adaptées afin de tenir compte du caractère fonctionnel des données.

      Date de diffusion : 2014-01-15
    Références (30)

    Références (30) (10 à 20 de 30 résultats)

    • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015658
      Description :

      Le radon, qui est un gaz dont la présence est observée naturellement dans la plupart des maisons, est un facteur de risque confirmé pour le cancer du poumon chez les humains. Le National Research Council des États-Unis (1999) vient de terminer une évaluation approfondie du risque pour la santé de l'exposition résidentielle au radon, tout en élaborant des modèles de projection du risque de cancer pulmonaire dû au radon pour l'ensemble de la population. Cette analyse indique que le radon joue possiblement un rôle dans l'étiologie de 10-15 % des cas de cancer du poumon aux États-Unis, bien que ces estimations comportent une part appréciable d'incertitude. Les auteurs présentent une analyse partielle de l'incertidude et de la variabilité des estimations du risque de cancer pulmonaire dû à l'exposition résidentielle au radon, aux États-Unis, à l'aide d'un cadre général d'analyse de l'incertitude et de la variabilité établi antérieurement par ces mêmes auteurs. Plus particulièrement, il est question des estimations de l'excès de risque relatif (EFF) par âge et du risque relatif à vie (RRV), qui varient tous deux considérablement d'une personne à l'autre.

      Date de diffusion : 2000-03-02

    • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015660
      Description :

      Les situations qui nécessitent le couplage des enregistrements d'un ou de plusieurs fichiers sont très diverses. Dans le cas d'un seul fichier, le but du couplage est de repérer les enregistrements en double. Dans le cas de deux fichiers, il consiste à déceler les unités qui sont les mêmes dans les deux fichiers et donc de créer des paires d'enregistrements correspondants. Souvent, les enregistrements qu'il faut coupler ne contiennent aucun identificateur unique. Le couplage hiérarchique des enregistrements, le couplage probabiliste des enregistrements et l'appariement statistique sont trois méthodes applicables dans ces conditions. Nous décrivons les principales différences entre ces méthodes. Puis, nous discutons du choix des variables d'appariement, de la préparation des fichiers en prévision du couplage et de la façon dont les paires sont reconnues. Nous donnons aussi quelques conseils et quelques trucs utilisés pour coupler des fichiers. Enfin, nous présentons deux exemples : le couplage probabiliste d'enregistrements réalisé dans le cadre de la contre-vérification des données du recensement et le couplage hiérarchique des enregistrements du fichier maître des numéros d'entreprise (NE) à ceux du fichier de l'univers statistique (FUS) d'unités déclarantes non constituées en société (T1).

      Date de diffusion : 2000-03-02

    • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015664
      Description :

      La litterature sur la statistique comprend de nombreuses études portant sur les méthodes déterministes, on trouve peu d'information sur ces méthodes. En outre, il semble qu'il n'existe pas d'études qui comparent les résultats obtenus avec les deux méthodes. Or, une telle comparaison serait utile lorsque les seuls indicateurs communs dont on dispose, et à partir desquels les bases de données doivent être couplées, sont des indicateurs indistincts, comme le nom, le sexe et la race. La présente étude compare une méthode de couplage déterministe par étapes avec la méthode probabiliste mise en oeuvre dans AUTOMATCH pour de telles situations. La comparaison porte sur un couplage de données médicales des centres régionaux de soins périnataux intensifs et de données relatives à l'éducation du ministère de l'Éducation de la Floride. Les numéros d'assurance sociale qui figurent dans les deux bases de données ont servi à valider les paires d'enregistrements après le couplage. On compare les taux de correspondance et les taux d'erreur obtenus avec les deux méthodes et on présente une discussion sur les similitudes et les différences entre les méthodes, ainsi que sur les points forts et les points faibles de chacune.

      Date de diffusion : 2000-03-02

    • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015666
      Description :

      L'échantillon de fusion obtenu par un procédé d'appariement statistique peut être considéré comme un échantillon tiré d'une population artificielle. Nous dérivons la distribution de cette population artificielle. Si la corrélation entre des variables spécifiques est le seul point d'intérêt, l'importance de l'indépendance conditionnelle peut être réduite. Dans une étude de simulation, nous examinons les effets de la non-confirmation de certaines hypothèses formulées pour obtenir la distribution de la population artificielle. Enfin, nous présentons des idées au sujet de l'établissement de la supposée indépendance conditionnelle par l'analyse de classes latentes.

      Date de diffusion : 2000-03-02

    • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015670
      Description :

      Pour atteindre efficacement leur public cible, les publicistes et les planificateurs des médias ont besoin de savoir quel pourcentage de consommateurs de Coke diète regardent Alerte à Malibu, ou combien de clients d'AT&T ont vu une annonce de Sprint au cours de la dernière semaine. Toutes les données pertinentes pourraient en théorie être recueillies auprès de chacun des répondants. Toutefois, la collecte de données précises et détaillées serait très coûteuse. Elle imposerait en outre un fardeau important aux répondants, compte tenu de la technique de collecte utilisée actuellement. Pour le moment, ces donées sont recueillies dans le cadre d'enquêtes distinctes, en Nouvelle-Zélande et dans nombre d'autres pays. Le niveau d'exposition aux principaux médias est mesuré de façon continue, et les études sur l'utilisation des produits sont répandues. Des techniques d'appariement statistique fournissent une façon de combiner ces sources d'information distinctes. La base de données des cotes d'écoute de la télévision en Nouvelle-Zélande a été combinée à une enquête multi-intérêts portant sur le profit des lecteurs d'imprimés et la consommation de produits, grâce à l'appariement statistique. Le service Panorama qui en résulte répond aux besoins d'information des publicistes et des planificateurs des médias. L'expérience a été reprise depuis en Australie. Le présent document porte sur l'élaboration du cadre d'appariement statistique qui a servi à la combinaison de ces bases de données, ainsi que sur les connaissances heuristiques et les techniques qui ont été utilisées. Celles-ci comprenaient notamment une expérience effectuée au moyen d'un plan de contrôle visant à déterminer les variables d'appariement importantes. Le présent document comprend en outre un résumé des études ayant servi à l'évaluation et à la validation des résultats combinés. Trois critères principaux d'évaluation ont été utilisés, à savoir : la précision des résultats combinés, la stabilité de ces résultats et la préservation des résultats des bases de données originales. On aborde aussi la façon dont les conditions préalables à la combinaison de ces bases de données ont été respectées. Les différences entre les techniques d'analyse utilisées dans les deux bases de données d'origine ont constitué l'obstacle le plus important à cette étape. Enfin, des suggestions pour le de'veloppement de systèmes d'appariement statistique similaires ailleurs sont fournis.

      Date de diffusion : 2000-03-02

    • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015672
      Description :

      La fusion des données qui est examinée ici consiste à créer un ensemble de données provenant de sources différentes sur des variables que l'on n'observe pas conjointement. Supposons par exemple que l'on dispose d'observations pour (X,Z) sur un ensemble de personnes et pour (Y,Z) sur un autre ensemble de personnes. Chacune des variables X, Y et Z peut être vectorielle. L'objectif principal consiste à obtenir des précisions sur la distribution conjointe de (X,Y) en se servant de Z comme ce que l'on conviendra d'appeler variable d'appariement. Toutefois, on s'efforce d'abord d'extraire des ensembles de données distincts autant de renseignements que possible sur la distribution conjointe de (X,Y,Z). On ne peut procéder à ce genre de fusion que moyennant la précision de certaines propriétés distributionnelles pour les données fusionnées, à savoir l'hypothèse d'indépendance conditionnelle étant donné les variables d'appariement. Classiquement, l'examen des variables fusionnées consiste à déterminer dans quelle mesure cette hypothèse sous-jacente est appropriée. Ici, nous examinons le problème sous un angle différent. La question que nous nous posons est celle de savoir comment il est possible d'estimer des distributions dans des situations où l'on ne dispose que d'observations provenant de certaines distributions marginales. Nous pouvons la résoudre en appliquant le critère d'entropie maximale. Nous montrons notamment qu'il est possible d'interpréter les données créés par fusion de données de sources différentes comme un cas spécial de cette situation. Par conséquent, nous dérivons l'hypothèse nécessaire d'indépendance conditionnelle en tant que conséquence du type de données disponibles.

      Date de diffusion : 2000-03-02

    • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015684
      Description :

      Il arrive souvent qu'on recueille, de façon pratiquement simultaée, la même information sur plusieurs enquêtes différentes. En France, cela est institutionnalisé dans les enquêtes auprès des ménages qui comportent un tronc commun de variables portant sur la situation démographique, l'emploi, le logement et les revenus. Ces variables sont des cofacteurs importants des variables d'intérêt de chacune des enquêtes et leur utilisation judicieuse peut permettre un renforcement des estimations dans chacune d'elle. Les techniques de calage sur information incertaine peuvent s'appliquer de façon naturelle dans ce contexte. Cela revient à rechercher le meilleur estimateur sans biais des variables communes et à caler chacune des enquêtes sur cet estimateur. Il se trouve que l'estimateur ainsi obtenu dans chaque enquête est toujours un estimateur linéaire dont les pondérations sont faciles à expliciter, que la variance s'obtient sans problème nouveau de même que l'estimation de variance. Si on veut compléter la panoplie des estimateurs par régression, on peut aussi voir cette technique comme un estimateur par ridge-regression, ou encore comme une estimation par régression bayésienne.

      Date de diffusion : 2000-03-02

    • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015688
      Description :

      Des données de sources multiples sont couplées pour examiner les liens géographique et temporel entre la pollution atmosphérique et l'asthme. Ces sources incluent les dossiers administratifs établis par 59 cabinets de médecins généralistes répartis à travers l'Angleterre et le Pays de Galles au sujet d'un demi million de patients venus à la consultation pour cause d'asthme, ainsi que des renseignements socioéconomiques recueillis dans le cadre d'une enquête par interview. Les codes postaux permettent de coupler ces données à celles sur i) la densité routière calculée pour les routes locales, ii) les émissions estimatives de dioxyde de soufre et d'oxydes d'azote, iii) la concentration de fumée noire, de dioxyde de soufre, de dioxyde d'azote et d'autres polluants mesurée ou interpolée aux emplacements des cabinets de médecins. Parallèlement, on analyse des séries chronologiques de Poisson, en tenant compte des variations entre cabinets de médecins, pour examiner les corrélations quotidiennes dans le cas des cabinets situés près des stations de surveillance de la qualité de l'air. Les analyses préliminaires montrent une association faible, en général non significative, entre les taux de consultations et les marqueurs de pollution. On examine les problèmes méthodologiques que posent la combinaison de données de ce genre et l'interprétation des résultats.

      Date de diffusion : 2000-03-02

    • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015690
      Description :

      La construction de l'échantillon virtuel est réalisé en deux étapes. La première consiste, en partant d'un panel maître, à effectuer une Analyse des Correspondances Multiples (ACM) sur des variables fondamentales pour l'étude. Puis, on génére aléatoirement des individus muets à partir de la distribution de chaque facteur significatif de l'analyse. Enfin, pour chaque individu, on génére une valeur pour chaque variable fondamentale la plus liée à un des facteurs précédents. Cette méthode assure un tirage indépendant d'ensembles de variables. La seconde étape consiste à greffer un certain nombre d'autres bases de données, dont on donnera les propriétés requises. On génére une variable à rajouter à l'aide de sa distribution estimée, avec un modèle linéaire généralisé en fonction des variables communes et celles qui ont déjà été rajoutées. Le même procédé est alors utilisé pour greffer les autres échantillons. Nous avons appliqué cette méthode pour générer un échantillon virtuel à partir de deux enquêtes. L'échantillon virtuel généré a été validé à l'aide de tests de comparaison d'échantillons. Les résultats obtenus sont positifs et montrent la faisabilité de cette méthode.

      Date de diffusion : 2000-03-02

    • Enquêtes et programmes statistiques — Documentation : 11-522-X19990015692
      Description :

      Les tarifs d'électricité qui varient selon la période de la journée, appelés aussi tarifs horaires ou tarifs multiples, sont susceptibles d'accroître considérablement l'efficacité économique du marché de l'énergie. Plusieurs services publics d'électricité ont étudié les effets économiques des programmes de tarification selon la période de consommation offerts à leur clientèle résidentielle. On recourt ici à la méta-analyse pour regrouper les résultats de trente-huit programmes distincts en vue d'étudier l'effet des tarifs multiples sur la demande d'électricité. Quatre constations importantes se dégagent de l'analyse. Premièrement, le rapport entre le tarif de période de pointe et le tarif en période creuse doit être élevé pour que l'effet sur la demande de pointe soit important. Deuxièmement, les tarifs de période de pointe ontune incidence relativement plus importante sur la demande en été qu'en hiver. Troisièmement, les tarifs sont relativement plus efficaces s'ils sont sur une base permanente plutôt qu'expérimentale. Quatrièmement, la perception de frais en fonction de la demande concurrence les tarifs multiples ordinaires sur la demande de pointe.

      Date de diffusion : 2000-03-02
    Date de modification :