Pondération et estimation

Passer au filtres. Voir les résultats.

Aide à l'ordre
entrées

Résultats

Tout (55)

Tout (55) (40 to 50 of 55 results)

  • Articles et rapports : 12-001-X202000100004
    Description :

    L’échantillonnage défini par un seuil d’inclusion est appliqué quand il est trop coûteux ou difficile d’obtenir les informations requises pour un sous-ensemble d’unités de la population et que, par conséquent, ces unités sont délibérément exclues de la sélection de l’échantillon. Si les unités exclues sont différentes des unités échantillonnées pour ce qui est des caractéristiques d’intérêt, les estimateurs naïfs peuvent être fortement biaisés. Des estimateurs par calage ont été proposés aux fins de réduction du biais sous le plan. Toutefois, dans les estimations sur petits domaines, ils peuvent être inefficaces y compris en l’absence d’échantillonnage défini par un seuil d’inclusion. Les méthodes d’estimation sur petits domaines fondées sur un modèle peuvent servir à réduire le biais causé par l’échantillonnage défini par un seuil d’inclusion si le modèle supposé se vérifie pour l’ensemble de la population. Parallèlement, pour les petits domaines, ces méthodes fournissent des estimateurs plus efficaces que les méthodes de calage. Étant donné qu’on obtient les propriétés fondées sur un modèle en supposant que le modèle se vérifie, mais qu’aucun modèle n’est exactement vrai, nous analysons ici les propriétés de plan des procédures de calage et des procédures fondées sur un modèle pour l’estimation de caractéristiques sur petits domaines sous échantillonnage défini par un seuil d’inclusion. Nos conclusions confirment que les estimateurs fondés sur un modèle réduisent le biais causé par un échantillonnage défini par un seuil d’inclusion et donnent des résultats significativement meilleurs en matière d’erreur quadratique moyenne du plan.

    Date de diffusion : 2020-06-30

  • Articles et rapports : 12-001-X201900300001
    Description :

    Les estimateurs de la variance par linéarisation classiques de l’estimateur par la régression généralisée sont souvent trop petits, ce qui entraîne des intervalles de confiance ne donnant pas le taux de couverture souhaité. Pour remédier à ce problème, on peut apporter des ajustements à la matrice chapeau dans l’échantillonnage à deux degrés. Nous présentons la théorie de plusieurs nouveaux estimateurs de la variance et les comparons aux estimateurs classiques dans une série de simulations. Les estimateurs proposés corrigent les biais négatifs et améliorent les taux de couverture de l’intervalle de confiance dans diverses situations correspondant à celles rencontrées en pratique.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900300003
    Description :

    Les formules largement utilisées pour la variance de l’estimateur par le ratio peuvent mener à une sérieuse sous-estimation quand l’échantillon est de petite taille; voir Sukhatme (1954), Koop (1968), Rao (1969) et Cochran (1977, pages 163 et 164). Nous proposons ici comme solution à ce problème classique de nouveaux estimateurs de la variance et de l’erreur quadratique moyenne de l’estimateur par le ratio qui ne sont pas entachés d’un important biais négatif. Des formules d’estimation semblables peuvent s’obtenir pour d’autres estimateurs par le ratio, comme il en est question dans Tin (1965). Nous comparons trois estimateurs de l’erreur quadratique moyenne de l’estimateur par le ratio dans une étude par simulation.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900300005
    Description :

    On obtient les estimations mensuelles du chômage provincial fondées sur l’Enquête sur la population active (EPA) des Pays-Bas au moyen de modèles de séries chronologiques. Les modèles tiennent compte du biais de renouvellement et de la corrélation sérielle causée par le plan d’échantillonnage à panel rotatif de l’EPA. L’article compare deux méthodes d’estimation de modèles de séries chronologiques structurels (MSCS). Dans la première méthode, les MSCS sont exprimés sous forme de modèles espace-état, auxquels sont appliqués le filtre et le lisseur de Kalman dans un cadre fréquentiste. L’autre solution consiste à exprimer ces MSCS sous forme de modèles multiniveaux de séries chronologiques dans un cadre bayésien hiérarchique et à les estimer à l’aide de l’échantillonneur de Gibbs. Nous comparons ici les estimations mensuelles du chômage et les erreurs-types fondées sur ces modèles pour les 12 provinces des Pays-Bas. Nous discutons ensuite des avantages et des inconvénients de la méthode multiniveau et de la méthode espace-état. Les MSCS multivariés conviennent pour l’emprunt d’information dans le temps et l’espace. La modélisation de la matrice de corrélation complète entre les composantes des séries chronologiques accroît rapidement le nombre d’hyperparamètres qu’il faut estimer. La modélisation de facteur commun est une des façons possibles d’obtenir des modèles plus parcimonieux qui continuent de tenir compte de la corrélation transversale. L’article propose une méthode encore plus parcimonieuse, dans laquelle les domaines ont en commun une tendance globale et leurs propres tendances indépendantes pour les écarts propres au domaine par rapport à la tendance globale. L’approche par modélisation de séries chronologiques est particulièrement adaptée à l’estimation de la variation mensuelle du chômage.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900300006
    Description :

    Un taux de non-réponse élevé est un problème très courant dans les enquêtes-échantillons de nos jours. Du point de vue statistique, nous entretenons des inquiétudes au sujet du biais et de la variance accrus des estimateurs de chiffres de population comme les totaux ou les moyennes. Diverses méthodes ont été proposées pour compenser ce phénomène. En gros, nous pouvons les diviser en imputation et calage, et c’est sur la dernière méthode que nous nous concentrons ici. La catégorie des estimateurs par calage offre un large éventail de possibilités. Nous examinons le calage linéaire, pour lequel nous suggérons d’utiliser une version de non-réponse de l’estimateur de régression optimal fondé sur le plan. Nous faisons des comparaisons entre cet estimateur et un estimateur de type GREG. Les mesures de la distance jouent un rôle très important dans l’élaboration des estimateurs par calage. Nous démontrons qu’un estimateur de la propension moyenne à répondre (probabilité) peut être inclus dans la mesure de la distance « optimale » dans les cas de non-réponse, ce qui aide à réduire le biais de l’estimateur ainsi obtenu. Une étude en simulation a été réalisée pour illustrer de manière empirique les résultats obtenus de façon théorique pour les estimateurs proposés. La population se nomme KYBOK et se compose de municipalités administratives de la Suède, pour lesquelles les variables comprennent des mesures financières et de la taille. Les résultats sont encourageants pour l’estimateur « optimal » combiné à la propension estimative moyenne à répondre, où le biais a été réduit pour la plupart des cas d’échantillonnage de Poisson faisant partie de l’étude.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900200002
    Description :

    Le National Agricultural Statistics Service (NASS) du United States Department of Agriculture (USDA) est chargé d’estimer les taux moyens de location au comptant au niveau du comté. Par taux de location au comptant, on entend la valeur marchande des terres louées à l’acre contre argent comptant seulement. Les estimations des taux de location au comptant sont utilisées par les agriculteurs, les économistes et les responsables des politiques. Le NASS recueille des données sur les taux de location au comptant au moyen de la Cash Rent Survey. Comme les tailles d’échantillon réalisées au niveau du comté sont souvent trop petites pour permettre des estimateurs directs fiables, des prédicteurs fondés sur des modèles mixtes sont étudiés. Nous spécifions un modèle bivarié pour obtenir des prédicteurs des taux de location au comptant en 2010 pour les terres cultivées non irriguées à l’aide de données provenant de la Cash Rent Survey de 2009 et de variables auxiliaires provenant de sources externes, dont le Recensement de l’agriculture de 2007. Nous utilisons des méthodes bayésiennes pour l’inférence et présentons les résultats pour l’Iowa, le Kansas et le Texas. L’intégration des données de l’enquête de 2009 grâce à un modèle bivarié mène à des prédicteurs dont les erreurs quadratiques moyennes sont plus petites que celles des prédicteurs fondés sur un modèle univarié.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 12-001-X201900200003
    Description :

    Dans divers domaines, il est de plus en plus important de fusionner les sources d’information disponibles pour améliorer les estimations des caractéristiques de la population. En présence de plusieurs échantillons probabilistes indépendants d’une population finie, nous examinons plusieurs solutions d’estimateur combiné du total de la population, basé soit sur une combinaison linéaire d’estimateurs distincts, soit sur une méthode par échantillon combiné. L’estimateur en combinaison linéaire fondé sur des variances estimées est susceptible d’être biaisé, car les estimateurs distincts du total de la population peuvent être fortement corrélés à leurs estimateurs de la variance respectifs. Nous illustrons la possibilité d’utiliser un échantillon combiné pour estimer les variances des estimateurs distincts, ce qui donne des estimateurs de la variance groupés généraux. Ces estimateurs de la variance groupés utilisent tous les renseignements disponibles et peuvent réduire considérablement le biais d’une combinaison linéaire d’estimateurs distincts.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 12-001-X201900200004
    Description :

    La réconciliation d’estimations de niveau inférieur à des estimations de niveau supérieur est une activité importante au National Agricultural Statistics Service (NASS) du département de l’Agriculture des États-Unis (par exemple, réconcilier les estimations de superficie d’ensemencement en maïs des comtés aux estimations au niveau des États). Nous posons qu’un comté est un petit domaine et employons le modèle initial de Fay-Herriot pour obtenir une méthode bayésienne générale pour réconcilier les estimations des comtés aux estimations des États (constituant la cible). Dans ce cas, nous supposons que les estimations cibles sont connues et dégageons les estimations des comtés avec pour contrainte que leur addition donne la valeur cible. C’est là une réconciliation externe qui a de l’importance pour la statistique officielle, et non seulement pour les données du NASS, et on le rencontre plus généralement dans les estimations sur petits domaines. Il est possible de réconcilier de telles estimations en « supprimant » un des comtés (habituellement le dernier) de manière à intégrer la contrainte de réconciliation au modèle. Il est tout aussi vrai cependant que les estimations peuvent changer selon le comté qui est supprimé au moment d’inclure la contrainte dans le modèle. Dans la présente étude, nous accordons à chaque petit domaine une chance de suppression et parlons pour toute cette procédure de méthode de réconciliation par suppression aléatoire. Nous démontrons empiriquement que les estimations accusent des différences selon le comté supprimé et qu’il existe des différences entre ces estimations et celles obtenues par suppression aléatoire. Ces différences peuvent être jugées petites, mais il est hautement logique de procéder par suppression aléatoire; aucun comté n’a alors droit à un traitement préférentiel et nous observons également une modeste hausse de la précision par rapport à une réconciliation avec suppression du dernier petit domaine.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 12-001-X201900200007
    Description :

    Quand on ajuste une variable catégorique ordonnée à L > 2 niveaux à un ensemble de covariables sur données d’enquêtes à plans complexes, on suppose communément que les éléments de la population suivent un modèle simple de régression logistique cumulative (modèle de régression logistique à cotes proportionnelles). Cela signifie que la probabilité que la variable catégorique se situe à un certain niveau ou au-dessous est une fonction logistique binaire des covariables du modèle. Ajoutons, sauf pour l’ordonnée à l’origine, les valeurs des paramètres de régression logistique sont les mêmes à chaque niveau. La méthode « fondée sur le plan » classique servant à ajuster le modèle à cotes proportionnelles est fondée sur le pseudo-maximum de vraisemblance. Nous comparons les estimations calculées par cette méthode à celles d’un traitement dans un cadre basé sur un modèle robuste sensible au plan. Nous indiquons par un simple exemple numérique en quoi les estimations tirées de ces deux traitements peuvent différer. La nouvelle méthode peut facilement s’élargir pour ajuster un modèle logistique cumulatif général où l’hypothèse du parallélisme peut ne pas se vérifier. Un test de cette hypothèse peut aisément s’ensuivre.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 12-001-X201900200010
    Description :

    Être un statisticien soucieux de calage, c’est appliquer des procédures qui s’inspirent des principes directeurs de l’approche de Neyman en matière d’inférence fréquentiste qui domine actuellement la pensée statistique. Être un statisticien rempli de sagesse devant un ensemble de données, c’est faire appel à certains modes de réflexion bayésiens et fiduciaux pour modérer le simple calage de Neyman. Dans cet article, nous expliquons le mariage des idées à l’aide du concept de calage conditionnel qui tire parti des idées plus récentes en simulation qui sont issues du calcul bayésien approximatif.

    Date de diffusion : 2019-06-27
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (50)

Analyses (50) (0 to 10 of 50 results)

  • Stats en bref : 11-001-X202411338008
    Description : Communiqué publié dans Le Quotidien – Bulletin de diffusion officielle de Statistique Canada
    Date de diffusion : 2024-04-22

  • Articles et rapports : 18-001-X2024001
    Description : Cette étude applique l’estimation sur petits domaines (EPD) et un nouveau concept géographique appelé Zone de travail autonome (ZTA) à l'Enquête canadienne sur la situation des entreprises (ECSE) en mettant l'accent sur les opportunités de travail à distance sur les marchés du travail ruraux. Grâce à la modélisation EPD, nous avons estimé les proportions d'entreprises, classées par secteur industriel général (prestataires de services et producteurs de biens), qui offriraient principalement des opportunités de travail à distance à leur main-d'œuvre.
    Date de diffusion : 2024-04-22

  • Articles et rapports : 12-001-X202300200002
    Description : Il est essentiel de pouvoir quantifier l’exactitude (biais, variance) des résultats publiés dans les statistiques officielles. Dans ces dernières, les résultats sont presque toujours divisés en sous-populations selon une variable de classification, comme le revenu moyen par catégorie de niveau de scolarité. Ces résultats sont également appelés « statistiques de domaine ». Dans le présent article, nous nous limitons aux variables de classification binaire. En pratique, des erreurs de classification se produisent et contribuent au biais et à la variance des statistiques de domaine. Les méthodes analytiques et numériques servant actuellement à estimer cet effet présentent deux inconvénients. Le premier inconvénient est qu’elles exigent que les probabilités de classification erronée soient connues au préalable et le deuxième est que les estimations du biais et de la variance sont elles-mêmes biaisées. Dans le présent article, nous présentons une nouvelle méthode, un modèle de mélange gaussien estimé par un algorithme espérance-maximisation (EM) combiné à un bootstrap, appelé « méthode bootstrap EM ». Cette nouvelle méthode n’exige pas que les probabilités de classification erronée soient connues au préalable, bien qu’elle soit plus efficace quand on utilise un petit échantillon de vérification qui donne une valeur de départ pour les probabilités de classification erronée dans l’algorithme EM. Nous avons comparé le rendement de la nouvelle méthode et celui des méthodes numériques actuellement disponibles, à savoir la méthode bootstrap et la méthode SIMEX. Des études antérieures ont démontré que pour les paramètres non linéaires, le bootstrap donne de meilleurs résultats que les expressions analytiques. Pour presque toutes les conditions mises à l’essai, les estimations du biais et de la variance obtenues par la méthode bootstrap EM sont plus proches de leurs vraies valeurs que celles obtenues par les méthodes bootstrap et SIMEX. Nous terminons l’article par une discussion sur les résultats et d’éventuels prolongements de la méthode.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200003
    Description : Nous étudions la prédiction sur petits domaines des paramètres généraux à partir de deux modèles pour les dénombrements au niveau de l’unité. Nous construisons des prédicteurs de paramètres, comme les quartiles, qui peuvent être des fonctions non linéaires de la variable réponse du modèle. Nous élaborons d’abord une procédure pour construire les meilleurs prédicteurs empiriques et les estimateurs de l’erreur quadratique moyenne des paramètres généraux dans un modèle Gamma-Poisson au niveau de l’unité. Nous utilisons ensuite un algorithme de rééchantillonnage préférentiel pour élaborer des prédicteurs pour un modèle linéaire mixte généralisé (MLMG) avec une distribution de la réponse de Poisson. Nous comparons les deux modèles au moyen d’une simulation et d’une analyse des données de l’Iowa Seat-Belt Use Survey (une enquête sur l’utilisation de la ceinture de sécurité dans l’État de l’Iowa).
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200004
    Description : Nous présentons une nouvelle méthodologie pour réconcilier des estimations des totaux des superficies cultivées au niveau du comté à un total prédéfini au niveau de l’État soumis à des contraintes d’inégalité et à des variances aléatoires dans le modèle de Fay-Herriot. Pour la superficie ensemencée du National Agricultural Statistics Service (NASS), un organisme du ministère de l’Agriculture des États-Unis (USDA), il est nécessaire d’intégrer la contrainte selon laquelle les totaux estimés, dérivés de données d’enquête et d’autres données auxiliaires, ne sont pas inférieurs aux totaux administratifs de la superficie ensemencée préenregistrés par d’autres organismes du USDA, à l’exception de NASS. Ces totaux administratifs sont considérés comme fixes et connus, et cette exigence de cohérence supplémentaire ajoute à la complexité de la réconciliation des estimations au niveau du comté. Une analyse entièrement bayésienne du modèle de Fay-Herriot offre un moyen intéressant d’intégrer les contraintes d’inégalité et de réconciliation et de quantifier les incertitudes qui en résultent, mais l’échantillonnage à partir des densités a posteriori comprend une intégration difficile; des approximations raisonnables doivent être faites. Tout d’abord, nous décrivons un modèle à rétrécissement unique, qui rétrécit les moyennes lorsque l’on suppose que les variances sont connues. Ensuite, nous élargissons ce modèle pour tenir compte du rétrécissement double par l’emprunt d’information dans les moyennes et les variances. Ce modèle élargi comporte deux sources de variation supplémentaire; toutefois, comme nous rétrécissons à la fois les moyennes et les variances, ce second modèle devrait avoir un meilleur rendement sur le plan de la qualité de l’ajustement (fiabilité) et, possiblement, sur le plan de la précision. Les calculs sont difficiles pour les deux modèles, qui sont appliqués à des ensembles de données simulées dont les propriétés ressemblent à celles des cultures de maïs de l’Illinois.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200012
    Description : Au cours des dernières décennies, de nombreuses façons différentes d’utiliser l’information auxiliaire ont enrichi la théorie et la pratique de l’échantillonnage. Jean-Claude Deville a contribué de manière importante à ces progrès. Mes commentaires permettent de retracer certaines des étapes qui ont conduit à une théorie importante pour l’utilisation de l’information auxiliaire : l’estimation par calage.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200013
    Description : Jean-Claude Deville compte parmi les plus éminents chercheurs dans la théorie et la pratique des sondages. Ses travaux sur l’échantillonnage équilibré, l’échantillonnage indirect et le calage en particulier sont reconnus au niveau international et largement utilisés en statistique officielle. Il est également pionnier dans le domaine de l’analyse statistique des données fonctionnelles. Le présent article nous donne l’occasion de reconnaître l’immense travail qu’il a accompli, et de lui rendre hommage. Dans la première partie, nous évoquons brièvement la contribution de Jean-Claude à l’analyse statistique en composantes principales fonctionnelles. Nous détaillons également certaines extensions récentes de ses travaux au croisement des domaines de l’analyse statistique des données fonctionnelles et de la théorie des sondages. Dans la seconde partie, nous présentons une extension de son travail dans le domaine de l’échantillonnage indirect. Ces résultats de recherche sont motivés par des applications concrètes et illustrent l’influence de Jean-Claude sur notre travail de chercheuses.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200014
    Description : Beaucoup de choses ont été écrites à propos de Jean-Claude Deville par la communauté statistique dans les hommages qui lui ont été rendus (voir Tillé, 2022a; Tillé, 2022b; Christine, 2022; Ardilly, 2022; et Matei, 2022) mais aussi par l’École nationale de la statistique et de l’administration économique (Ensae) et la Société française de statistique. Pascal Ardilly, David Haziza, Pierre Lavallée et Yves Tillé détaillent de façon très approfondie les apports de Jean-Claude Deville à la théorie des sondages. Pour lui rendre hommage, j’avais envie de mon côté d’évoquer l’apport de Jean-Claude Deville à la pratique plus quotidienne de la méthodologie pour tous les statisticiens de l’Institut national de la statistique et des études économiques (Insee) et du service de la statistique publique. Je m’appuie pour cela sur mon expérience professionnelle et tout particulièrement sur les quatre années (1992-1996) que j’ai passées à ses côtés au sein de l’Unité Méthodes Statistiques et des échanges que nous avons eus ensuite, en particulier dans les années 2000 sur le recensement en continu.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200015
    Description : Cet article discute et commente l’article de Ardilly, Haziza, Lavallée et Tillé consacré à une présentation synoptique de l’œuvre de Jean-Claude Deville en théorie des sondages. Il apporte quelques éclairages sur le contexte, les applications et les utilisations des résultats de ses travaux et il montre comment ceux-ci se sont inscrits dans le métier de statisticien dans lequel Jean-Claude a eu une démarche d’« éclaireur ». Il évoque aussi d’autres aspects de sa carrière et de ses inventions créatrices.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200016
    Description : Dans cette discussion, je présenterai quelques aspects complémentaires de trois grands domaines de la théorie des sondages développés ou étudiés par Jean-Claude Deville : le calage, l’échantillonnage équilibré et la méthode généralisée de partage des poids.
    Date de diffusion : 2024-01-03
Références (5)

Références (5) ((5 results))

  • Enquêtes et programmes statistiques — Documentation : 98-306-X
    Description :

    Ce rapport donne une description des méthodes d'échantillonnage, de pondération et d'estimation utilisées pour le Recensement de la population. Il fournit les justifications opérationnelles et théoriques et présente les résultats des évaluations de ces méthodes.

    Date de diffusion : 2023-10-04

  • Avis et consultations : 75F0002M2019006
    Description :

    En 2018, Statistique Canada a diffusé deux nouveaux tableaux de données présentant des estimations des taux d’imposition et de transfert effectifs des déclarants et des familles de recensement. Ces estimations sont tirées de la Banque de données administratives longitudinales. La publication fournit une description détaillée des méthodes utilisées pour produire les estimations des taux d’imposition et de transfert effectifs.

    Date de diffusion : 2019-04-16

  • Enquêtes et programmes statistiques — Documentation : 91-528-X
    Description :

    Ce manuel offre des descriptions détaillées des sources de données et des méthodes utilisées par Statistique Canada pour produire des estimations de la population. Elles comportent : les estimations postcensitaires et intercensitaires de la population; la population de départ; les naissances et les décès; l'immigration; les émigrations; les résidents non permanents; la migration interprovinciale; les estimations infraprovinciales de la population; les estimations de la population selon l'âge, le sexe et l'état matrimonial et les estimations des familles de recensement. Un glossaire des termes courants est inclus à la fin du manuel, suivi de la notation normalisée utilisée.

    Auparavant, la documentation sur les changements méthodologiques pour le calcul des estimations était éparpillée dans plusieurs publications et documents d'information de Statistique Canada. Ce manuel offre aux utilisateurs de statistiques démographiques un recueil exhaustif des procédures actuelles utilisées par Statistique Canada pour élaborer des estimations de la population et des familles.

    Date de diffusion : 2015-11-17

  • Enquêtes et programmes statistiques — Documentation : 99-002-X
    Description : Ce rapport donne une description des méthodes d'échantillonnage et de pondération utilisées pour l’Enquête nationale auprès des ménages de 2011. Il fournit les justifications opérationnelles et théoriques et présente les résultats des études d'évaluation de ces méthodes.
    Date de diffusion : 2015-01-28

  • Enquêtes et programmes statistiques — Documentation : 92-568-X
    Description :

    Ce rapport donne une description des méthodes d'échantillonnage et de pondération utilisées pour le Recensement de 2006. Il fournit un historique de l'application de ces méthodes aux recensements du Canada ainsi que les fondements opérationnels et théoriques de ces méthodes, et présente les résultats des études d'évaluation.

    Date de diffusion : 2009-08-11
Parcourez des liens menant aux pages Web de nos principaux partenaires externes et projets.