Aide à l'ordre
entrées

Résultats

Tout (15)

Tout (15) (0 à 10 de 15 résultats)

  • Articles et rapports : 12-001-X201500214230
    Description :

    Le présent article décrit l’élaboration de méthodes de répartition pour des enquêtes par sondage avec stratification quand l’utilisation d’estimateurs sur petits domaines composites est une priorité et que les domaines servent de strates. Longford (2006) a proposé pour cette situation un critère objectif fondé sur une combinaison pondérée des erreurs quadratiques moyennes des moyennes de petit domaine et d’une moyenne globale. Ici, nous redéfinissons cette approche dans un cadre assisté par modèle, ce qui permet l’utilisation de variables explicatives et une interprétation plus naturelle des résultats en utilisant un paramètre de corrélation intraclasse. Nous considérons aussi plusieurs utilisations de la répartition exponentielle et permettons l’application d’autres contraintes, telle une valeur maximale de la racine carrée relative de l’erreur quadratique moyenne, aux estimateurs de strate. Nous constatons qu’une répartition exponentielle simple peut donner des résultats très près d’être aussi bons que le plan optimal, même quand l’objectif est de minimiser le critère de Longford (2006).

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201500214237
    Description :

    La bonne conception d’une enquête téléphonique par composition aléatoire (CA) à partir d’une base de sondage double requiert de choisir entre de nombreuses options, en faisant la part des différences de coût, de précision, et de couverture, afin d’optimiser la réalisation des objectifs de l’étude. L’un des éléments à prendre en considération est celui de savoir s’il faut présélectionner les ménages équipés de téléphones mobiles et n’interroger que ceux utilisant exclusivement des téléphones mobiles (ménages EXM), donc écarter ceux qui se servent d’un téléphone fixe ainsi que d’un téléphone mobile (ménages F-et-M), ou s’il faut, au contraire, interroger toutes les unités de l’échantillon de ménages équipés de téléphones mobiles. Nous présentons un cadre pour comparer les avantages et les inconvénients de ces deux options, ainsi qu’une méthode pour sélectionner le plan de sondage optimal. Nous établissons la répartition optimale de la taille de l’échantillon entre les deux bases de sondage et en discutons, et nous abordons le choix de la valeur optimale du paramètre de composition p pour le domaine des usagers d’un téléphone fixe ainsi que d’un téléphone mobile (F-et-M). Nous illustrons nos méthodes en les appliquant à la National Immunization Survey commanditée par les Centers for Disease Control and Prevention.

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201500214238
    Description :

    Félix-Medina et Thompson (2004) ont proposé une variante de l’échantillonnage par dépistage de liens pour échantillonner des populations humaines cachées ou difficiles à joindre, comme les toxicomanes et les travailleurs de l’industrie du sexe. Dans cette variante, on commence par sélectionner un échantillon d’emplacements, puis on demande aux personnes trouvées dans les lieux échantillonnés de nommer d’autres membres de la population à inclure dans l’échantillon. Ces auteurs ont établi des estimateurs du maximum de vraisemblance de la taille de la population sous l’hypothèse que la probabilité qu’une personne soit nommée par une autre dans un lieu échantillonné (probabilité de lien) ne dépend pas de la personne nommée (hypothèse d’homogénéité). Dans le présent travail, nous étendons leur recherche au cas où les probabilités de lien sont hétérogènes et dérivons des estimateurs du maximum de vraisemblance inconditionnel et conditionnel de la taille de la population. Nous proposons aussi des intervalles de confiance par vraisemblance profilée et par bootstrap pour la taille de la population. Les résultats de nos études en simulation montrent qu’en présence de probabilités de lien hétérogènes, les estimateurs proposés donnent d’assez bons résultats à condition que les fractions d’échantillonnage soient relativement grandes, disons supérieures à 0,5, tandis que la performance des estimateurs calculés sous l’hypothèse d’homogénéité n’est pas bonne. Les résultats montrent aussi que les intervalles de confiance proposés ne sont pas très robustes aux écarts par rapport aux modèles supposés.

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201500214249
    Description :

    Le problème de la répartition optimale des échantillons dans les enquêtes basées sur un plan d’échantillonnage stratifié a été abordé pour la première fois par Neyman en 1934. Depuis, de nombreux chercheurs ont étudié le problème de la répartition des échantillons dans les enquêtes à plusieurs variables, et plusieurs méthodes ont été proposées. Ces méthodes se divisent essentiellement en deux catégories. La première catégorie englobe les méthodes de répartition qui réduisent les coûts des enquêtes tout en maintenant les coefficients de variation des estimateurs de totaux sous des seuils spécifiés pour toutes les variables d’enquête d’intérêt. La seconde catégorie de méthodes vise à minimiser une moyenne pondérée des variances relatives des estimateurs des totaux étant donné une taille globale maximale d’échantillon ou un coût maximum. Cet article propose une nouvelle approche d’optimisation pour régler le problème de la répartition des échantillons dans les enquêtes à plusieurs variables. Cette approche se fonde sur une formulation de la programmation en nombres entiers binaires. Plusieurs expériences numériques ont démontré que l’approche proposée offre des solutions efficaces à ce problème, qui permettent d’améliorer un « algorithme classique » et peuvent être plus efficaces que l’algorithme de Bethel (1985, 1989).

    Date de diffusion : 2015-12-17

  • Articles et rapports : 82-003-X201501214293
    Description :

    Le modèle de microsimulation du cancer du sein du Cancer Intervention and Surveillance Modeling Network de l’Université du Wisconsin a été adapté afin de simuler l’incidence du cancer du sein et le rendement du dépistage au Canada. Le modèle a pris en compte les effets de la densité du tissu mammaire sur la sensibilité et la spécificité du dépistage. On a évalué la capacité du modèle de prédire le taux d’incidence du cancer du sein selon l’âge.

    Date de diffusion : 2015-12-16

  • Articles et rapports : 82-003-X201501214295
    Description :

    À l’aide du modèle de microsimulation du cancer du sein mis au point par le Cancer Intervention and Surveillance Monitoring Network de l’Université du Wisconsin adapté au contexte canadien, on a évalué 11 stratégies de dépistage par mammographie sur le plan des coûts et des années de vie ajustées en fonction de la qualité. Ces stratégies, qui s’adressent à la population générale, diffèrent selon l’âge au début et à la fin du dépistage ainsi que la fréquence des examens de dépistage. Des rapports coût/efficacité différentiels sont présentés, et des analyses de sensibilité servent à évaluer la robustesse des conclusions du modèle.

    Date de diffusion : 2015-12-16

  • Articles et rapports : 82-622-X2015009
    Description :

    Le Registre canadien du cancer (RCC) est le fruit d'une collaboration entre Statistique Canada et les 13 registres provinciaux et territoriaux du cancer visant à créer une base de données unique pour la déclaration annuelle de l'incidence du cancer et du taux de survie au Canada et à l'échelle provinciale ou territoriale. Bien que des améliorations aient été apportées pour assurer la qualité supérieure, l'uniformisation et la comparabilité des données, le RCC ne possède actuellement pas toute l'information nécessaire sur le traitement du cancer. Le Conseil canadien des registres du cancer (CCRC) a déterminé que le besoin de données sur le traitement du cancer à l'échelle nationale représentait une de ses principales priorités stratégiques pour 2013-2014. Le couplage d'enregistrements a été retenu comme solution possible pour combler cette lacune en matière d'information.

    La présente étude vise à examiner la possibilité de recourir au couplage d'enregistrements pour intégrer de l'information sur le traitement de certains cancers : sein, côlon et rectum et prostate. L'objectif est double : évaluer la qualité des méthodes de couplage et déterminer la validité du recours à des données couplées pour estimer les taux de traitement du cancer à l'échelle provinciale. L'étude est fondée sur les données du Registre canadien du cancer de 2005 à 2008 couplées à celles de la Base de données sur les congés des patients (BDCP) et du Système national d'information sur les soins ambulatoires (SNISA) pour quatre provinces (l'Ontario, le Manitoba, la Nouvelle-Écosse et l'Île-du-Prince-Édouard). Le couplage a été proposé par Statistique Canada, le CCRC et l'Institut canadien d'information sur la santé (ICIS). Le couplage a été approuvé et Statistique Canada a procédé au couplage.

    Date de diffusion : 2015-11-23

  • Articles et rapports : 82-003-X201501114243
    Description :

    Un outil de surveillance a été élaboré afin d’évaluer les données sur l’apport alimentaire recueillies dans le cadre d’enquêtes en fonction de Bien manger avec le Guide alimentaire canadien (GAC). L’outil permet de classer les aliments du Fichier canadien sur les éléments nutritifs (FCÉN) en fonction de leur degré de conformité avec les recommandations du GAC. Le présent article décrit l’exercice de validation effectué pour s’assurer que les aliments du FCÉN considérés « conformes aux recommandations du GAC » aient été classés de façon appropriée.

    Date de diffusion : 2015-11-18

  • Articles et rapports : 12-001-X201500114161
    Description :

    Le modèle de Fay Herriot est un modèle au niveau du domaine d’usage très répandu pour l’estimation des moyennes de petit domaine. Ce modèle contient des effets aléatoires en dehors de la régression linéaire (fixe) basée sur les covariables au niveau du domaine. Les meilleurs prédicteurs linéaires sans biais empiriques des moyennes de petit domaine s’obtiennent en estimant les effets aléatoires de domaine, et ils peuvent être exprimés sous forme d’une moyenne pondérée des estimateurs directs propres aux domaines et d’estimateurs synthétiques de type régression. Dans certains cas, les données observées n’appuient pas l’inclusion des effets aléatoires de domaine dans le modèle. L’exclusion de ces effets de domaine aboutit à l’estimateur synthétique de type régression, autrement dit un poids nul est appliqué à l’estimateur direct. L’étude porte sur un estimateur à test préliminaire d’une moyenne de petit domaine obtenu après l’exécution d’un test pour déceler la présence d’effets aléatoires de domaine. Parallèlement, elle porte sur les meilleurs prédicteurs linéaires sans biais empiriques des moyennes de petit domaine qui donnent toujours des poids non nuls aux estimateurs directs dans tous les domaines, ainsi que certains estimateurs de rechange basés sur le test préliminaire. La procédure de test préliminaire est également utilisée pour définir de nouveaux estimateurs de l’erreur quadratique moyenne des estimateurs ponctuels des moyennes de petit domaine. Les résultats d’une étude par simulation limitée montrent que, si le nombre de domaines est petit, la procédure d’essai préliminaire mène à des estimateurs de l’erreur quadratique moyenne présentant un biais relatif absolu moyen considérablement plus faible que les estimateurs de l’erreur quadratique moyenne usuels, surtout quand la variance des effets aléatoires est faible comparativement aux variances d’échantillonnage.

    Date de diffusion : 2015-06-29

  • Articles et rapports : 12-001-X201500114173
    Description :

    La non-réponse est présente dans presque toutes les enquêtes et peut fortement biaiser les estimations. On distingue habituellement la non-réponse totale et la non-réponse partielle. En notant que pour une variable d’enquête en particulier, nous avons uniquement des valeurs observées et des valeurs inobservées, nous exploitons dans la présente étude le lien entre la non-réponse totale et la non-réponse partielle. En particulier, nous supposons que les facteurs qui sous-tendent la réponse totale sont les mêmes que ceux qui sous-tendent la réponse partielle pour les variables d’intérêt choisies. Nous estimons alors les probabilités de réponse en utilisant une covariable latente qui mesure la volonté de répondre à l’enquête et qui peut expliquer, en partie, le comportement inconnu d’une unité en ce qui concerne la participation à l’enquête. Nous estimons cette covariable latente en nous servant de modèles à traits latents. Cette approche convient particulièrement bien pour les questions sensibles et, par conséquent, permet de traiter la non-réponse non ignorable. L’information auxiliaire connue pour les répondants et les non-répondants peut être incluse dans le modèle à variables latentes ou dans le processus d’estimation de la probabilité de réponse. L’approche peut également être utilisée quand on ne dispose pas d’information auxiliaire, et nous nous concentrons ici sur ce cas. Nous proposons une estimation au moyen d’un système de repondération basé sur la covariable latente précédente quand aucune autre information auxiliaire observée n’est disponible. Les résultats d’études par simulation en vue d’évaluer sa performance en se servant de données réelles ainsi que simulées sont encourageants.

    Date de diffusion : 2015-06-29
Stats en bref (0)

Stats en bref (0) (0 résultat)

Aucun contenu disponible actuellement

Articles et rapports (15)

Articles et rapports (15) (0 à 10 de 15 résultats)

  • Articles et rapports : 12-001-X201500214230
    Description :

    Le présent article décrit l’élaboration de méthodes de répartition pour des enquêtes par sondage avec stratification quand l’utilisation d’estimateurs sur petits domaines composites est une priorité et que les domaines servent de strates. Longford (2006) a proposé pour cette situation un critère objectif fondé sur une combinaison pondérée des erreurs quadratiques moyennes des moyennes de petit domaine et d’une moyenne globale. Ici, nous redéfinissons cette approche dans un cadre assisté par modèle, ce qui permet l’utilisation de variables explicatives et une interprétation plus naturelle des résultats en utilisant un paramètre de corrélation intraclasse. Nous considérons aussi plusieurs utilisations de la répartition exponentielle et permettons l’application d’autres contraintes, telle une valeur maximale de la racine carrée relative de l’erreur quadratique moyenne, aux estimateurs de strate. Nous constatons qu’une répartition exponentielle simple peut donner des résultats très près d’être aussi bons que le plan optimal, même quand l’objectif est de minimiser le critère de Longford (2006).

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201500214237
    Description :

    La bonne conception d’une enquête téléphonique par composition aléatoire (CA) à partir d’une base de sondage double requiert de choisir entre de nombreuses options, en faisant la part des différences de coût, de précision, et de couverture, afin d’optimiser la réalisation des objectifs de l’étude. L’un des éléments à prendre en considération est celui de savoir s’il faut présélectionner les ménages équipés de téléphones mobiles et n’interroger que ceux utilisant exclusivement des téléphones mobiles (ménages EXM), donc écarter ceux qui se servent d’un téléphone fixe ainsi que d’un téléphone mobile (ménages F-et-M), ou s’il faut, au contraire, interroger toutes les unités de l’échantillon de ménages équipés de téléphones mobiles. Nous présentons un cadre pour comparer les avantages et les inconvénients de ces deux options, ainsi qu’une méthode pour sélectionner le plan de sondage optimal. Nous établissons la répartition optimale de la taille de l’échantillon entre les deux bases de sondage et en discutons, et nous abordons le choix de la valeur optimale du paramètre de composition p pour le domaine des usagers d’un téléphone fixe ainsi que d’un téléphone mobile (F-et-M). Nous illustrons nos méthodes en les appliquant à la National Immunization Survey commanditée par les Centers for Disease Control and Prevention.

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201500214238
    Description :

    Félix-Medina et Thompson (2004) ont proposé une variante de l’échantillonnage par dépistage de liens pour échantillonner des populations humaines cachées ou difficiles à joindre, comme les toxicomanes et les travailleurs de l’industrie du sexe. Dans cette variante, on commence par sélectionner un échantillon d’emplacements, puis on demande aux personnes trouvées dans les lieux échantillonnés de nommer d’autres membres de la population à inclure dans l’échantillon. Ces auteurs ont établi des estimateurs du maximum de vraisemblance de la taille de la population sous l’hypothèse que la probabilité qu’une personne soit nommée par une autre dans un lieu échantillonné (probabilité de lien) ne dépend pas de la personne nommée (hypothèse d’homogénéité). Dans le présent travail, nous étendons leur recherche au cas où les probabilités de lien sont hétérogènes et dérivons des estimateurs du maximum de vraisemblance inconditionnel et conditionnel de la taille de la population. Nous proposons aussi des intervalles de confiance par vraisemblance profilée et par bootstrap pour la taille de la population. Les résultats de nos études en simulation montrent qu’en présence de probabilités de lien hétérogènes, les estimateurs proposés donnent d’assez bons résultats à condition que les fractions d’échantillonnage soient relativement grandes, disons supérieures à 0,5, tandis que la performance des estimateurs calculés sous l’hypothèse d’homogénéité n’est pas bonne. Les résultats montrent aussi que les intervalles de confiance proposés ne sont pas très robustes aux écarts par rapport aux modèles supposés.

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201500214249
    Description :

    Le problème de la répartition optimale des échantillons dans les enquêtes basées sur un plan d’échantillonnage stratifié a été abordé pour la première fois par Neyman en 1934. Depuis, de nombreux chercheurs ont étudié le problème de la répartition des échantillons dans les enquêtes à plusieurs variables, et plusieurs méthodes ont été proposées. Ces méthodes se divisent essentiellement en deux catégories. La première catégorie englobe les méthodes de répartition qui réduisent les coûts des enquêtes tout en maintenant les coefficients de variation des estimateurs de totaux sous des seuils spécifiés pour toutes les variables d’enquête d’intérêt. La seconde catégorie de méthodes vise à minimiser une moyenne pondérée des variances relatives des estimateurs des totaux étant donné une taille globale maximale d’échantillon ou un coût maximum. Cet article propose une nouvelle approche d’optimisation pour régler le problème de la répartition des échantillons dans les enquêtes à plusieurs variables. Cette approche se fonde sur une formulation de la programmation en nombres entiers binaires. Plusieurs expériences numériques ont démontré que l’approche proposée offre des solutions efficaces à ce problème, qui permettent d’améliorer un « algorithme classique » et peuvent être plus efficaces que l’algorithme de Bethel (1985, 1989).

    Date de diffusion : 2015-12-17

  • Articles et rapports : 82-003-X201501214293
    Description :

    Le modèle de microsimulation du cancer du sein du Cancer Intervention and Surveillance Modeling Network de l’Université du Wisconsin a été adapté afin de simuler l’incidence du cancer du sein et le rendement du dépistage au Canada. Le modèle a pris en compte les effets de la densité du tissu mammaire sur la sensibilité et la spécificité du dépistage. On a évalué la capacité du modèle de prédire le taux d’incidence du cancer du sein selon l’âge.

    Date de diffusion : 2015-12-16

  • Articles et rapports : 82-003-X201501214295
    Description :

    À l’aide du modèle de microsimulation du cancer du sein mis au point par le Cancer Intervention and Surveillance Monitoring Network de l’Université du Wisconsin adapté au contexte canadien, on a évalué 11 stratégies de dépistage par mammographie sur le plan des coûts et des années de vie ajustées en fonction de la qualité. Ces stratégies, qui s’adressent à la population générale, diffèrent selon l’âge au début et à la fin du dépistage ainsi que la fréquence des examens de dépistage. Des rapports coût/efficacité différentiels sont présentés, et des analyses de sensibilité servent à évaluer la robustesse des conclusions du modèle.

    Date de diffusion : 2015-12-16

  • Articles et rapports : 82-622-X2015009
    Description :

    Le Registre canadien du cancer (RCC) est le fruit d'une collaboration entre Statistique Canada et les 13 registres provinciaux et territoriaux du cancer visant à créer une base de données unique pour la déclaration annuelle de l'incidence du cancer et du taux de survie au Canada et à l'échelle provinciale ou territoriale. Bien que des améliorations aient été apportées pour assurer la qualité supérieure, l'uniformisation et la comparabilité des données, le RCC ne possède actuellement pas toute l'information nécessaire sur le traitement du cancer. Le Conseil canadien des registres du cancer (CCRC) a déterminé que le besoin de données sur le traitement du cancer à l'échelle nationale représentait une de ses principales priorités stratégiques pour 2013-2014. Le couplage d'enregistrements a été retenu comme solution possible pour combler cette lacune en matière d'information.

    La présente étude vise à examiner la possibilité de recourir au couplage d'enregistrements pour intégrer de l'information sur le traitement de certains cancers : sein, côlon et rectum et prostate. L'objectif est double : évaluer la qualité des méthodes de couplage et déterminer la validité du recours à des données couplées pour estimer les taux de traitement du cancer à l'échelle provinciale. L'étude est fondée sur les données du Registre canadien du cancer de 2005 à 2008 couplées à celles de la Base de données sur les congés des patients (BDCP) et du Système national d'information sur les soins ambulatoires (SNISA) pour quatre provinces (l'Ontario, le Manitoba, la Nouvelle-Écosse et l'Île-du-Prince-Édouard). Le couplage a été proposé par Statistique Canada, le CCRC et l'Institut canadien d'information sur la santé (ICIS). Le couplage a été approuvé et Statistique Canada a procédé au couplage.

    Date de diffusion : 2015-11-23

  • Articles et rapports : 82-003-X201501114243
    Description :

    Un outil de surveillance a été élaboré afin d’évaluer les données sur l’apport alimentaire recueillies dans le cadre d’enquêtes en fonction de Bien manger avec le Guide alimentaire canadien (GAC). L’outil permet de classer les aliments du Fichier canadien sur les éléments nutritifs (FCÉN) en fonction de leur degré de conformité avec les recommandations du GAC. Le présent article décrit l’exercice de validation effectué pour s’assurer que les aliments du FCÉN considérés « conformes aux recommandations du GAC » aient été classés de façon appropriée.

    Date de diffusion : 2015-11-18

  • Articles et rapports : 12-001-X201500114161
    Description :

    Le modèle de Fay Herriot est un modèle au niveau du domaine d’usage très répandu pour l’estimation des moyennes de petit domaine. Ce modèle contient des effets aléatoires en dehors de la régression linéaire (fixe) basée sur les covariables au niveau du domaine. Les meilleurs prédicteurs linéaires sans biais empiriques des moyennes de petit domaine s’obtiennent en estimant les effets aléatoires de domaine, et ils peuvent être exprimés sous forme d’une moyenne pondérée des estimateurs directs propres aux domaines et d’estimateurs synthétiques de type régression. Dans certains cas, les données observées n’appuient pas l’inclusion des effets aléatoires de domaine dans le modèle. L’exclusion de ces effets de domaine aboutit à l’estimateur synthétique de type régression, autrement dit un poids nul est appliqué à l’estimateur direct. L’étude porte sur un estimateur à test préliminaire d’une moyenne de petit domaine obtenu après l’exécution d’un test pour déceler la présence d’effets aléatoires de domaine. Parallèlement, elle porte sur les meilleurs prédicteurs linéaires sans biais empiriques des moyennes de petit domaine qui donnent toujours des poids non nuls aux estimateurs directs dans tous les domaines, ainsi que certains estimateurs de rechange basés sur le test préliminaire. La procédure de test préliminaire est également utilisée pour définir de nouveaux estimateurs de l’erreur quadratique moyenne des estimateurs ponctuels des moyennes de petit domaine. Les résultats d’une étude par simulation limitée montrent que, si le nombre de domaines est petit, la procédure d’essai préliminaire mène à des estimateurs de l’erreur quadratique moyenne présentant un biais relatif absolu moyen considérablement plus faible que les estimateurs de l’erreur quadratique moyenne usuels, surtout quand la variance des effets aléatoires est faible comparativement aux variances d’échantillonnage.

    Date de diffusion : 2015-06-29

  • Articles et rapports : 12-001-X201500114173
    Description :

    La non-réponse est présente dans presque toutes les enquêtes et peut fortement biaiser les estimations. On distingue habituellement la non-réponse totale et la non-réponse partielle. En notant que pour une variable d’enquête en particulier, nous avons uniquement des valeurs observées et des valeurs inobservées, nous exploitons dans la présente étude le lien entre la non-réponse totale et la non-réponse partielle. En particulier, nous supposons que les facteurs qui sous-tendent la réponse totale sont les mêmes que ceux qui sous-tendent la réponse partielle pour les variables d’intérêt choisies. Nous estimons alors les probabilités de réponse en utilisant une covariable latente qui mesure la volonté de répondre à l’enquête et qui peut expliquer, en partie, le comportement inconnu d’une unité en ce qui concerne la participation à l’enquête. Nous estimons cette covariable latente en nous servant de modèles à traits latents. Cette approche convient particulièrement bien pour les questions sensibles et, par conséquent, permet de traiter la non-réponse non ignorable. L’information auxiliaire connue pour les répondants et les non-répondants peut être incluse dans le modèle à variables latentes ou dans le processus d’estimation de la probabilité de réponse. L’approche peut également être utilisée quand on ne dispose pas d’information auxiliaire, et nous nous concentrons ici sur ce cas. Nous proposons une estimation au moyen d’un système de repondération basé sur la covariable latente précédente quand aucune autre information auxiliaire observée n’est disponible. Les résultats d’études par simulation en vue d’évaluer sa performance en se servant de données réelles ainsi que simulées sont encourageants.

    Date de diffusion : 2015-06-29
Revues et périodiques (0)

Revues et périodiques (0) (0 résultat)

Aucun contenu disponible actuellement

Date de modification :