Aide à l'ordre
entrées

Résultats

Tout (43)

Tout (43) (0 à 10 de 43 résultats)

  • Articles et rapports : 12-001-X20060029546
    Description :

    Nous discutons de méthodes d'analyse des études cas témoins pour lesquelles les témoins sont sélectionnés selon un plan de sondage complexe. La méthode la plus simple est l'approche du sondage standard basée sur des versions pondérées des équations d'estimation pour la population. Nous examinons aussi des méthodes plus efficaces et comparons leur degré de robustesse aux erreurs de spécification du modèle dans des cas simples. Nous discutons également brièvement des études familiales cas témoins, pour lesquelles la structure intragrappe présente un intérêt en soi.

    Date de diffusion : 2006-12-21

  • Articles et rapports : 12-001-X20060029547
    Description :

    La pondération par calage peut être utilisée pour corriger la non réponse totale et (ou) les erreurs de couverture sous des modèles appropriés de quasi randomisation. Divers ajustements par calage qui sont asymptotiquement identiques dans un contexte d'échantillonnage pur peuvent diverger lorsqu'ils sont utilisés de cette manière. L'introduction de variables instrumentales dans la pondération par calage permet que la non réponse (disons) soit une fonction d'un ensemble de caractéristiques différentes de celles comprises dans le vecteur de calage. Si l'ajustement par calage a une forme non linéaire, une variante du jackknife permet d'éliminer le besoin d'itération dans l'estimation de la variance.

    Date de diffusion : 2006-12-21

  • Articles et rapports : 12-001-X20060029548
    Description :

    La théorie de l'imputation multiple pour traiter les données manquantes exige que l'imputation soit faite conditionnellement du plan d'échantillonnage. Cependant, comme la plupart des progiciels standard utilisés pour l'imputation multiple fondée sur un modèle reposent sur l'hypothèse d'un échantillonnage aléatoire simple, de nombreux praticiens sont portés à ne pas tenir compte des caractéristiques des plans d'échantillonnage complexes, comme la stratification et la mise en grappes, dans leurs imputations. Or, la théorie prédit que l'analyse d'ensembles de données soumis de telle façon à une imputation multiple peut produire des estimations biaisées du point de vue du plan de sondage. Dans le présent article, nous montrons au moyen de simulations que i) le biais peut être important si les caractéristiques du plan sont reliées aux variables d'intérêt et que ii) le biais peu être réduit en tenant compte de l'effet des caractéristiques du plan dans les modèles d'imputation. Les simulations montrent aussi que l'introduction de caractéristiques non pertinentes du plan comme contraintes dans les modèles d'imputation peut donner lieu à des inférences conservatrices, à condition que les modèles contiennent aussi des variables explicatives pertinentes. Ces résultats portent à formuler la prescription qui suit à l'intention des imputeurs : le moyen le plus sûr de procéder consiste à inclure les variables du plan de sondage dans la spécification des modèles d'imputation. À l'aide de données réelles, nous donnons une démonstration d'une approche simple d'intégration des caractéristiques d'un plan de sondage complexe qui peut être suivie en utilisant certains progiciels standard pour créer des imputations multiples.

    Date de diffusion : 2006-12-21

  • Articles et rapports : 12-001-X20060029549
    Description :

    Nous proposons dans cet article une méthode de bootstrap de type Bernoulli facilement applicable à des plans stratifiés à plusieurs degrés où les fractions de sondage sont grandes, à condition qu'un échantillonnage aléatoire simple sans remise soit utilisé à chaque degré. La méthode fournit un ensemble de poids de rééchantillonnage qui donnent des estimations convergentes de la variance pour les estimateurs lisses ainsi que non lisses. La force de la méthode tient à sa simplicité. Elle peut être étendue facilement à n'importe quel nombre de degrés d'échantillonnage sans trop de complications. L'idée principale est de garder ou de remplacer une unité d'échantillonnage à chaque degré d'échantillonnage en utilisant des probabilités prédéterminées pour construire l'échantillon bootstrap. Nous présentons une étude par simulation limitée afin d'évaluer les propriétés de la méthode et, à titre d'illustration, nous appliquons cette dernière à l'Enquête nationale sur les prix menée en 1997 au Japon.

    Date de diffusion : 2006-12-21

  • Articles et rapports : 12-001-X20060029550
    Description :

    L'article donne une comparaison des approches de la stratification par une méthode géométrique, par optimisation et par la méthode de Lavallée et Hidiroglou (LH). L'approche géométrique de stratification est une approximation, tandis que les deux autres, qui s'appuient sur des méthodes numériques, peuvent être considérées comme des méthodes de stratification optimales. L'algorithme de la stratification géométrique est très simple comparativement à ceux des deux autres approches, mais il ne prend pas en compte la construction d'une strate à tirage complet, qui est habituellement produite lorsque l'on stratifie une population positivement asymétrique. Dans le cas de la stratification par optimisation, on peut prendre en considération toute forme de la fonction d'optimisation et de ses contraintes. Une étude numérique comparative portant sur cinq populations artificielles positivement asymétriques a indiqué que, dans chaque cas étudié, l'approche par optimisation était plus efficace que la stratification géométrique. En outre, nous avons comparé les approches géométrique et par optimisation à l'algorithme LH. Cette comparaison a révélé que la méthode géométrique de stratification était moins efficace que l'algorithme LH, tandis que l'approche par optimisation était aussi efficace que cet algorithme. Néanmoins, les limites de strate déterminées par la stratification géométrique peuvent être considérées comme de bons points de départ pour l'approche par optimisation.

    Date de diffusion : 2006-12-21

  • Articles et rapports : 12-001-X20060029551
    Description :

    Lorsqu'on veut sélectionner un échantillon, il arrive qu'au lieu de disposer d'une base de sondage contenant les unités de collecte souhaitées, on ait accès à une base de sondage contenant des unités liées d'une certaine façon à la liste d'unités de collecte. On peut alors envisager de sélectionner un échantillon dans la base de sondage disponible afin de produire une estimation pour la population cible souhaitée en s'appuyant sur les liens qui existent entre les deux. On donne à cette approche le nom de sondage indirect.

    L'estimation des caractéristiques de la population cible étudiée par sondage indirect peut poser un défi de taille, en particulier si les liens entre les unités des deux populations ne sont pas bijectifs. Le problème vient surtout de la difficulté à associer une probabilité de sélection, ou un poids d'estimation, aux unités étudiées de la population cible. La méthode généralisée du partage des poids (MGPP) a été mise au point par Lavallée (1995) et Lavallée (2002) afin de résoudre ce genre de problème d'estimation. La MGPP fournit un poids d'estimation pour chaque unité enquêtée de la population cible.

    Le présent article débute par une description du sondage indirect, qui constitue le fondement de la MGPP. En deuxième lieu, nous donnons un aperçu de la MGPP dans lequel nous la formulons dans un cadre théorique en utilisant la notation matricielle. En troisième lieu, nous présentons certaines propriétés de la MGPP, comme l'absence de biais et la transitivité. En quatrième lieu, nous considérons le cas particulier où les liens entre les deux populations sont exprimés par des variables indicatrices. En cinquième lieu, nous étudions certains liens typiques spéciaux afin d'évaluer leur effet sur la MGPP. Enfin, nous examinons le problème de l'optimalité. Nous obtenons des poids optimaux dans un sens faible (pour des valeurs particulières de la variable d'intérêt), ainsi que les conditions dans lesquelles ces poids sont également optimaux au sens fort et indépendants de la variable d'intérêt.

    Date de diffusion : 2006-12-21

  • Articles et rapports : 12-001-X20060029552
    Description :

    On doit procéder à une enquête portant sur la fréquentation touristique d'origine intra ou extra-régionale en Bretagne. Pour des raisons matérielles concrètes, les « enquêtes aux frontières » ne peuvent plus s'organiser. Le problème majeur est l'absence de base de sondage permettant d'atteindre directement les touristes. Pour contourner ce problème, on applique la méthode d'échantillonnage indirect dont la pondération est obtenue par la méthode généralisée de partage des poids développée récemment par Lavallée (1995), Lavallée (2002), Deville (1999) et présentée également dans Lavallée et Caron (2001). Cet article montre comment adapter cette méthode à l'enquête. Certaines extensions s'avèrent nécessaires. On développera l'une d'elle destinée à estimer le total d'une population dont on a tiré un échantillon bernoullien.

    Date de diffusion : 2006-12-21

  • Articles et rapports : 12-001-X20060029553
    Description :

    Félix-Medina et Thompson (2004) ont proposé une variante de l'échantillonnage par dépistage de liens dans laquelle on suppose qu'une part de la population (qui n'est pas nécessairement la plus grande) est couverte par une liste d'emplacements disjoints où les membres de la population peuvent être trouvés avec une probabilité élevée. Après la sélection d'un échantillon d'emplacements, on demande aux personnes se trouvant à chacun de ces emplacements de nommer d'autres membres de la population. Les deux auteurs ont proposé des estimateurs du maximum de vraisemblance des tailles de population qui donnent des résultats acceptables à condition que, pour chaque emplacement, la probabilité qu'un membre de la population soit nommé par une personne se trouvant à cet emplacement, appelée probabilité de nomination, ne soit pas faible. Dans la présente étude, nous partons de la variante de Félix-Medina et Thompson, et nous proposons trois ensembles d'estimateurs des tailles de population dérivés sous une approche bayésienne. Deux des ensembles d'estimateurs sont obtenus en utilisant des lois a priori incorrectes des tailles de population, et l'autre en utilisant des lois a priori de Poisson. Cependant, nous n'utilisons la méthode bayésienne que pour faciliter la construction des estimateurs et adoptons l'approche fréquentiste pour faire les inférences au sujet des tailles de population. Nous proposons deux types d'estimateurs de variance et d'intervalles de confiance partiellement fondés sur le plan de sondage. L'un d'eux est obtenu en utilisant un bootstrap et l'autre, en suivant la méthode delta sous l'hypothèse de normalité asymptotique. Les résultats d'une étude par simulation indiquent que i) quand les probabilités de nomination ne sont pas faibles, chacun des ensembles d'estimateurs proposés donne de bon résultats et se comporte de façon fort semblable aux estimateurs du maximum de vraisemblance, ii) quand les probabilités de nomination sont faibles, l'ensemble d'estimateurs dérivés en utilisant des lois a priori de Poisson donne encore des résultats acceptables et ne présente pas les problèmes de biais qui caractérisent les estimateurs du maximum de vraisemblance et iii) les résultats précédents ne dépendent pas de la taille de la fraction de la population couverte par la base de sondage.

    Date de diffusion : 2006-12-21

  • Articles et rapports : 12-001-X20060029554
    Description :

    L'échantillonnage en vue d'estimer un indice des prix à la consommation (IPC) est assez compliqué et requiert généralement la combinaison de données provenant d'au moins deux enquêtes, l'une donnant les prix et l'autre, la pondération par les dépenses. Deux approches fondamentalement différentes du processus d'échantillonnage - l'échantillonnage probabiliste et l'échantillonnage par choix raisonné - ont été vivement recommandées et sont utilisées par divers pays en vue de recueillir les données sur les prix. En construisant un petit « univers » d'achats et de prix à partir de données scannées sur les céréales, puis en simulant diverses méthodes d'échantillonnage et d'estimation, nous comparons les résultats de deux approches du plan de sondage et de l'estimation, à savoir l'approche probabiliste adoptée aux États Unis et l'approche par choix raisonné adoptée au Royaume Uni. Pour la même quantité d'information recueillie, mais avec l'utilisation d'estimateurs différents, les méthodes du Royaume Uni semblent offrir une meilleure exactitude globale du ciblage d'un indice superlatif des prix à la consommation basé sur la population.

    Date de diffusion : 2006-12-21

  • Articles et rapports : 12-001-X20060029555
    Description :

    Les chercheurs et les responsables des politiques utilisent souvent des données provenant d'enquêtes par échantillonnage probabiliste représentatives de la population nationale. Le nombre de sujets couverts par ces enquêtes, et par conséquent la durée des entrevues, a généralement augmenté au fil des ans, ce qui a accru les coûts et le fardeau de réponse. Un remède éventuel à ce problème consiste à regrouper prudemment les questions d'une enquête en sous ensembles et à demander à chaque répondant de ne répondre qu'à l'un de ces sous ensembles. Les plans de sondage de ce type sont appelés plans à « questionnaire scindé » ou plans d'« échantillonnage matriciel ». Le fait de ne poser qu'un sous ensemble des questions d'une enquête à chaque répondant selon un plan d'échantillonnage matriciel crée ce que l'on peut considérer comme des données manquantes. Le recours à l'imputation multiple (Rubin 1987), une approche polyvalente mise au point pour traiter les données pour lesquelles des valeurs manquent, est tentant pour analyser les données provenant d'un échantillon matriciel, parce qu'après la création des imputations multiples, l'analyste peut appliquer les méthodes standard d'analyse de données complètes provenant d'une enquête par sondage. Le présent article décrit l'élaboration et l'évaluation d'une méthode permettant de créer des questionnaires d'échantillonnage matriciel contenant chacun un sous ensemble de questions devant être administrées à des répondants sélectionnés aléatoirement. La méthode peut être appliquée dans des conditions complexes, y compris les situations comportant des enchaînements de questions. Les questionnaires sont créés de telle façon que chacun comprenne des questions qui sont prédictives des questions exclues, afin qu'il soit possible, lors des analyses subséquentes fondées sur l'imputation multiple, de recouvrer une partie de l'information relative aux questions exclues qui aurait été recueillie si l'on n'avait pas recouru à l'échantillonnage matriciel. Ce dernier et les méthodes d'imputation multiple sont évalués au moyen de données provenant de la National Health and Nutrition Examination Survey, l'une des nombreuses enquêtes par échantillonnage probabiliste représentatives de la population nationale réalisées par le National Center for Health Statistics des Centers for Disease Control and Prevention. L'étude démontre que l'approche peut être appliquée à une grande enquête nationale sur la santé à structure complexe et permet de faire des recommandations pratiques quant aux questions qu'il serait approprié d'inclure dans des plans d'échantillonnage matriciel lors de futures enquêtes.

    Date de diffusion : 2006-12-21
Stats en bref (0)

Stats en bref (0) (0 résultat)

Aucun contenu disponible actuellement

Articles et rapports (41)

Articles et rapports (41) (30 à 40 de 41 résultats)

  • Articles et rapports : 12-001-X20050029041
    Description :

    L'imputation hot deck est une procédure qui consiste à remplacer les réponses manquantes à certaines questions par des valeurs empruntées à d'autres répondants. L'un des modèles sur lesquels elle s'appuie est celui où l'on suppose que les probabilités de réponse sont égales dans les cellules d'imputation. Nous décrivons une version efficace de l'imputation hot deck pour le modèle de réponse dans les cellules et donnons un estimateur de la variance dont le traitement informatique est efficace. Nous détaillons une approximation de la procédure entièrement efficace dans laquelle un petit nombre de valeurs sont imputées pour chaque non répondant. Nous illustrons les procédures d'estimation de la variance dans une étude de Monte Carlo.

    Date de diffusion : 2006-02-17

  • Articles et rapports : 12-001-X20050029044
    Description :

    Les méthodes d'estimation de la variance des estimations par sondage applicables à des données complètes sont biaisées lorsque certaines données sont imputées. Nous recourons à la simulation pour comparer l'efficacité de la méthode assistée par modèle, de la méthode du jackknife ajusté et de la méthode d'imputation multiple pour estimer la variance d'un total quand les réponses à certaines questions ont été imputées par la méthode hot deck. La simulation vise à étudier les propriétés des estimations de la variance des estimations imputées de totaux pour la population dans son ensemble et pour certains domaines provenant d'un plan d'échantillonnage stratifié non proportionnel à un degré quand les hypothèses sous jacentes, comme l'absence de biais dans l'estimation ponctuelle et l'hypothèse des réponses manquantes au hasard dans les cellules hot deck, ne sont pas vérifiées. Les estimateurs de la variance des estimations pour l'ensemble de la population produisent des intervalles de confiance dont le taux de couverture s'approche du taux nominal, même en cas d'écarts modestes par rapport aux hypothèses, mais il n'en est pas ainsi des estimations par domaine. La couverture est surtout sensible au biais dans les estimations ponctuelles. Comme le démontre la simulation, même si une méthode d'imputation donne des estimations presque sans biais pour la population dans son ensemble, les estimations par domaine peuvent être fort biaisées.

    Date de diffusion : 2006-02-17

  • Articles et rapports : 12-001-X20050029046
    Description :

    La pondération pour la non réponse est une méthode courante de traitement de la non-réponse totale dans les sondages. Elle vise à réduire le biais dû à la non-réponse, mais produit souvent un accroissement de la variance. Par conséquent, son efficacité est souvent considérée comme un compromis entre le biais et la variance. Cette vision est cependant simpliste, car la pondération pour la non réponse peut, en fait, réduire le biais ainsi que la variance. Pour réduire le biais de non réponse, une covariable de repondération doit avoir deux caractéristiques : elle doit être corrélée à la probabilité de réponse, d'une part, et à la variable d'intérêt, d'autre part. Si cette deuxième caractéristique existe, la repondération peut réduire plutôt qu'augmenter la variance d'échantillonnage. Nous présentons une analyse détaillée du biais et de la variance dans le cas d'une pondération pour l'estimation d'une moyenne de sondage au moyen de cellules d'ajustement. L'analyse donne à penser que la caractéristique la plus importante des variables à inclure dans la repondération est qu'elles soient prédictives des variables d'intérêt; la prédiction de la propension à répondre est un objectif secondaire, quoiqu'utile. Nous proposons des estimations empiriques de la racine carrée de l'erreur quadratique moyenne pour déterminer dans quelles circonstances la repondération est efficace et nous les évaluons au moyen d'une étude en simulation. Un estimateur composite simple fondé sur la racine de l'erreur quadratique moyenne empirique donne de meilleurs résultats que l'estimateur pondéré dans les simulations.

    Date de diffusion : 2006-02-17

  • Articles et rapports : 12-001-X20050029047
    Description :

    Nous considérons le problème de l'estimation, en présence de non réponse non ignorable importante, du nombre de ménages privés de diverses tailles et du nombre total de ménages en Norvège. L'approche est fondée sur un modèle de population pour la taille du ménage, sachant la taille enregistrée de la famille. Nous tenons compte du biais de non réponse éventuel en modélisant le mécanisme de réponse sachant la taille du ménage. Nous évaluons divers modèles, ainsi qu'un estimateur du maximum de vraisemblance et une poststratification fondée sur l'imputation. Nous comparons les résultats à ceux d'une poststratification pure avec la taille enregistrée de la famille comme variable de stratification et des méthodes d'estimation employées pour la production de statistiques officielles d'après l'Enquête sur les dépenses de consommation de la Norvège. L'étude indique que la modélisation de la réponse, la poststratification et l'imputation sont des éléments importants d'une approche satisfaisante.

    Date de diffusion : 2006-02-17

  • Articles et rapports : 12-001-X20050029048
    Description :

    Le problème que nous considérons nécessite l'analyse de données catégoriques provenant d'un seul tableau à double entrée avec classification partielle (c'est à dire avec non réponses partielle et totale). Nous supposons qu'il s'agit de la seule information disponible. Une méthode bayésienne nous permet de modéliser divers scénarios de données manquantes sous les hypothèses d'ignorabilité et de non ignorabilité. Nous construisons un modèle de non réponse non ignorable que nous obtenons par extension du modèle de non réponse ignorable au moyen d'une loi a priori dépendante des données; l'extension au modèle de non réponse non ignorable rend le modèle de non réponse ignorable plus robuste. Nous utilisons un modèle Dirichlet Multinomial, corrigé pour la non réponse, pour estimer les probabilités de cellule et un facteur de Bayes pour vérifier l'hypothèse d'association. Nous illustrons notre méthode à l'aide de données sur la densité minérale osseuse et sur le revenu familial. Une analyse de sensibilité nous permet d'évaluer l'effet du choix de la loi a priori dépendante des données. Nous comparons les modèles de non réponse ignorable et non ignorable au moyen d'une étude par simulation et constatons qu'il existe des différences subtiles entre ces modèles.

    Date de diffusion : 2006-02-17

  • Articles et rapports : 12-001-X20050029049
    Description :

    On utilise couramment l'ajustement de poids pour la non-réponse afin de compenser la non-réponse totale aux enquêtes. Souvent, on postule un modèle de non-réponse et on ajuste les poids de sondage par l'inverse de probabilités de réponse estimées. Le modèle de non-réponse est habituellement conditionnel à un vecteur de variables auxiliaires fixes qui sont observées pour chaque unité de l'échantillon, comme les variables utilisées pour construire le plan de sondage. Dans le présent article, nous envisageons d'utiliser comme variables auxiliaires éventuelles les variables du processus de collecte des données. Le nombre d'essais effectués pour joindre une unité de l'échantillon en constitue un exemple. Dans notre traitement, ces variables auxiliaires sont considérées comme aléatoires, même si on conditionne sur l'échantillon sélectionné, puisqu'elles pourraient changer si le processus de collecte des données était répété pour un échantillon donné. Nous montrons que ce caractère aléatoire n'introduit ni biais ni composante additionnelle de variance dans les estimations de totaux de population lorsque le modèle de non-réponse est bien spécifié. En outre, lorsque la non-réponse dépend des variables d'intérêt, nous soutenons que l'utilisation des variables du processus de collecte des données a tendance à réduire le biais de non-réponse si ces variables fournissent des renseignements sur les variables d'intérêt qui ne sont pas déjà inclus dans le modèle de non-réponse et si elles sont associées à la non-réponse. Par conséquent, les variables du processus de collecte des données pourraient bien être très utiles pour traiter la non-réponse totale. Nous en donnons une brève illustration à partir de l'Enquête sur la population active du Canada.

    Date de diffusion : 2006-02-17

  • Articles et rapports : 12-001-X20050029050
    Description :

    Nous explicitons dans cet article certaines propriétés distributionnelles des unités d'échantillonnage qui ne sont habituellement pas décrites dans la documentation, notamment leur structure de corrélation et le fait que celle ci ne dépend pas d'indices de population attribués arbitrairement. Ces propriétés importent pour plusieurs méthodes d'estimation, dont l'efficacité serait améliorée si on les mentionnait explicitement.

    Date de diffusion : 2006-02-17

  • Articles et rapports : 12-001-X20050029051
    Description :

    Nous présentons des algorithmes informatiques pour la méthode de la pseudo vraisemblance empirique proposée récemment pour l'analyse des données d'enquête complexes. Plusieurs algorithmes essentiels pour le calcul des estimateurs du maximum de pseudo vraisemblance empirique et la construction des intervalles de confiance des rapports de pseudo vraisemblance empirique sont implantés au moyen des logiciels statistiques R et S PLUS d'usage très répandu. Les codes principaux sont écrits sous la forme de fonctions R/S PLUS et peuvent donc être utilisés directement dans les applications d'enquête et (ou) les études en simulation.

    Date de diffusion : 2006-02-17

  • Articles et rapports : 12-001-X20050029052
    Description :

    De nombreuses analyses statistiques, particulièrement l'analyse multiniveaux, requièrent l'estimation d'une matrice des variances-covariances d'échantillonnage. Dans le cas de problèmes univariés, des fonctions reliant la variance à la moyenne ont été utilisées pour obtenir des estimations de la variance, en regroupant l'information sur l'ensemble des unités ou des variables. Nous présentons des fonctions de variance et de corrélation pour des moyennes multivariées de questions d'enquête avec valeurs ordonnées, pour des données complètes, ainsi que pour des données avec non réponse structurée. Nous élaborons aussi des méthodes permettant d'évaluer l'ajustement du modèle et de calculer des estimateurs composites qui combinent des prédictions directes et fondées sur un modèle. Nous utilisons des données d'enquête provenant de la Consumer Assessments of Health Plans Study (CAHPS®) pour illustrer l'application de la méthodologie.

    Date de diffusion : 2006-02-17

  • Articles et rapports : 12-001-X20050029053
    Description :

    Nous proposons un modèle de régression spatial dans un cadre général de modèles à effets mixtes pour résoudre le problème de l'estimation pour petits domaines. L'utilisation d'un paramètre d'autocorrélation commun à l'ensemble de petits domaines permet de produire de meilleures estimations pour petits domaines. Ce paramètre s'avère fort utile dans les cas où l'utilisation de variables exogènes améliore peu ces estimations. Nous élaborons également une approximation de deuxième ordre de l'erreur quadratique moyenne (EQM) du meilleur prédicteur linéaire sans biais empirique (MPLNBE). En suivant l'approche des filtres de Kalman, nous proposons un modèle spatio temporel. Dans ce cas également, nous obtenons une approximation de deuxième ordre de la EQM du MPLNBE. À titre d'étude de cas, nous utilisons les données de la série chronologique sur les dépenses de consommation mensuelles par habitant (DCMH) provenant de la National Sample Survey Organisation (NSSO) du ministère de la Statistique et de la Mise en 'uvre des programmes du gouvernement de l'Inde pour valider les modèles.

    Date de diffusion : 2006-02-17
Revues et périodiques (2)

Revues et périodiques (2) ((2 résultats))

  • Revues et périodiques : 85-569-X
    Géographie : Canada
    Description :

    Cette étude de faisabilité présente un plan directeur pour améliorer les données sur la fraude au Canada au moyen d'une enquête auprès des entreprises et de modifications au Programme de déclaration uniforme de la criminalité (DUC). À l'heure actuelle, l'information nationale sur la fraude est tirée des statistiques officielles de la criminalité déclarées par les services de police dans le cadre du Programme DUC. Toutefois, ces données ne représentent pas fidèlement la nature et l'étendue de la fraude au Canada en raison de la sous-déclaration des affaires de fraude par les individus et les entreprises, et en raison du manque d'uniformité entre les procédures de dénombrement de la fraude dans le Programme DUC. Ce rapport de faisabilité laisse entendre qu'on pourrait obtenir une mesure plus exacte de la fraude au Canada en interrogeant les entreprises. Le rapport présente de l'information sur les priorités des ministères, des organismes d'application de la loi et du secteur privé en ce qui a trait à la question de la fraude ainsi que des recommandations sur la façon dont une enquête-entreprise pourrait répondre à ces besoins en information.

    Afin de satisfaire aux priorités en matière d'information, l'étude recommande d'inclure, dans une enquête, les types suivants d'établissements commerciaux : banques, sociétés de paiements (c. à d. sociétés de cartes de crédit ou de débit), certains détaillants, sociétés d'assurance de biens et d'assurance risques divers, sociétés d'assurance-maladie et d'assurance-invalidité, ainsi que certains manufacturiers. Le rapport présente des recommandations sur les méthodes d'enquête et le contenu du questionnaire, et il comprend une estimation des coûts et un calendrier d'exécution proposé.

    On y recommande également des modifications au Programme DUC afin d'améliorer la façon de compter les affaires et la pertinence des données recueillies pour satisfaire aux priorités en matière d'information soulevées par les intervenants de l'administration publique, des organismes d'application de la loi et du secteur privé durant l'étude de faisabilité.

    Date de diffusion : 2006-04-11

  • Revues et périodiques : 92-134-X
    Description :

    Le présent document est un résumé des résultats des analyses de contenu du Test du recensement de 2004. La première partie explique brièvement dans quel contexte s'inscrivent les analyses de contenu en décrivant la nature de l'échantillon, les limites qui y sont rattachées ainsi que les stratégies déployées pour évaluer la qualité des données. La deuxième partie donne un aperçu global des résultats pour les questions n'ayant pas changé depuis le Recensement de 2001 en décrivant les similarités entre les distributions et les taux de non-réponse de 2001 et de 2004. La troisième partie s'attarde davantage sur les nouvelles questions et les questions qui ont changé substantiellement : les couples de même sexe, les origines ethniques, les niveaux de scolarité, le lieu d'obtention du plus haut niveau d'études, la fréquentation scolaire, la permission d'utiliser les renseignements contenus dans les dossiers administratifs de revenu et la permission d'accéder aux données personnelles 92 ans après le recensement. La dernière partie traite des résultats d'ensemble pour les questions dont le contenu a été codé lors du test de 2004, notamment les variables d'industrie, de profession et de lieu de travail.

    Date de diffusion : 2006-03-21
Date de modification :