Aide à l'ordre
entrées

Résultats

Tout (90)

Tout (90) (20 à 30 de 90 résultats)

  • Articles et rapports : 12-001-X199500214391
    Description :

    Le contrôle statistique du processus est un instrument qui peut servir à vérifier l’exactitude des bases de sondage construites périodiquement. La taille des bases de sondage est reportée sur un graphique de contrôle afin de déceler les causes spéciales de variation. On décrit les méthodes qui permettent de choisir le modèle chronologique (ARMMI) approprié pour des observations liées. On examine aussi les applications de l’analyse des séries chronologiques à la construction de graphiques de contrôle. Les données du programme de contrôle de la qualité des prestations d’assurance-chômage du United States Department of Labor servent à illustrer la méthode.

    Date de diffusion : 1995-12-15

  • Articles et rapports : 12-001-X199500214392
    Description :

    Les enquêtes à grande échelle réalisées dans les pays en développement peuvent fournir un instantané extrêmement utile de l’état de santé d’une collectivité, mais les résultats produits reflètent rarement la réalité actuelle puisqu’ils ne sont souvent diffusés que plusieurs mois ou même des années après la collecte des données. Ces retards sont en partie attribuables au temps nécessaire à la saisie, au codage et au traitement des données. Or, il est désormais possible de faire la saisie sur les lieux mêmes de l’enquête, grâce aux ordinateurs de poche. Les erreurs sont également moins nombreuses puisqu’une vérification automatique permet de rejeter les entrées illogiques ou incohérentes dès l’étape de l’administration du questionnaire. Le présent article porte sur l’utilisation d’une telle méthode d’enquête assistée par ordinateur pour la collecte de données démographiques au Kenya. Même si les coûts initiaux de la mise sur pied d’un tel système sont élevés, ses avantages sont évidents : les erreurs qui peuvent se glisser dans les données recueillies, malgré l’expérience du personnel technique, peuvent être réduites à des niveaux négligeables. Dans les situations où la rapidité d’exécution est essentielle, où les employés sont nombreux et où on a recours au précodage des réponses pour la collecte systématique de données sur une période de temps prolongée, l’entrevue assistée par ordinateur pourrait s’avérer économique à long terme, tout en améliorant radicalement la qualité des données à court terme.

    Date de diffusion : 1995-12-15

  • Articles et rapports : 12-001-X199500214393
    Description :

    Les lacunes et les erreurs relevées dans les données censitaires et les registres de l’état civil aux États-Unis laissent planer un doute sérieux sur la qualité des données concernant les aînés et le recensement des décès dans ce pays. Dans le présent article, nous évaluons la concordance des données provenant de ces deux sources pour les populations blanche et afro-américaine. Nous étudions en particulier les aînés (60 ans et plus), où les tendances de la mortalité ont la plus grande incidence sur les programmes sociaux et où les problèmes de données sont les plus graves. Au moyen de l’analyse intercensitaire des cohortes, nous déterminons les discordances en fonction de l’âge entre les deux sources pour deux périodes : 1970-1980 et 1980-1990. Les anomalies relevées quant à la nature de la couverture et aux erreurs de contenu sont analysées à la lumière des données de la documentation spécialisée. Les données sur la population afro-américaine montrent de très nombreuses discordances pour la période 1970-1990, qui sont vraisemblablement attribuables à une exagération de l’âge déclaré lors des recensements, par rapport aux données des registres de l’état civil. On relève également des anomalies pour la population blanche dans la période intercensitaire 1970-1980. Selon nous, ces anomalies sont principalement dues à un sous-dénombrement dans le recensement de 1970, par rapport à celui de 1980 et au recensement des décès. Par contre, les données de 1980-1990 concernant les blancs, et en particulier les femmes, sont très cohérentes, beaucoup plus même que dans la plupart des pays européens.

    Date de diffusion : 1995-12-15

  • Articles et rapports : 12-001-X199500214394
    Description :

    Lors d’un recensement national pilote effectué en 1992, la séquence d’envoi d’une lettre de préavis, d’un formulaire de recensement, d’une carte de rappel et d’un questionnaire de remplacement a engendré un taux de réponse global de 63,4 %. Ce taux de réponse était considérablement plus élevé que le taux de 49,2 % obtenu lors du National Content Test Census de 1986, dans le cadre duquel on avait également utilisé un questionnaire de remplacement. L’écart a semblé principalement attribuable à la séquence « préavis - formulaire de recensement - rappel » des envois, mais on n’a pas su dans quelle mesure chacun des principaux effets et leurs interactions avaient influé sur les résultats globaux. Le présent article rend compte des résultats du test de mise en œuvre du Recensement de 1992, qui vérifiait l’influence individuelle et combinée, sur le taux de réponse, de la lettre de préavis, de l’enveloppe-réponse affranchie ainsi que de la carte de rappel. Il s’agissait d’un échantillon national de ménages (n = 50 000) interrogés à l’automne 1992. On a utilisé un plan factoriel pour vérifier les huit combinaisons possibles des principaux effets, ainsi que leurs interactions. On a également eu recours à la régression logistique et à des comparaisons multiples pour analyser les résultats du test.

    Date de diffusion : 1995-12-15

  • Articles et rapports : 12-001-X199500214395
    Description :

    Lorsqu’on remanie un échantillon selon un plan stratifié à plusieurs degrés, il est parfois indiqué de maximiser le nombre d’unités primaires d’échantillonnage retenues dans le nouvel échantillon sans modifier les probabilités de sélection inconditionnelle. Il existe à cette fin une solution optimale qui s’appuie sur la théorie du transport pour une classe très générale de plans d’échantillonnage. Toutefois, à la connaissance des auteurs, cette méthode n’a jamais été utilisée pour la refonte d’une enquête. Cela s’explique en partie du fait que même pour une strate de taille modérée, le problème de transport résultant pourrait être trop grand pour se prêter à une solution pratique. Dans le présent article, nous proposons un algorithme de transport modifié à taille réduite permettant de maximiser le chevauchement, ce qui réduit sensiblement les dimensions du problème. Cette méthode a été utilisée lors du remaniement récent de l’Enquête sur le revenu et la participation aux programmes (Survey of Income and Program Participation, ou SIPP). Nous décrivons brièvement le rendement de l’algorithme à taille réduite, d’une part pour le chevauchement du SIPP en conditions réelles, et d’autre part pour des simulations artificielles antérieures du chevauchement du SIPP. Même si cette méthode n’est pas optimale et ne risque de produire, en théorie, que des améliorations négligeables du chevauchement attendu comparativement à la sélection indépendante, elle ouvre en pratique la voie à des améliorations importantes du chevauchement par rapport à la sélection indépendante dans le cas du SIPP et produit généralement un chevauchement presque optimal.

    Date de diffusion : 1995-12-15

  • Articles et rapports : 12-001-X199500214396
    Description :

    Les auteurs exposent brièvement quelques-uns des principaux aspects de la théorie des fonctions d’estimation pour les populations finies. Plus précisément, ils abordent la question de l’estimation des moyennes et des totaux et étendent la théorie pertinente aux fonctions d’estimation qu’ils appliquent ensuite au problème de l’estimation de l’inégalité du revenu. Les statistiques qui résultent de l’exercice expriment des fonctions non linéaires des observations, certaines d’entre elles dépendant de l’ordre des observations ou quantiles. Par conséquent, l’erreur quadratique moyenne des estimations ne peut être représentée par une formule simple ni être estimée par les méthodes classiques d’estimation de la variance. Les auteurs montrent que, pour les fonctions d’estimation, il est possible de résoudre ce problème par la méthode de linéarisation de Taylor. Enfin, ils font la démonstration de la méthode proposée en utilisant les données relatives au revenu provenant de l’Enquête sur les finances des consommateurs du Canada et comparent cette méthode à celle du jackknife avec suppression d’une grappe.

    Date de diffusion : 1995-12-15

  • Articles et rapports : 12-001-X199500214397
    Description :

    L’estimation par régression et sa généralisation, l’estimation par calage introduite par Deville et Särndal en 1993 permet de réduire a posteriori la variance des estimateur, grâce à l’utilisation de l’information auxiliaire. Dans les enquêtes réalisées par sondage, on dispose souvent d’information additionnelle exploitable répartie selon un schéma complexe notamment lorsque le sondage est réalisé en plusieurs phases. Une adaptation de l’estimation par régression a été proposée avec ses variantes dans le cadre du sondage à deux phases par Särndal et Swensson en 1987. Cet article propose d’étudier les stratégies d’estimation alternatives selon deux configurations alternatives pour l’information auxiliaire, en reliant les deux approches possibles pour aborder le problème : modèle de régression et estimation par calage.

    Date de diffusion : 1995-12-15

  • Articles et rapports : 12-001-X199500214398
    Description :

    En nous fondant sur 14 enquêtes menées dans six pays, nous présentons la constatation empirique de l’existence et de l’ampleur des effets du plan de sondage (eps) pour cinq plans appartenant à deux types principaux. Le premier type a trait à eps (p_i – p_j), la différence de deux proportions d’une variable polytomique de trois catégories ou plus. Le deuxième type utilise les tests de chi carré pour l’analyse des différences entre deux échantillons. Nous montrons que pour toutes les variables et pour tous les plans, eps (p_i – p_j) \cong [eps (p_i) + eps (p_j)] / 2 constituent de bonnes approximations. Ces résultats sont empiriques, et les exceptions prouvent qu’il ne peut s’agir de simples inégalités analytiques. Il convient de signaler que ces résultats restent valables malgré les grandes variations des valeurs d’eps entre les variables et entre les catégories d’une même variable. Ils montrent en outre la nécessité d’utiliser des méthodes de traitement adaptées aux échantillons d’enquêtes pour l’analyse des données d’enquête, même lorsqu’on a affaire à des statistiques analytiques. En outre, ils permettent d’utiliser des approximations d’eps (p_i – p_j) tirées des valeurs plus facilement accessibles d’eps (p_i).

    Date de diffusion : 1995-12-15

  • Articles et rapports : 12-001-X199500214399
    Description :

    Nous examinons l’utilité de la moyenne winsorisée comme estimateur de la moyenne d’une distribution à asymétrie positive. On obtient la moyenne winsorisée en remplaçant toutes les observations supérieures à une valeur limite donnée R par cette même valeur R, avant le calcul de la moyenne. La valeur limite optimale, telle qu’elle est définie par Searls (1966), minimise l’erreur quadratique moyenne (mean square error, ou MSE) de l’estimateur winsorisé. Nous proposons des méthodes d’évaluation de cette valeur limite optimale avec divers plans d’échantillonnage, y compris l’échantillonnage aléatoire simple, l’échantillonnage stratifié et l’échantillonnage avec probabilité proportionnelle à la taille (ppt). Pour la plupart des distributions asymétriques, la stratégie de winsorisation optimale aura généralement pour effet de modifier la valeur d’environ une observation dans l’échantillon. On dérive des approximations directes (qui ne fait pas appel à un processus itératif) de l’efficacité de la moyenne winsorisée de Searls en utilisant la théorie des statistiques d’ordre extrême. Une expérience de Monte Carlo nous sert à comparer divers estimateurs réduisant l’impact des valeurs extrêmes.

    Date de diffusion : 1995-12-15

  • Articles et rapports : 12-001-X199500214405
    Description :

    Le présent article étudie les effets de la variabilité de l’intervieweur sur la précision des écarts estimés entre les moyennes de domaines. La première partie est consacrée à l’élaboration d’un modèle des éléments corrélés de la variance, permettant d’identifier les facteurs qui déterminent l’ampleur des effets, aspect qui influe sur le plan d’échantillonnage et la formation de l’intervieweur. Dans la deuxième partie, on trouvera une analyse empirique des données provenant d’une vaste enquête à plusieurs degrés sur l’hygiène dentaire. On s’est servi du sexe et de la race du répondant pour créer les deux jeux de domaines servant à la comparaison. Les effets globaux dus à l’intervieweur et au groupement de l’échantillon n’ont guère d’incidence sur la variance des comparaisons entre sexes masculin et féminin, mais la variance augmente pour certains écarts entre les deux groupes ethniques retenus. De fait, les effets de l’intervieweur sont deux ou trois fois plus élevés pour la comparaison des groupes ethniques que pour celle des deux sexes. Ces constatations présentent une certaine utilité pour les enquêtes dans le secteur de la santé où il est courant de recourir à un petit nombre d’intervieweurs ayant subi une formation poussée.

    Date de diffusion : 1995-12-15
Stats en bref (2)

Stats en bref (2) ((2 résultats))

  • Stats en bref : 75-001-X19950031636
    Géographie : Canada
    Description :

    Depuis la fin des années 70, les personnes de 25 à 29 ans qui ne possèdent qu'un niveau d'études secondaires ont de plus en plus de mal à trouver un emploi, et encore plus à obtenir un travail bien rémunéré. Un aperçu de l'évolution de la «réussite» sur le marché du travail, des personnes de 25 à 29 ans possédant un diplôme d'études secondaires.

    Date de diffusion : 1995-09-05

  • Stats en bref : 13-604-M1995033
    Description :

    Suivant la pratique courante, on a procédé à la révision annuelle des Comptes économiques et financiers nationaux, et les estimations révisées ont été diffusées en même temps que celles du premier trimestre de 1995. Cette révision annuelle des différentes parties du Système de comptabilité nationale est un processus intégré, les estimations révisées des comptes des revenus et dépenses, des comptes des flux financiers et de la balance des paiements internationaux étant diffusées en même temps. Les révisions correspondantes aux estimations mensuelles du produit intérieur brut (PIB) par branche d'activité et aux comptes d'entrées-sorties en prix courants et constants seront terminées en août.

    Date de diffusion : 1995-05-31
Articles et rapports (88)

Articles et rapports (88) (60 à 70 de 88 résultats)

  • Articles et rapports : 12-001-X199500114407
    Description :

    L’estimateur Horvitz-Thompson (estimateur HT) résiste mal aux valeurs aberrantes. La présence de valeurs aberrantes dans une population peut accroître sa variance, même si elle demeure non biaisée. Nous exprimons l’estimateur HT sous forme d’une fonctionnelle de moindres carrés afin d’en accroître la robustesse par l’intermédiaire d’estimateurs M. Nous dérivons une variance approximative de l’estimateur HT à robustesse accrue en utilisant un type de fonction d’influence pour l’échantillonnage, et nous élaborons un estimateur de cette variance. Une méthode adaptée de sélection d’un estimateur M conduit à des estimateurs à risque estimé minimum. Ces estimateurs et les estimateurs HT à robustesse accrue sont souvent plus efficaces que les estimateurs HT classiques, lorsque nous sommes en présence de valeurs aberrantes.

    Date de diffusion : 1995-06-15

  • Articles et rapports : 12-001-X199500114408
    Description :

    On étudie le problème de l’estimation de la médiane d’une population finie quand une variable auxiliaire est présente. On propose des estimateurs ponctuels et des estimateurs par intervalle fondés sur une approche bayesienne non informative. L’estimateur ponctuel est comparé à d’autres estimateurs possibles et l’on constate qu’il donne de bons résultats dans diverses situations.

    Date de diffusion : 1995-06-15

  • Articles et rapports : 12-001-X199500114409
    Description :

    Dans le domaine de l’échantillonnage de populations finies, les résultats classiques indiquent que l’échantillonnage systématique est le plan le plus efficace pour l’échantillonnage à une unité par strate avec probabilités égales dans le cas de certains types de superpopulations autocorrélées, mais que l’échantillonnage aléatoire simple stratifié est peut-être nettement supérieur à l’échantillonnage systématique si la superpopulation correspond à une tendance avec erreurs non corrélées. Que faire si la superpopulation est la somme d’une tendance et d’erreurs autocorrélées ? Intuitivement, on peut penser qu’un « compromis » entre les deux plans serait la meilleure solution. Dans le présent article, nous construisons de tels plans mixtes, et nous montrons qu’il s’agit d’exemples de plans à chaînes de Markov, une vaste classe de méthodes de sélection d’une unité par strate dans une population finie. Ces plans comprennent, comme cas spéciaux, l’échantillonnage systématique, l’échantillonnage systématique compensé et l’échantillonnage aléatoire simple stratifié avec une unité d’échantillonnage par strate. Les probabilités d’inclusion de premier et de second ordre sont obtenues pour les plans à chaînes de Markov, ce qui donne l’estimateur de Horvitz-Thompson et sa variance. L’efficacité de l’estimateur de Horvitz-Thompson est évaluée à l’aide de modèles de superpopulation. Des exemples numériques montrent que les nouveaux plans examinés ici peuvent être plus efficaces que les plans habituels dans le cas de superpopulations qui sont la somme d’une tendance et d’erreurs autocorrélées. Nous présentons un exemple d’application de plans à chaînes de Markov, pour les fins du National Resources Inventory de 1992 en Alaska.

    Date de diffusion : 1995-06-15

  • Articles et rapports : 12-001-X199500114410
    Description :

    Dans le cadre de la décision relative au redressement des chiffres du recensement décennal de 1990, le U.S. Census Bureau a étudié l’hétérogénéité possible des taux de sous-dénombrement parmi des parties de différents États se trouvant dans la même case de rajustement ou strate formée a posteriori. Cinq « variables de remplacement » que l’on croyait associées au sous-dénombrement ont été analysées à l’aide d’une grande partie des données du recensement, et l’on a constaté une hétérogénéité significative. L’analyse de l’enquête post-censitaire sur les taux de sous-dénombrement a montré que les variables de stratification a posteriori expliquaient une plus grande partie de la variance que l’État, d’où le choix de la strate a posteriori comme case de rajustement. On a observé une hétérogénéité significative parmi les États dans 19 des 99 groupes de strates a posteriori (surtout dans les régions non urbaines), mais, après avoir regroupé des strates a posteriori, on n’a pratiquement rien observé qui donne à penser que l’estimateur de stratification a posteriori était biaisé de façon à défavoriser certains États. Néanmoins, de futures études sur l’évaluation de la couverture devraient permettre de résoudre cette question.

    Date de diffusion : 1995-06-15

  • Articles et rapports : 12-001-X199500114411
    Description :

    En 1991, Statistique Canada a, pour la première fois, redressé les données du Programme des estimations démographiques pour tenir compte du sous-dénombrement dans le recensement de 1991. Les études sur le champ d’observation du recensement fournissaient de bonnes estimations du sous-dénombrement pour les provinces et pour des groupes d’âge-sexe largement définis à l’échelle nationale. Or, pour redresser les séries d’estimations démographiques, il fallait connaître les estimations du sous-dénombrement pour des groupes d’âge-sexe définis à l’intérieur des provinces ou des territoires. Comme les estimations directes d’enquête pour quelques-uns de ces petits domaines avaient une erreur type élevée à cause du trop petit nombre d’unités de l’échantillon contenues dans ces domaines, il a fallu recourir à des méthodes de modélisation pour petite région. Afin de tenir compte de la plage de variabilité des estimations directes d’enquête, on s’est servi d’un modèle de régression fondé sur une méthode empirique de Bayes pour estimer le sous-dénombrement dans les petits domaines. On a ensuite appliqué la méthode itérative du quotient aux estimations du sous-dénombrement pour qu’il y ait concordance avec les estimations directes marginales. Cet article donne les résultats de la modélisation et la réduction estimée de l’erreur type.

    Date de diffusion : 1995-06-15

  • Articles et rapports : 12-001-X199500114412
    Description :

    Il est fréquent, dans les enquêtes par panel menées auprès des ménages, de prélever d’abord un échantillon de ménages et de tenter par la suite de suivre tous les membres de ces ménages pendant la durée du panel. Aux vagues subséquentes, les données sont recueillies pour les membres de l’échantillon initial et pour toutes les personnes qui vivent avec les membres de l’échantillon à ce moment. Il est souhaitable, en effet, d’inclure les données recueillies aussi bien auprès des membres de l’échantillon initial que des personnes qui vivent avec elles lorsqu’on fait des estimations transversales au niveau des personnes pour une vague particulière. De même, il est souhaitable d’inclure les données de tous les ménages pour lesquels des données sont recueillies à une vague particulière lorsqu’on fait des estimations transversales au niveau des ménages pour cette vague. Le présent article examine des méthodes de pondération qui peuvent être utilisées à cette fin. Ces méthodes de pondération peuvent aussi servir dans d’autres contextes, lorsqu’il existe plusieurs voies par lesquelles les unités peuvent être prélevées dans l’échantillon.

    Date de diffusion : 1995-06-15

  • Articles et rapports : 12-001-X199500114413
    Description :

    Les organismes de statistiques effectuent de plus en plus d’enquêtes longitudinales. Or, même si ces enquêtes produisent surtout des données longitudinales, on s’attend dans la plupart des cas qu’elles donnent également des estimations transversales fiables. Les enquêtes menées auprès des individus et des ménages doivent pouvoir tenir compte de la dynamique des populations, c’est-à-dire des changements sensibles qui peuvent survenir, avec le temps, dans la composition des ménages. Ainsi, il convient d’adapter les méthodes d’estimation transversale à la nature longitudinale de l’échantillon. Dans le présent document, nous présentons un aperçu général de la méthode du partage des poids, laquelle peut servir entre autres à attribuer un poids de base aux membres d’un ménage. Nous nous penchons également sur l’estimateur de variance associé à cette méthode. Nous examinons finalement le problème que pose la pondération d’un échantillon longitudinal dans les cas où un échantillon supplémentaire est sélectionné pour améliorer la représentativité transversale de l’échantillon. Nous examinons, en guise d’application, l’Enquête sur la dynamique du travail et du revenu (EDTR) mise en œuvre par Statistique Canada en 1994. Cette enquête longitudinale s’intéresse à l’expérience pratique des individus, à l’évolution de leurs revenus et aux changements dans la composition des ménages.

    Date de diffusion : 1995-06-15

  • Articles et rapports : 12-001-X199500114414
    Description :

    Tout le monde sait que, dans un échantillonnage aléatoire simple avec remise, la moyenne d’échantillon calculée uniquement sur la base des unités non répétées est plus efficace que la moyenne d’échantillon calculée sur la base de toutes les unités échantillonnées sans distinction (Murthy 1967, pp. 65-66). Seth et Rao (1964) ont montré que, étant donné le même coût moyen d’échantillonnage, la moyenne d’échantillon calculée sur la base des unités non répétées dans un échantillonnage avec remise était moins efficace que la moyenne calculée dans un échantillonnage sans remise. En nous servant de la méthode des réponses randomisées de Warner (1965), nous comparons l’échantillonnage aléatoire simple sans remise et l’échantillonnage avec remise où seules les unités non répétées sont prises en compte.

    Date de diffusion : 1995-06-15

  • Articles et rapports : 12-001-X199500114415
    Description :

    Nous examinons la contribution de Stanley Warner à l’étude des réponses randomisées, avant d’élaborer un modèle linéaire, fondé sur les modèles de permutation aléatoire, qui permet d’intégrer, à titre de cas spéciaux, plusieurs plans connus à réponses randomisées. On obtient avec l’aide de ce modèle des estimateurs optimums des variances et des covariances de populations finies à l’intérieur d’une classe générale d’estimateurs quadratiques non biaisés. Ces résultats conduisent à la mise au point d’un estimateur de la corrélation de la population finie. Trois plans d’expérience particuliers à réponses randomisées sont examinés : (i) le modèle des questions non liées de Greenberg et coll. (1969); (ii) le modèle des constantes additives de Pollock et Bek (1976); le modèle des constantes multiplicatives de Pollock et Bek (1976). Nous proposons des modèles simples du biais dans les réponses afin d’illustrer l’effet de ce biais sur l’estimation de la corrélation.

    Date de diffusion : 1995-06-15

  • Articles et rapports : 12-001-X199500114416
    Description :

    Stanley Warner s’est acquis une renommée à titre de concepteur de la technique de randomisation des réponses pour les enquêtes comportant des questions délicates. Pendant près de vingt ans, il a aussi formulé et mis au point une méthode statistique s’appliquant à un autre problème, celui de l’obtention d’une information équilibrée sur des questions controversées de telle sorte que les deux points de vue soient représentés de manière adéquate et équitable. Nous passons en revue ces travaux, notamment deux situations d’enquête dans lesquelles Warner a mis sa méthode à l’épreuve, et nous examinons comment les concepts proposés s’inscrivent dans l’évolution actuelle de la méthodologie.

    Date de diffusion : 1995-06-15
Revues et périodiques (0)

Revues et périodiques (0) (0 résultat)

Aucun contenu disponible actuellement

Date de modification :