Analyses
Filtrer les résultats par
Aide à la rechercheMot(s)-clé(s)
Résultats
Tout (23)
Tout (23) (0 à 10 de 23 résultats)
- Articles et rapports : 12-001-X198800214582Description :
Bibliographie complète des ouvrages, comptes rendus de recherche et articles publiés sur la théorie, l’application et le développement des techniques associées à la méthode des réponses randomisées; avec une classification par sujet.
Date de diffusion : 1988-12-15 - 2. Note d’information sur SQL ArchivéArticles et rapports : 12-001-X198800214583Description :
Cette note d’information met en lumière les points forts et les points faibles du langage SQL.
Date de diffusion : 1988-12-15 - 3. Analyse des adresses postales ArchivéArticles et rapports : 12-001-X198800214584Description :
Lorsqu’on examine les adresses postales pouvant figurer dans un fichier administratif, nous sommes frappés par la complexité de la syntaxe, l’absence de normes, les ambiguïtés diverses et les nombreuses erreurs. L’utilisation des adresses postales par un système informatique présente donc de réelles difficultés. Le PAAS (système d’analyse des adresses postales) en voie d’élaboration à Statistique Canada a pour objet de remplacer le sous-programme désuet utilisé partout dans le Bureau pour décoder les adresses postales. Le PAAS permettra aux applications informatiques d’obtenir les composantes d’adresses, la version normalisée de ces composantes et la clé de recherche d’adresse (ASK) correspondante.
Date de diffusion : 1988-12-15 - Articles et rapports : 12-001-X198800214585Description :
Les méthodes servant à contrôler la qualité des opérations d’enquête à Statistique Canada consistent habituellement en un échantillonnage pour acceptation pour chaque caractéristique, accompagné d’une inspection de redressement, l’une et l’autre opération s’inscrivant dans le cadre plus général du contrôle d’acceptation. Bien que ces méthodes soient considérées comme de bonnes mesures correctives, elles sont peu efficaces pour empêcher une répétition des erreurs. Vu l’importance primordiale de cet aspect de la gestion de la qualité, le Système de gestion de la qualité (SGQ) a été conçu en fonction de plusieurs objectifs dont la prévention des erreurs est un des principaux. C’est pourquoi il sert à produire des rapports de contrôle et des graphiques à l’intention des opérateurs, superviseurs et gestionnaires chargés des diverses opérations. Il sert également à produire des données sur les changements survenus au chapitre de l’inspection et permet ainsi aux méthodologistes de réviser les plans et les méthodes d’inspection en conformité avec les grandes lignes du contrôle d’acceptation. Cet article expose les principales caractéristiques du SGQ au point de vue de l’estimation et de la totalisation des données et montre de quelle façon ce système dessert les principaux programmes de contrôle de la qualité à Statistique Canada. Des fonctions importantes sont également analysées du point de vue méthodologique et systémique.
Date de diffusion : 1988-12-15 - Articles et rapports : 12-001-X198800214586Description :
Dans cet article, il est question de l’application généralisée d’une méthode de codage automatique. Jusqu’à récemment, le codage était une opération manuelle confiée à des personnes formées spécialement à cet effet; toutefois, la création de systèmes informatiques particuliers a contribué à éliminer sinon à réduire sensiblement le codage manuel. En règle générale, l’utilisation de ces nouveaux systèmes est limitée aux applications pour lesquelles ils ont été conçus. Le système qui est décrit ici peut servir à n’importe quelle forme de codage de textes anglais ou français selon n’importe quel mode de classification.
Date de diffusion : 1988-12-15 - Articles et rapports : 12-001-X198800214587Description :
Le système QUID, conçu et développé par l’INSEE (Paris) est un système de chiffrement automatique de données d’enquête recueillies sous forme d’intitulés littéraux exprimés dans la terminologie du répondant. Le système repose sur l’utilisation d’une très vaste base d’apprentissage composée de phrases réelles codifiées par des experts. L’article présente d’abord le traitement automatique de normalisation préalable des phrases, puis l’algorithme organisant la base de phrases en une arborescence optimisée. Un exemple de classement est donné en illustration. Le traitement des variables annexes de codification, venant compléter l’information contenue dans les phrases, présente actuellement des difficultés qui sont examinées en détail. Le projet QUID 2, version rénovée du système, est évoqué succinctement.
Date de diffusion : 1988-12-15 - Articles et rapports : 12-001-X198800214588Description :
Supposons que des taux de sous-dénombrement ont été estimés pour un recensement et que des estimations du niveau de sous-dénombrement ont été établies pour les îlots. Il peut être alors souhaitable de dresser une nouvelle liste de ménages qui comprendrait les ménages qui auraient été oubliés. Nous proposons dans cet article de dresser une telle liste en pondérant les ménages qui ont été dénombrés. Les poids des ménages sont déterminés par des équations linéaires qui représentent le nombre total voulu de personnes dans chaque classe d’estimation et le nombre total voulu de ménages. On calcule alors des poids qui satisfont les contraintes et qui rapprochent le plus possible le tableau des données ajustées des données brutes. On peut voir dans cette méthode un exemple d’application de la méthode itérative du quotient à des cas où les contraintes ne concernent pas les fréquences marginales d’un tableau de contingence. Des covariables continues ou discrètes peuvent être utilisées dans les opérations de redressement et il est possible de vérifier directement si les contraints peuvent être satisfaites. Enfin, nous proposons des méthodes pour l’utilisation de données pondérées à des fins diverses liées au recensement et pour le redressement de données corrélées sur les caractéristiques des ménages oubliés, par exemple le revenu, qui ne sont pas considérées directement dans l’estimation du niveau de sous-dénombrement.
Date de diffusion : 1988-12-15 - Articles et rapports : 12-001-X198800214589Description :
Le U.S. Bureau of the Census utilise des estimateurs de système dual (ESD) pour évaluer l’erreur de couverture dans le recensement. Ce genre d’estimateur repose sur des données du recensement initial et d’une enquête postcensitaire. Lorsqu’on mesure la précision de l’ESD, il importe de savoir que cet estimateur est soumis à plusieurs composantes de l’erreur d’échantillonnage et de l’erreur non due à l’échantillonnage. Dans cet article, nous décrivons des modèles de l’erreur totale et des composantes d’erreur dans les estimateurs de système dual. Ces modèles établissent un rapport entre des indices observés de la qualité des données, comme le taux d’erreur d’appariement, et les deux premiers moments des composantes d’erreur. Nous analysons également la propagation de l’erreur dans l’ESD et évaluons le biais et la variance de cet estimateur. La méthode proposée est appliquée au recensement du Central Los Angeles County de 1986 dans le cadre du Test des opérations de redressement du U.S. Bureau of the Census. Cette méthode sera aussi utile pour évaluer l’erreur dans l’ESD à l’occasion du recensement de 1990 et pour d’autres applications.
Date de diffusion : 1988-12-15 - Articles et rapports : 12-001-X198800214590Description :
Le présent article expose les résultats d’une étude des causes du sous-dénombrement à l’occasion du recensement d’une région urbaine à dominante hispanique particulièrement difficile à dénombrer. L’étude propose un cadre d’organisation des causes du sous-dénombrement et tente d’expliquer ces celles-ci à partir de diverses hypothèses. L’approche adoptée est unique dans le sens qu’elle vise à quantifier les causes de sous-dénombrement et à isoler les problèmes exceptionnellement importants en incluant une analyse statistique des autres problèmes.
Date de diffusion : 1988-12-15 - Articles et rapports : 12-001-X198800214591Description :
Pour estimer le taux de sous-dénombrement dans le recensement, on exécute une enquête postcensitaire (EP) et on tente d’apparier les enregistrements de cette enquête avec des enregistrements du recensement; le taux d’appariement donne une estimation du taux de couverture du recensement. L’estimation du sous-dénombrement repose sur une stratification a posteriori où les caractéristiques géographiques et démographiques et les caractéristiques du logement X servent de critères de stratification. Or, la non-réponse fait qu’il manque des données sur X pour certaines personnes; en outre, on ne peut déterminer un code d’appariement Y pour chaque personne. Il faut donc une méthode pour imputer les valeurs manquantes de X et de Y. Cet article vise à examiner les méthodes d’imputation qui ont été utilisées dans le Test des opérations de redressement de 1986 (Schenker 1988) et propose deux méthodes de rechange axées sur des modèles : (1) une méthode d’estimation de tableau de contingence fondée sur le maximum de vraisemblance, qui ne tient pas compte du mécanisme de non-réponse et (2) une nouvelle méthode d’estimation de tableau de contingence de type bayesien, qui tient compte du mécanisme de non-réponse. La première méthode est plus simple au point de vue du calcul mais la seconde est plus intéressante au point de vue théorique et scientifique.
Date de diffusion : 1988-12-15
Stats en bref (0)
Stats en bref (0) (0 résultat)
Aucun contenu disponible actuellement
Articles et rapports (23)
Articles et rapports (23) (0 à 10 de 23 résultats)
- Articles et rapports : 12-001-X198800214582Description :
Bibliographie complète des ouvrages, comptes rendus de recherche et articles publiés sur la théorie, l’application et le développement des techniques associées à la méthode des réponses randomisées; avec une classification par sujet.
Date de diffusion : 1988-12-15 - 2. Note d’information sur SQL ArchivéArticles et rapports : 12-001-X198800214583Description :
Cette note d’information met en lumière les points forts et les points faibles du langage SQL.
Date de diffusion : 1988-12-15 - 3. Analyse des adresses postales ArchivéArticles et rapports : 12-001-X198800214584Description :
Lorsqu’on examine les adresses postales pouvant figurer dans un fichier administratif, nous sommes frappés par la complexité de la syntaxe, l’absence de normes, les ambiguïtés diverses et les nombreuses erreurs. L’utilisation des adresses postales par un système informatique présente donc de réelles difficultés. Le PAAS (système d’analyse des adresses postales) en voie d’élaboration à Statistique Canada a pour objet de remplacer le sous-programme désuet utilisé partout dans le Bureau pour décoder les adresses postales. Le PAAS permettra aux applications informatiques d’obtenir les composantes d’adresses, la version normalisée de ces composantes et la clé de recherche d’adresse (ASK) correspondante.
Date de diffusion : 1988-12-15 - Articles et rapports : 12-001-X198800214585Description :
Les méthodes servant à contrôler la qualité des opérations d’enquête à Statistique Canada consistent habituellement en un échantillonnage pour acceptation pour chaque caractéristique, accompagné d’une inspection de redressement, l’une et l’autre opération s’inscrivant dans le cadre plus général du contrôle d’acceptation. Bien que ces méthodes soient considérées comme de bonnes mesures correctives, elles sont peu efficaces pour empêcher une répétition des erreurs. Vu l’importance primordiale de cet aspect de la gestion de la qualité, le Système de gestion de la qualité (SGQ) a été conçu en fonction de plusieurs objectifs dont la prévention des erreurs est un des principaux. C’est pourquoi il sert à produire des rapports de contrôle et des graphiques à l’intention des opérateurs, superviseurs et gestionnaires chargés des diverses opérations. Il sert également à produire des données sur les changements survenus au chapitre de l’inspection et permet ainsi aux méthodologistes de réviser les plans et les méthodes d’inspection en conformité avec les grandes lignes du contrôle d’acceptation. Cet article expose les principales caractéristiques du SGQ au point de vue de l’estimation et de la totalisation des données et montre de quelle façon ce système dessert les principaux programmes de contrôle de la qualité à Statistique Canada. Des fonctions importantes sont également analysées du point de vue méthodologique et systémique.
Date de diffusion : 1988-12-15 - Articles et rapports : 12-001-X198800214586Description :
Dans cet article, il est question de l’application généralisée d’une méthode de codage automatique. Jusqu’à récemment, le codage était une opération manuelle confiée à des personnes formées spécialement à cet effet; toutefois, la création de systèmes informatiques particuliers a contribué à éliminer sinon à réduire sensiblement le codage manuel. En règle générale, l’utilisation de ces nouveaux systèmes est limitée aux applications pour lesquelles ils ont été conçus. Le système qui est décrit ici peut servir à n’importe quelle forme de codage de textes anglais ou français selon n’importe quel mode de classification.
Date de diffusion : 1988-12-15 - Articles et rapports : 12-001-X198800214587Description :
Le système QUID, conçu et développé par l’INSEE (Paris) est un système de chiffrement automatique de données d’enquête recueillies sous forme d’intitulés littéraux exprimés dans la terminologie du répondant. Le système repose sur l’utilisation d’une très vaste base d’apprentissage composée de phrases réelles codifiées par des experts. L’article présente d’abord le traitement automatique de normalisation préalable des phrases, puis l’algorithme organisant la base de phrases en une arborescence optimisée. Un exemple de classement est donné en illustration. Le traitement des variables annexes de codification, venant compléter l’information contenue dans les phrases, présente actuellement des difficultés qui sont examinées en détail. Le projet QUID 2, version rénovée du système, est évoqué succinctement.
Date de diffusion : 1988-12-15 - Articles et rapports : 12-001-X198800214588Description :
Supposons que des taux de sous-dénombrement ont été estimés pour un recensement et que des estimations du niveau de sous-dénombrement ont été établies pour les îlots. Il peut être alors souhaitable de dresser une nouvelle liste de ménages qui comprendrait les ménages qui auraient été oubliés. Nous proposons dans cet article de dresser une telle liste en pondérant les ménages qui ont été dénombrés. Les poids des ménages sont déterminés par des équations linéaires qui représentent le nombre total voulu de personnes dans chaque classe d’estimation et le nombre total voulu de ménages. On calcule alors des poids qui satisfont les contraintes et qui rapprochent le plus possible le tableau des données ajustées des données brutes. On peut voir dans cette méthode un exemple d’application de la méthode itérative du quotient à des cas où les contraintes ne concernent pas les fréquences marginales d’un tableau de contingence. Des covariables continues ou discrètes peuvent être utilisées dans les opérations de redressement et il est possible de vérifier directement si les contraints peuvent être satisfaites. Enfin, nous proposons des méthodes pour l’utilisation de données pondérées à des fins diverses liées au recensement et pour le redressement de données corrélées sur les caractéristiques des ménages oubliés, par exemple le revenu, qui ne sont pas considérées directement dans l’estimation du niveau de sous-dénombrement.
Date de diffusion : 1988-12-15 - Articles et rapports : 12-001-X198800214589Description :
Le U.S. Bureau of the Census utilise des estimateurs de système dual (ESD) pour évaluer l’erreur de couverture dans le recensement. Ce genre d’estimateur repose sur des données du recensement initial et d’une enquête postcensitaire. Lorsqu’on mesure la précision de l’ESD, il importe de savoir que cet estimateur est soumis à plusieurs composantes de l’erreur d’échantillonnage et de l’erreur non due à l’échantillonnage. Dans cet article, nous décrivons des modèles de l’erreur totale et des composantes d’erreur dans les estimateurs de système dual. Ces modèles établissent un rapport entre des indices observés de la qualité des données, comme le taux d’erreur d’appariement, et les deux premiers moments des composantes d’erreur. Nous analysons également la propagation de l’erreur dans l’ESD et évaluons le biais et la variance de cet estimateur. La méthode proposée est appliquée au recensement du Central Los Angeles County de 1986 dans le cadre du Test des opérations de redressement du U.S. Bureau of the Census. Cette méthode sera aussi utile pour évaluer l’erreur dans l’ESD à l’occasion du recensement de 1990 et pour d’autres applications.
Date de diffusion : 1988-12-15 - Articles et rapports : 12-001-X198800214590Description :
Le présent article expose les résultats d’une étude des causes du sous-dénombrement à l’occasion du recensement d’une région urbaine à dominante hispanique particulièrement difficile à dénombrer. L’étude propose un cadre d’organisation des causes du sous-dénombrement et tente d’expliquer ces celles-ci à partir de diverses hypothèses. L’approche adoptée est unique dans le sens qu’elle vise à quantifier les causes de sous-dénombrement et à isoler les problèmes exceptionnellement importants en incluant une analyse statistique des autres problèmes.
Date de diffusion : 1988-12-15 - Articles et rapports : 12-001-X198800214591Description :
Pour estimer le taux de sous-dénombrement dans le recensement, on exécute une enquête postcensitaire (EP) et on tente d’apparier les enregistrements de cette enquête avec des enregistrements du recensement; le taux d’appariement donne une estimation du taux de couverture du recensement. L’estimation du sous-dénombrement repose sur une stratification a posteriori où les caractéristiques géographiques et démographiques et les caractéristiques du logement X servent de critères de stratification. Or, la non-réponse fait qu’il manque des données sur X pour certaines personnes; en outre, on ne peut déterminer un code d’appariement Y pour chaque personne. Il faut donc une méthode pour imputer les valeurs manquantes de X et de Y. Cet article vise à examiner les méthodes d’imputation qui ont été utilisées dans le Test des opérations de redressement de 1986 (Schenker 1988) et propose deux méthodes de rechange axées sur des modèles : (1) une méthode d’estimation de tableau de contingence fondée sur le maximum de vraisemblance, qui ne tient pas compte du mécanisme de non-réponse et (2) une nouvelle méthode d’estimation de tableau de contingence de type bayesien, qui tient compte du mécanisme de non-réponse. La première méthode est plus simple au point de vue du calcul mais la seconde est plus intéressante au point de vue théorique et scientifique.
Date de diffusion : 1988-12-15
Revues et périodiques (0)
Revues et périodiques (0) (0 résultat)
Aucun contenu disponible actuellement
- Date de modification :