Recherche par mot-clé

Aide à l'ordre
entrées

Résultats

Tout (15)

Tout (15) (0 à 10 de 15 résultats)

  • Enquêtes et programmes statistiques — Documentation : 13-604-M1996035
    Description :

    À peu près tous les cinq ans, on change l'année de base du Système de comptabilité nationale (SCN) pour tenir compte de l'évolution des prix dans l'économie. Autrement dit, les agrégats en prix constants du SCN sont recalculés en fonction des prix d'une période plus récente. En outre, le système est réformé environ tous les 10 ans pour y incorporer de nouveaux principes comptables, des méthodes d'estimation améliorées et des classifications statistiques révisées. Ces révisions modifieront le produit intérieur brut (PIB) des 70 dernières années. Fait à noter, ces deux types de révision sont maintenant en cours, et l'on prévoit en diffuser les résultats l'année prochaine.

    Dans cette publication, on examine à l'avance l'effet probable qu'exercera le changement de l'année de base ou « rebasement » sur la comptabilisation de la croissance depuis 1992. De plus, on y présente les résultats d'une approximation du rebasement pour le PIB en termes de dépenses établi dans le cadre des Comptes nationaux des revenus et dépenses trimestriels.

    Date de diffusion : 1996-08-30

  • Articles et rapports : 91F0015M1996001
    Géographie : Canada
    Description :

    Cette publication décrit la méthode employée pour projeter la fécondité lors de la préparation des projections de population de 1993 à 2016, par âge et sexe, pour le Canada, les provinces et les territoires. Une nouvelle version du modèle paramétrique basée sur la courbe III de Pearson a été utilisée pour projeter la distribution par âge de la fécondité. Dans ce cas l'utilisation de la courbe de type III présente une amélioration par rapport à celle de la courbe de type I utilisée jusqu'à présent, parce que la courbe de type III, à la fois reflète mieux la distribution par âge des taux de fécondité et les estimés des naissances. Comme les projections appuyées sur la population de 1993 sont les premières à tenir compte du sous dénombrement net du recensement pour estimer la population de base, on a dû recalculer les taux de fécondité par âge avec des dénominateurs corrigés. Il en est résulté, pour toute la série de 1971 à 1993, des taux plus faibles et par conséquent des indices synthétiques également plus faibles. Les trois jeux d'hypothèses et de projections ont pris en considération les nouveaux taux.

    On souhaite que cette publication procure une information valide en ce qui concerne les aspects techniques et analytiques du modèle de projection utilisé actuellement. Des discussions sur les niveaux actuels et futurs des schémas de fécondité pour le pays, les provinces et les territoires sont également offerts au lecteur.

    Date de diffusion : 1996-08-02

  • Articles et rapports : 12-001-X199600114381
    Description :

    Les problèmes que pose le contrôle statistique de la divulgation, lequel a pour but d’empêcher les utilisateurs des données de divulguer des renseignements sur des répondants particuliers, se sont multipliés rapidement au cours des dernières années. La situation est due principalement à l’augmentation de la demande de données détaillées provenant des bureaux de la statistique, elle-même causée par l’accroissement continuel de l’usage des ordinateurs. Auparavant, ces bureaux produisaient des tableaux contenant relativement peu d’information. Aujourd’hui, par contre, les utilisateurs de données demandent des tableaux beaucoup plus détaillés et, qui plus est, des microdonnées à analyser eux-mêmes. Or, l’augmentation du contenu informatique des données rend le contrôle statistique de la divulgation beaucoup plus difficile. Les auteurs se fondent sur l’expérience qu’ils ont acquise dans le domaine du contrôle statistique de la divulgation à Statistics Netherlands pour exposer les problèmes qu’il faut, selon eux, surmonter quand on essaie de protéger les microdonnées contre la divulgation.

    Date de diffusion : 1996-06-14

  • Articles et rapports : 12-001-X199600114382
    Description :

    Un algorithme général à probabilités égales est présenté. On donne les probabilités d’inclusion d’ordre deux qui correspondent à cet algorithme. Celui-ci généralise la méthode de sélection-rejet permettant de constituer un échantillon au moyen d’un plan simple sans remise. Un autre cas particulier de cet algorithme baptisé « algorithme de stratification mobile » est discuté. Il permet d’obtenir un effet de stratification lissé en utilisant comme variable de stratification le numéro d’ordre des unités d’observation. On donne des approximations des probabilités d’inclusion d’ordre un et deux. Ces approximations permettent de construire un estimateur de la moyenne de la population ainsi qu’un estimateur de la variance de cet estimateur de moyenne. Cet algorithme est ensuite comparé à un plan stratifié classique avec allocation proportionnelle.

    Date de diffusion : 1996-06-14

  • Articles et rapports : 12-001-X199600114383
    Description :

    L’estimation de la tendance-cycle par la méthode X-11-ARMMI est souvent effectuée en appliquant le filtre de Henderson à 13 termes à des données désaisonnalisées, modifiées par des valeurs extrêmes. Cependant, ce filtre produit dans la courbe tendance-cycle finale ou « historique » un grand nombre d’ondulations indésirables qui sont interprétées, erronément, comme des points de retournement. L’utilisation d’un filtre de Henderson plus long, tel que celui à 23 termes, n’est pas une solution, car ce filtre retarde la détection des points de retournement, donc, ne convient pas pour les analyses économiques et commerciales courantes. L’auteure propose une nouvelle méthode d’utilisation du filtre de Henderson à 13 termes ayant l’avantage de i) diminuer le nombre d’ondulations indésirables, ii) réduire l’importance des corrections apportées aux valeurs préliminaires et iii) ne pas augmenter le décalage avec lequel sont décelés les points de retournement. Les résultats de l’application de la méthode à neuf indicateurs avancés de l’Indice composite canadien des indicateurs avancés sont présentés à titre d’illustration.

    Date de diffusion : 1996-06-14

  • Articles et rapports : 12-001-X199600114384
    Description :

    On a utilisé la méthode de Lavallée-Hidiroglou (L-H) pour le calcul des bornes de stratification dans le cadre de l’Enquête annuelle du Bureau of the Census sur les dépenses en capital (Annual Capital Expenditures Survey, ou ACES), afin de stratifier une portion de l’univers de cette enquête aux fins de l’étude pilote et des enquêtes préliminaires subséquentes. Cette méthode itérative minimise la taille de l’échantillon tout en fixant le niveau souhaité de fiabilité en établissant des bornes appropriées. Toutefois, deux problèmes se sont posés lors de son application. D’abord, des bornes de départ différentes ont engendré des bornes finales différentes. Deuxièmement, la convergence vers les bornes localement optimales a été lente; autrement dit, le nombre d’itérations était élevé et la convergence n’était pas garantie. Le présent article décrit les difficultés rencontrées avec la méthode L-H et montre comment elles ont été résolues de manière à ce que cette méthode fonctionne correctement pour l’ACES. Nous décrivons notamment comment les tracés de contours ont été établis et utilisés afin d’illustrer l’importance des problèmes relevés lors de l’utilisation de la méthode L-H. Nous décrivons en outre les changements apportés à la méthode L-H afin d’en faire un moyen utile de détermination des bornes de stratification pour l’ACES.

    Date de diffusion : 1996-06-14

  • Articles et rapports : 12-001-X199600114385
    Description :

    Les auteurs examinent le recensement par saisie-resaisie multiples en assouplissant l’hypothèse classique d’un appariement parfait. Ils proposent des modèles avec erreur d’appariement permettant de caractériser les méthodes d’appariement sujettes à des erreurs. Les données observées prennent la forme d’un tableau de contingence 2^k auquel manque une cellule et suivent une distribution multinomiale. Les auteurs proposent une méthode pour estimer la population. Cette approche s’applique à la fois aux modèles log-linéaires habituels pour les tableaux de contingence et aux modèles log-linéaires de l’hétérogénéité du potentiel de saisie. Enfin, les auteurs illustrent leur méthode et procèdent à une estimation en recourant à une répétition générale du recensement de 1990, effectuée en 1988 par le U.S. Bureau of the Census.

    Date de diffusion : 1996-06-14

  • Articles et rapports : 12-001-X199600114386
    Description :

    Dans certaines enquêtes, on peut utiliser, pour la correction de la non-réponse, de nombreuses variables auxiliaires relatives aux répondants et aux non-répondants. On peut s’interroger sur le choix des variables auxiliaires à retenir aux fins de cette correction et sur la façon de les utiliser. Dans la présente recherche, nous examinons diverses méthodes de correction de la non-réponse fondées sur des modèles de régression logistique, sur des algorithmes de recherche par catégories et sur la méthode du quotient généralisée. Ces méthodes servent à la pondération de la non-réponse pour l’Enquête Survey of Income and Program Participation (SIPP). Les estimations issues des diverses méthodes de correction sont comparées entre elles et également à des estimations de référence provenant d’autres sources.

    Date de diffusion : 1996-06-14

  • Articles et rapports : 12-001-X199600114387
    Description :

    Les auteurs examinent la méthodologie de l’analyse de la variance dans le cas d’une distribution gaussienne inverse et l’adaptent à l’estimation des paramètres régionaux de populations finies. Grâce à une étude de Monte Carlo, ils démontrent que le choix de ces estimateurs est défendable pour les données d’enquête étalées vers la droite, telles que celles sur le revenu ou sur le rendement d’un secteur particulier.

    Date de diffusion : 1996-06-14

  • Articles et rapports : 12-001-X199600114388
    Description :

    Les auteurs examinent l’estimation de la variance d’une totalisation issue d’un échantillonnage stratifié à degrés multiples pour l’estimateur de stratification a posteriori et l’estimateur de régression généralisée. En linéarisant l’estimateur de variance jackknife, on obtient un nouvel estimateur, différent de celui obtenu par la méthode de linéarisation ordinaire. En matière de calcul, cet estimateur est plus simple à utiliser que l’estimateur de variance jackknife. Pourtant, il donne des valeurs qui s’approchent de celles de la méthode du jackknife. Les auteurs étudient les propriétés de l’estimateur de variance jackknife linéarisé, de l’estimateur de variance linéarisé ordinaire et de l’estimateur de variance jackknife dans le cadre d’une simulation. D’après l’écart entre le total estimatif des variables auxiliaires et les totaux connus de la population, les trois estimateurs donnent de bons résultats, conditionnellement ou non. Un estimateur de variance jackknife reposant sur une nouvelle pondération incorrecte a donné de piètres résultats, signe qu’il est important de procéder de façon adéquate à une nouvelle pondération quand on recourt à la méthode du jackknife.

    Date de diffusion : 1996-06-14
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (14)

Analyses (14) (0 à 10 de 14 résultats)

  • Articles et rapports : 91F0015M1996001
    Géographie : Canada
    Description :

    Cette publication décrit la méthode employée pour projeter la fécondité lors de la préparation des projections de population de 1993 à 2016, par âge et sexe, pour le Canada, les provinces et les territoires. Une nouvelle version du modèle paramétrique basée sur la courbe III de Pearson a été utilisée pour projeter la distribution par âge de la fécondité. Dans ce cas l'utilisation de la courbe de type III présente une amélioration par rapport à celle de la courbe de type I utilisée jusqu'à présent, parce que la courbe de type III, à la fois reflète mieux la distribution par âge des taux de fécondité et les estimés des naissances. Comme les projections appuyées sur la population de 1993 sont les premières à tenir compte du sous dénombrement net du recensement pour estimer la population de base, on a dû recalculer les taux de fécondité par âge avec des dénominateurs corrigés. Il en est résulté, pour toute la série de 1971 à 1993, des taux plus faibles et par conséquent des indices synthétiques également plus faibles. Les trois jeux d'hypothèses et de projections ont pris en considération les nouveaux taux.

    On souhaite que cette publication procure une information valide en ce qui concerne les aspects techniques et analytiques du modèle de projection utilisé actuellement. Des discussions sur les niveaux actuels et futurs des schémas de fécondité pour le pays, les provinces et les territoires sont également offerts au lecteur.

    Date de diffusion : 1996-08-02

  • Articles et rapports : 12-001-X199600114381
    Description :

    Les problèmes que pose le contrôle statistique de la divulgation, lequel a pour but d’empêcher les utilisateurs des données de divulguer des renseignements sur des répondants particuliers, se sont multipliés rapidement au cours des dernières années. La situation est due principalement à l’augmentation de la demande de données détaillées provenant des bureaux de la statistique, elle-même causée par l’accroissement continuel de l’usage des ordinateurs. Auparavant, ces bureaux produisaient des tableaux contenant relativement peu d’information. Aujourd’hui, par contre, les utilisateurs de données demandent des tableaux beaucoup plus détaillés et, qui plus est, des microdonnées à analyser eux-mêmes. Or, l’augmentation du contenu informatique des données rend le contrôle statistique de la divulgation beaucoup plus difficile. Les auteurs se fondent sur l’expérience qu’ils ont acquise dans le domaine du contrôle statistique de la divulgation à Statistics Netherlands pour exposer les problèmes qu’il faut, selon eux, surmonter quand on essaie de protéger les microdonnées contre la divulgation.

    Date de diffusion : 1996-06-14

  • Articles et rapports : 12-001-X199600114382
    Description :

    Un algorithme général à probabilités égales est présenté. On donne les probabilités d’inclusion d’ordre deux qui correspondent à cet algorithme. Celui-ci généralise la méthode de sélection-rejet permettant de constituer un échantillon au moyen d’un plan simple sans remise. Un autre cas particulier de cet algorithme baptisé « algorithme de stratification mobile » est discuté. Il permet d’obtenir un effet de stratification lissé en utilisant comme variable de stratification le numéro d’ordre des unités d’observation. On donne des approximations des probabilités d’inclusion d’ordre un et deux. Ces approximations permettent de construire un estimateur de la moyenne de la population ainsi qu’un estimateur de la variance de cet estimateur de moyenne. Cet algorithme est ensuite comparé à un plan stratifié classique avec allocation proportionnelle.

    Date de diffusion : 1996-06-14

  • Articles et rapports : 12-001-X199600114383
    Description :

    L’estimation de la tendance-cycle par la méthode X-11-ARMMI est souvent effectuée en appliquant le filtre de Henderson à 13 termes à des données désaisonnalisées, modifiées par des valeurs extrêmes. Cependant, ce filtre produit dans la courbe tendance-cycle finale ou « historique » un grand nombre d’ondulations indésirables qui sont interprétées, erronément, comme des points de retournement. L’utilisation d’un filtre de Henderson plus long, tel que celui à 23 termes, n’est pas une solution, car ce filtre retarde la détection des points de retournement, donc, ne convient pas pour les analyses économiques et commerciales courantes. L’auteure propose une nouvelle méthode d’utilisation du filtre de Henderson à 13 termes ayant l’avantage de i) diminuer le nombre d’ondulations indésirables, ii) réduire l’importance des corrections apportées aux valeurs préliminaires et iii) ne pas augmenter le décalage avec lequel sont décelés les points de retournement. Les résultats de l’application de la méthode à neuf indicateurs avancés de l’Indice composite canadien des indicateurs avancés sont présentés à titre d’illustration.

    Date de diffusion : 1996-06-14

  • Articles et rapports : 12-001-X199600114384
    Description :

    On a utilisé la méthode de Lavallée-Hidiroglou (L-H) pour le calcul des bornes de stratification dans le cadre de l’Enquête annuelle du Bureau of the Census sur les dépenses en capital (Annual Capital Expenditures Survey, ou ACES), afin de stratifier une portion de l’univers de cette enquête aux fins de l’étude pilote et des enquêtes préliminaires subséquentes. Cette méthode itérative minimise la taille de l’échantillon tout en fixant le niveau souhaité de fiabilité en établissant des bornes appropriées. Toutefois, deux problèmes se sont posés lors de son application. D’abord, des bornes de départ différentes ont engendré des bornes finales différentes. Deuxièmement, la convergence vers les bornes localement optimales a été lente; autrement dit, le nombre d’itérations était élevé et la convergence n’était pas garantie. Le présent article décrit les difficultés rencontrées avec la méthode L-H et montre comment elles ont été résolues de manière à ce que cette méthode fonctionne correctement pour l’ACES. Nous décrivons notamment comment les tracés de contours ont été établis et utilisés afin d’illustrer l’importance des problèmes relevés lors de l’utilisation de la méthode L-H. Nous décrivons en outre les changements apportés à la méthode L-H afin d’en faire un moyen utile de détermination des bornes de stratification pour l’ACES.

    Date de diffusion : 1996-06-14

  • Articles et rapports : 12-001-X199600114385
    Description :

    Les auteurs examinent le recensement par saisie-resaisie multiples en assouplissant l’hypothèse classique d’un appariement parfait. Ils proposent des modèles avec erreur d’appariement permettant de caractériser les méthodes d’appariement sujettes à des erreurs. Les données observées prennent la forme d’un tableau de contingence 2^k auquel manque une cellule et suivent une distribution multinomiale. Les auteurs proposent une méthode pour estimer la population. Cette approche s’applique à la fois aux modèles log-linéaires habituels pour les tableaux de contingence et aux modèles log-linéaires de l’hétérogénéité du potentiel de saisie. Enfin, les auteurs illustrent leur méthode et procèdent à une estimation en recourant à une répétition générale du recensement de 1990, effectuée en 1988 par le U.S. Bureau of the Census.

    Date de diffusion : 1996-06-14

  • Articles et rapports : 12-001-X199600114386
    Description :

    Dans certaines enquêtes, on peut utiliser, pour la correction de la non-réponse, de nombreuses variables auxiliaires relatives aux répondants et aux non-répondants. On peut s’interroger sur le choix des variables auxiliaires à retenir aux fins de cette correction et sur la façon de les utiliser. Dans la présente recherche, nous examinons diverses méthodes de correction de la non-réponse fondées sur des modèles de régression logistique, sur des algorithmes de recherche par catégories et sur la méthode du quotient généralisée. Ces méthodes servent à la pondération de la non-réponse pour l’Enquête Survey of Income and Program Participation (SIPP). Les estimations issues des diverses méthodes de correction sont comparées entre elles et également à des estimations de référence provenant d’autres sources.

    Date de diffusion : 1996-06-14

  • Articles et rapports : 12-001-X199600114387
    Description :

    Les auteurs examinent la méthodologie de l’analyse de la variance dans le cas d’une distribution gaussienne inverse et l’adaptent à l’estimation des paramètres régionaux de populations finies. Grâce à une étude de Monte Carlo, ils démontrent que le choix de ces estimateurs est défendable pour les données d’enquête étalées vers la droite, telles que celles sur le revenu ou sur le rendement d’un secteur particulier.

    Date de diffusion : 1996-06-14

  • Articles et rapports : 12-001-X199600114388
    Description :

    Les auteurs examinent l’estimation de la variance d’une totalisation issue d’un échantillonnage stratifié à degrés multiples pour l’estimateur de stratification a posteriori et l’estimateur de régression généralisée. En linéarisant l’estimateur de variance jackknife, on obtient un nouvel estimateur, différent de celui obtenu par la méthode de linéarisation ordinaire. En matière de calcul, cet estimateur est plus simple à utiliser que l’estimateur de variance jackknife. Pourtant, il donne des valeurs qui s’approchent de celles de la méthode du jackknife. Les auteurs étudient les propriétés de l’estimateur de variance jackknife linéarisé, de l’estimateur de variance linéarisé ordinaire et de l’estimateur de variance jackknife dans le cadre d’une simulation. D’après l’écart entre le total estimatif des variables auxiliaires et les totaux connus de la population, les trois estimateurs donnent de bons résultats, conditionnellement ou non. Un estimateur de variance jackknife reposant sur une nouvelle pondération incorrecte a donné de piètres résultats, signe qu’il est important de procéder de façon adéquate à une nouvelle pondération quand on recourt à la méthode du jackknife.

    Date de diffusion : 1996-06-14

  • Articles et rapports : 12-001-X199600114389
    Description :

    Il existe un certain nombre de méthodes asymptotiquement équivalentes qui permettent de calculer l’approximation, par série de Taylor, des variances pour les statistiques complexes. Binder et Patak (1994) ont présenté la justification théorique pour une classe de méthodes. Toutefois, on peut établir bon nombre de ces méthodes à partir d’exemples pratiques en utilisant des techniques directes qui ne sont pas décrites clairement dans Binder et Patak. Dans cette communication, nous présentons une approche de type « recette », utilisable pour de nombreux exemples et dont les bonnes propriétés d’échantillonnage de taille finie ont été démontrées. La méthode retenue devient normalement claire lorsque l’on utilise des concepts comme méthodes basées sur un modèle ou linéarisation de la méthode du jackknife; toutefois, notre approche permet d’obtenir les résultats recherchés de façon plus directe. En outre, nous présentons de nouveaux résultats pour l’application de ces techniques à des échantillons à deux phases.

    Date de diffusion : 1996-06-14
Références (1)

Références (1) ((1 résultat))

  • Enquêtes et programmes statistiques — Documentation : 13-604-M1996035
    Description :

    À peu près tous les cinq ans, on change l'année de base du Système de comptabilité nationale (SCN) pour tenir compte de l'évolution des prix dans l'économie. Autrement dit, les agrégats en prix constants du SCN sont recalculés en fonction des prix d'une période plus récente. En outre, le système est réformé environ tous les 10 ans pour y incorporer de nouveaux principes comptables, des méthodes d'estimation améliorées et des classifications statistiques révisées. Ces révisions modifieront le produit intérieur brut (PIB) des 70 dernières années. Fait à noter, ces deux types de révision sont maintenant en cours, et l'on prévoit en diffuser les résultats l'année prochaine.

    Dans cette publication, on examine à l'avance l'effet probable qu'exercera le changement de l'année de base ou « rebasement » sur la comptabilisation de la croissance depuis 1992. De plus, on y présente les résultats d'une approximation du rebasement pour le PIB en termes de dépenses établi dans le cadre des Comptes nationaux des revenus et dépenses trimestriels.

    Date de diffusion : 1996-08-30
Date de modification :