Analyses
Filtrer les résultats par
Aide à la rechercheMot(s)-clé(s)
Sujet
- Sélectionné: Méthodes statistiques (19)
- Analyse des données (3)
- Assurance de la qualité (1)
- Bases de sondage et couverture (2)
- Collecte et questionnaires (1)
- Histoire et contexte (2)
- Plan de sondage (7)
- Pondération et estimation (5)
- Réponse et non-réponse (1)
- Séries chronologiques (1)
- Simulations (1)
- Techniques statistiques (6)
- Vérification et imputation (1)
Résultats
Tout (19)
Tout (19) (0 à 10 de 19 résultats)
- Articles et rapports : 12-001-X199300214452Description :
Les enquêtes qui consistent à recueillir des données dans le temps peuvent viser de nombreux objectifs. Dans la première moitié du présent article, nous examinons diverses options de plans d’enquête - enquêtes à passages répétés, enquêtes par panel, enquêtes par panel avec renouvellement et enquêtes à panel fractionné - pouvant permettre d’atteindre ces objectifs. La deuxième moitié est axée sur les enquêtes par panel. Nous y traitons des décisions qui doivent être prises au moment de la conception d’une enquête par panel, des problèmes posés par la non-réponse aux différentes vagues, du biais de conditionnement et de l’effet de lisière, ainsi que de certaines méthodes permettant l’analyse longitudinale des données d’enquête par panel.
Date de diffusion : 1993-12-15 - Articles et rapports : 12-001-X199300214453Description :
Un concept généralisé est présenté pour toutes les méthodes couramment utilisées d’échantillonnage des forêts. Selon ce concept, la forêt est perçue comme une image bidimensionnelle découpée en pièces comme un casse-tête, les pièces étant définies par les probabilités de sélection individuelles des arbres de la forêt. Ce concept produit un nombre fini d’unités d’échantillonnage sélectionnées de façon indépendante, contrairement à tous les autres concepts généralisés d’échantillonnage des forêts présentés jusqu’à maintenant.
Date de diffusion : 1993-12-15 - 3. Échantillonnage dans des bases imparfaites contenant un nombre inconnu d’enregistrements répétés ArchivéArticles et rapports : 12-001-X199300214454Description :
Dans cette étude, nous nous intéressons à des bases de sondage imparfaites desquelles on n’a retiré aucune unité de population mais dans lesquelles un nombre indéterminé d’unités peuvent avoir été ajoutées un nombre indéterminé de fois sous des identités différentes. Lorsqu’on ne pose pas l’hypothèse de l’existence d’information supplémentaire concernant des unités de la base imparfaite, il est établi qu’en ce qui a trait à l’estimation d’un ratio ou d’une moyenne de population, l’erreur quadratique moyenne des estimateurs fondés sur la base imparfaite est inférieure à celle des estimateurs fondés sur la base parfaite pour l’échantillonnage aléatoire simple, lorsque les fractions de sondage des deux bases sont les mêmes. Cependant, cette relation n’est pas toujours vraie en ce qui concerne l’estimation d’un total de population. Il peut aussi arriver que l’estimateur d’un ratio, d’une moyenne ou d’un total ait une erreur quadratique moyenne moins élevée même si la fraction de sondage est plus faible dans la base imparfaite que celle utiliser dans la base parfaite.
Date de diffusion : 1993-12-15 - 4. Propriétés conditionnelles des estimateurs de stratification a posteriori selon la théorie normale ArchivéArticles et rapports : 12-001-X199300214455Description :
La stratification a posteriori est une technique courante d’amélioration de la précision des estimateurs, qui consiste à utiliser des éléments d’information qui n’étaient pas disponibles au moment de la préparation du plan de l’enquête. Pour des échantillons vastes et complexes, le vecteur des estimateurs de Horvitz-Thompson des variables d’intérêt de l’enquête et des tailles de la population des strates a posteriori suivra approximativement, dans des conditions appropriées, une distribution normale multidimensionnelle. Cette normalité pour de grands échantillons amène à définir un nouvel estimateur de régression fondé sur une stratification a posteriori, analogue à l’estimateur de régression linéaire dans le cas de l’échantillonnage aléatoire simple. Nous calculons, pour de grands échantillons, le biais et les erreurs quadratiques moyennes selon le plan de ce nouvel estimateur, de l’estimateur de stratification a posteriori courant, de l’estimateur de Horvitz-Thompson et d’un estimateur par quotient. Nous utilisons des populations réelles et une population artificielle pour étudier empiriquement les propriétés conditionnelles et non conditionnelles des estimateurs en vertu d’un échantillonnage à plusieurs degrés.
Date de diffusion : 1993-12-15 - Articles et rapports : 12-001-X199300214456Description :
Cette étude est basée sur l’utilisation de modèles de superpopulation pour anticiper la variance d’une mesure par sondage de ratios avant l’enquête. On arrive, en utilisant des modèles simples qu’on voudrait néanmoins assez réalistes, à des expressions plus ou moins complexes qu’on parvient à optimiser, parfois rigoureusement, quelquefois de façon approximative. La solution du dernier des problèmes évoqués fait apparaître un facteur assez peu étudié en matière d’optimisation de plan de sondage : le coût lié à la mobilisation d’une information individuelle.
Date de diffusion : 1993-12-15 - Articles et rapports : 12-001-X199300214457Description :
Nous considérons le cas de l’estimation d’un modèle d’étalonnage non linéaire par la méthode du maximum de vraisemblance, tel que le présentent Laniel et Fyfe (1989; 1990). Ce modèle tient compte des biais et des erreurs d’échantillonnage rattachés à la série originale. Comme on ne peut exprimer les estimateurs du maximum de vraisemblance des paramètres du modèle sous une forme analytique fermée, nous examinons deux méthodes itératives permettant de calculer les estimations du maximum de vraisemblance. Nous donnons aussi les expressions en forme analytique fermée pour les variances et les covariances asymptotiques des séries étalonnées et des valeurs ajustées. Pour illustrer les méthodes, nous nous servons de données publiées sur le commerce de détail au Canada.
Date de diffusion : 1993-12-15 - 7. Modélisation conjointe robuste de séries de données sur l’activité pour de petites régions ArchivéArticles et rapports : 12-001-X199300214458Description :
Dans cet article, nous présentons les résultats de l’application d’un modèle d’espace d’états aux taux de chômage canadiens. Le modèle suppose une décomposition additive des valeurs de la population en une tendance, une composante saisonnière et une composante irrégulière, ainsi que des relations autorégressives distinctes pour les six séries d’erreurs de l’enquête correspondant aux six estimateurs de panel mensuels. Le modèle tient compte des effets des groupes de renouvellement et permet que changent, dans le temps, les variances liées au plan qui affectent les erreurs de l’enquête. L’ajustement du modèle est effectué au niveau de petites régions, mais il tient compte de corrélations entre les séries des composantes pour différentes régions. On obtient la robustesse des estimateurs produits par le modèle en imposant, à titre de contrainte, que les estimateurs globaux mensuels fondés sur le modèle visant un groupe de petites régions pour lequel la taille d’échantillon totale est suffisamment grande coïncident avec les estimateurs directs correspondants de l’enquête. La performance du modèle, dans le cas d’une application aux provinces de l’Atlantique, est évaluée au moyen de diverses statistiques de diagnostic et de graphiques de résidus, ainsi que par des comparaisons avec des estimateurs actuellement en usage.
Date de diffusion : 1993-12-15 - Articles et rapports : 12-001-X199300214459Description :
On appelle couplage d’enregistrements l’appariement d’enregistrements contenant des données sur des particuliers, des entreprises ou des logements quand on ne dispose pas d’un identificateur unique. Les méthodes utilisées, en pratique, comportent la classification de paires d’enregistrements, comme constituant des liens ou des non-liens, à l’aide d’une procédure automatisée basée sur le modèle théorique présenté par Fellegi et Sunter (1969). L’estimation des taux d’erreur de classification constitue un problème important. Fellegi et Sunter présentent une méthode, afin de calculer des estimations des taux d’erreur de classification, qui découle directement du couplage. Ces estimations faites à l’aide de modèles sont plus faciles à produire que celles obtenues par appariement manuel d’échantillons, méthode généralement utilisée en pratique. Les propriétés des estimations du taux d’erreur de classification fondées sur un modèle, obtenues au moyen de trois estimateurs de paramètre de modèle, sont comparées.
Date de diffusion : 1993-12-15 - Articles et rapports : 12-001-X199300214460Description :
Les méthodes qui servent à estimer le biais de réponse dans les enquêtes requièrent des mesures répétées « non biaisées » pour à tout le moins un sous-échantillon d’observations. L’estimateur habituel du biais de réponse est la différence entre la moyenne des observations originales et la moyenne des observations non biaisées. Dans cet article, nous étudions divers estimateurs du biais de réponse tirés de la prédiction modéliste. Nous supposons comme plan de sondage un échantillonnage à deux phases stratifié, avec échantillonnage aléatoire simple dans chaque phase. Nous supposons que la caractéristique y est observée pour chaque unité échantillonnée dans la phase 1, tandis que la valeur vraie de la caractéristique, \mu, est observée pour chaque unité du sous-échantillon prélevée dans la phase 2. Nous supposons en outre qu’une variable auxiliaire x est connue pour chaque unité de l’échantillon de la phase 1 et que le chiffre de population de x est connu. On suppose un certain nombre de modèles qui mettent en relation y, \mu et x; de ces modèles découlent divers estimateurs de E (y - \mu), le biais de réponse. Les estimateurs sont calculés à l’aide d’une méthode d’auto-amorçage destinée à l’estimation de la variance, du biais et de l’erreur quadratique moyenne. La méthode que nous utilisons est en fait la méthode de Bickel-Freedman à une phase, étendue à un plan à deux phases stratifié. À des fins d’illustration, nous appliquons la méthode étudiée à des données du programme de réinterview du National Agricultural Statistics Service. Nous montrons par ces données que l’estimateur fondé sur un modèle de Särndal, Swensson et Wretman (1991) est supérieur à l’estimateur de différence habituel, ce qui prouve qu’il est possible d’améliorer les estimateurs classiques au moyen de la prédiction modéliste.
Date de diffusion : 1993-12-15 - Articles et rapports : 13-604-M1993025Description :
Cet article présente deux nouveaux tableaux où figurent des indices de volume du produit intérieur brut (PIB) réel par habitant et de ses agrégats pour le Canada et les États-Unis et les parités de pouvoir d'achat (PPA) connexes. Ces comparaisons internationales des dépenses réelles fondées sur les PPA représentent une addition majeure à la gamme des outils d'analyse macroéconomique. Par exemple, la publication récente, par le Fonds monétaire international (FMI), d'un ensemble d'estimations de la production de divers pays calculées au moyen des PPA a donné une toute autre impression de la part de la production mondiale attribuable aux pays industrialisés par rapport aux pays en voie de développement.
L'analyse fondée sur les PPA, par opposition à l'analyse plus conventionnelle faisant appel aux taux de change, a modifié la mesure de la production des pays de façon sensible. Les comparaisons fondées sur les taux de change peuvent difficilement tenir compte des écarts dans le niveau des prix entre pays, c'est-à-dire des biens et services que l'on peut acheter dans la monnaie d'un pays par rapport à celle d'un autre. En outre, les services ne s'échangent pas autant que les biens, de sorte que leurs prix dans les différents pays n'ont pas tendance à être liés aussi étroitement aux taux de change des devises. Si l'on désire procéder à une comparaison valable de la production totale entre pays, le recours aux PPA devient de plus en plus nécessaire au fur et à mesure que s'accroît la part du secteur des services.
La théorie économique donne à entendre que pour des biens et services produits au pays et faisant l'objet d'échanges internationaux, les PPA et les taux de change auront tendance à s'équivaloir à long terme. Les taux de change peuvent fluctuer grandement à brève échéance et sont influencés par des facteurs comme les déficits, les guerres, les pénuries de carburant et les taux d'intérêt. Le calcul des PPA permet de dégager les écarts réels de prix. En outre, ces mesures sont beaucoup plus stables dans le temps.
Date de diffusion : 1993-11-30
Stats en bref (0)
Stats en bref (0) (0 résultat)
Aucun contenu disponible actuellement
Articles et rapports (19)
Articles et rapports (19) (0 à 10 de 19 résultats)
- Articles et rapports : 12-001-X199300214452Description :
Les enquêtes qui consistent à recueillir des données dans le temps peuvent viser de nombreux objectifs. Dans la première moitié du présent article, nous examinons diverses options de plans d’enquête - enquêtes à passages répétés, enquêtes par panel, enquêtes par panel avec renouvellement et enquêtes à panel fractionné - pouvant permettre d’atteindre ces objectifs. La deuxième moitié est axée sur les enquêtes par panel. Nous y traitons des décisions qui doivent être prises au moment de la conception d’une enquête par panel, des problèmes posés par la non-réponse aux différentes vagues, du biais de conditionnement et de l’effet de lisière, ainsi que de certaines méthodes permettant l’analyse longitudinale des données d’enquête par panel.
Date de diffusion : 1993-12-15 - Articles et rapports : 12-001-X199300214453Description :
Un concept généralisé est présenté pour toutes les méthodes couramment utilisées d’échantillonnage des forêts. Selon ce concept, la forêt est perçue comme une image bidimensionnelle découpée en pièces comme un casse-tête, les pièces étant définies par les probabilités de sélection individuelles des arbres de la forêt. Ce concept produit un nombre fini d’unités d’échantillonnage sélectionnées de façon indépendante, contrairement à tous les autres concepts généralisés d’échantillonnage des forêts présentés jusqu’à maintenant.
Date de diffusion : 1993-12-15 - 3. Échantillonnage dans des bases imparfaites contenant un nombre inconnu d’enregistrements répétés ArchivéArticles et rapports : 12-001-X199300214454Description :
Dans cette étude, nous nous intéressons à des bases de sondage imparfaites desquelles on n’a retiré aucune unité de population mais dans lesquelles un nombre indéterminé d’unités peuvent avoir été ajoutées un nombre indéterminé de fois sous des identités différentes. Lorsqu’on ne pose pas l’hypothèse de l’existence d’information supplémentaire concernant des unités de la base imparfaite, il est établi qu’en ce qui a trait à l’estimation d’un ratio ou d’une moyenne de population, l’erreur quadratique moyenne des estimateurs fondés sur la base imparfaite est inférieure à celle des estimateurs fondés sur la base parfaite pour l’échantillonnage aléatoire simple, lorsque les fractions de sondage des deux bases sont les mêmes. Cependant, cette relation n’est pas toujours vraie en ce qui concerne l’estimation d’un total de population. Il peut aussi arriver que l’estimateur d’un ratio, d’une moyenne ou d’un total ait une erreur quadratique moyenne moins élevée même si la fraction de sondage est plus faible dans la base imparfaite que celle utiliser dans la base parfaite.
Date de diffusion : 1993-12-15 - 4. Propriétés conditionnelles des estimateurs de stratification a posteriori selon la théorie normale ArchivéArticles et rapports : 12-001-X199300214455Description :
La stratification a posteriori est une technique courante d’amélioration de la précision des estimateurs, qui consiste à utiliser des éléments d’information qui n’étaient pas disponibles au moment de la préparation du plan de l’enquête. Pour des échantillons vastes et complexes, le vecteur des estimateurs de Horvitz-Thompson des variables d’intérêt de l’enquête et des tailles de la population des strates a posteriori suivra approximativement, dans des conditions appropriées, une distribution normale multidimensionnelle. Cette normalité pour de grands échantillons amène à définir un nouvel estimateur de régression fondé sur une stratification a posteriori, analogue à l’estimateur de régression linéaire dans le cas de l’échantillonnage aléatoire simple. Nous calculons, pour de grands échantillons, le biais et les erreurs quadratiques moyennes selon le plan de ce nouvel estimateur, de l’estimateur de stratification a posteriori courant, de l’estimateur de Horvitz-Thompson et d’un estimateur par quotient. Nous utilisons des populations réelles et une population artificielle pour étudier empiriquement les propriétés conditionnelles et non conditionnelles des estimateurs en vertu d’un échantillonnage à plusieurs degrés.
Date de diffusion : 1993-12-15 - Articles et rapports : 12-001-X199300214456Description :
Cette étude est basée sur l’utilisation de modèles de superpopulation pour anticiper la variance d’une mesure par sondage de ratios avant l’enquête. On arrive, en utilisant des modèles simples qu’on voudrait néanmoins assez réalistes, à des expressions plus ou moins complexes qu’on parvient à optimiser, parfois rigoureusement, quelquefois de façon approximative. La solution du dernier des problèmes évoqués fait apparaître un facteur assez peu étudié en matière d’optimisation de plan de sondage : le coût lié à la mobilisation d’une information individuelle.
Date de diffusion : 1993-12-15 - Articles et rapports : 12-001-X199300214457Description :
Nous considérons le cas de l’estimation d’un modèle d’étalonnage non linéaire par la méthode du maximum de vraisemblance, tel que le présentent Laniel et Fyfe (1989; 1990). Ce modèle tient compte des biais et des erreurs d’échantillonnage rattachés à la série originale. Comme on ne peut exprimer les estimateurs du maximum de vraisemblance des paramètres du modèle sous une forme analytique fermée, nous examinons deux méthodes itératives permettant de calculer les estimations du maximum de vraisemblance. Nous donnons aussi les expressions en forme analytique fermée pour les variances et les covariances asymptotiques des séries étalonnées et des valeurs ajustées. Pour illustrer les méthodes, nous nous servons de données publiées sur le commerce de détail au Canada.
Date de diffusion : 1993-12-15 - 7. Modélisation conjointe robuste de séries de données sur l’activité pour de petites régions ArchivéArticles et rapports : 12-001-X199300214458Description :
Dans cet article, nous présentons les résultats de l’application d’un modèle d’espace d’états aux taux de chômage canadiens. Le modèle suppose une décomposition additive des valeurs de la population en une tendance, une composante saisonnière et une composante irrégulière, ainsi que des relations autorégressives distinctes pour les six séries d’erreurs de l’enquête correspondant aux six estimateurs de panel mensuels. Le modèle tient compte des effets des groupes de renouvellement et permet que changent, dans le temps, les variances liées au plan qui affectent les erreurs de l’enquête. L’ajustement du modèle est effectué au niveau de petites régions, mais il tient compte de corrélations entre les séries des composantes pour différentes régions. On obtient la robustesse des estimateurs produits par le modèle en imposant, à titre de contrainte, que les estimateurs globaux mensuels fondés sur le modèle visant un groupe de petites régions pour lequel la taille d’échantillon totale est suffisamment grande coïncident avec les estimateurs directs correspondants de l’enquête. La performance du modèle, dans le cas d’une application aux provinces de l’Atlantique, est évaluée au moyen de diverses statistiques de diagnostic et de graphiques de résidus, ainsi que par des comparaisons avec des estimateurs actuellement en usage.
Date de diffusion : 1993-12-15 - Articles et rapports : 12-001-X199300214459Description :
On appelle couplage d’enregistrements l’appariement d’enregistrements contenant des données sur des particuliers, des entreprises ou des logements quand on ne dispose pas d’un identificateur unique. Les méthodes utilisées, en pratique, comportent la classification de paires d’enregistrements, comme constituant des liens ou des non-liens, à l’aide d’une procédure automatisée basée sur le modèle théorique présenté par Fellegi et Sunter (1969). L’estimation des taux d’erreur de classification constitue un problème important. Fellegi et Sunter présentent une méthode, afin de calculer des estimations des taux d’erreur de classification, qui découle directement du couplage. Ces estimations faites à l’aide de modèles sont plus faciles à produire que celles obtenues par appariement manuel d’échantillons, méthode généralement utilisée en pratique. Les propriétés des estimations du taux d’erreur de classification fondées sur un modèle, obtenues au moyen de trois estimateurs de paramètre de modèle, sont comparées.
Date de diffusion : 1993-12-15 - Articles et rapports : 12-001-X199300214460Description :
Les méthodes qui servent à estimer le biais de réponse dans les enquêtes requièrent des mesures répétées « non biaisées » pour à tout le moins un sous-échantillon d’observations. L’estimateur habituel du biais de réponse est la différence entre la moyenne des observations originales et la moyenne des observations non biaisées. Dans cet article, nous étudions divers estimateurs du biais de réponse tirés de la prédiction modéliste. Nous supposons comme plan de sondage un échantillonnage à deux phases stratifié, avec échantillonnage aléatoire simple dans chaque phase. Nous supposons que la caractéristique y est observée pour chaque unité échantillonnée dans la phase 1, tandis que la valeur vraie de la caractéristique, \mu, est observée pour chaque unité du sous-échantillon prélevée dans la phase 2. Nous supposons en outre qu’une variable auxiliaire x est connue pour chaque unité de l’échantillon de la phase 1 et que le chiffre de population de x est connu. On suppose un certain nombre de modèles qui mettent en relation y, \mu et x; de ces modèles découlent divers estimateurs de E (y - \mu), le biais de réponse. Les estimateurs sont calculés à l’aide d’une méthode d’auto-amorçage destinée à l’estimation de la variance, du biais et de l’erreur quadratique moyenne. La méthode que nous utilisons est en fait la méthode de Bickel-Freedman à une phase, étendue à un plan à deux phases stratifié. À des fins d’illustration, nous appliquons la méthode étudiée à des données du programme de réinterview du National Agricultural Statistics Service. Nous montrons par ces données que l’estimateur fondé sur un modèle de Särndal, Swensson et Wretman (1991) est supérieur à l’estimateur de différence habituel, ce qui prouve qu’il est possible d’améliorer les estimateurs classiques au moyen de la prédiction modéliste.
Date de diffusion : 1993-12-15 - Articles et rapports : 13-604-M1993025Description :
Cet article présente deux nouveaux tableaux où figurent des indices de volume du produit intérieur brut (PIB) réel par habitant et de ses agrégats pour le Canada et les États-Unis et les parités de pouvoir d'achat (PPA) connexes. Ces comparaisons internationales des dépenses réelles fondées sur les PPA représentent une addition majeure à la gamme des outils d'analyse macroéconomique. Par exemple, la publication récente, par le Fonds monétaire international (FMI), d'un ensemble d'estimations de la production de divers pays calculées au moyen des PPA a donné une toute autre impression de la part de la production mondiale attribuable aux pays industrialisés par rapport aux pays en voie de développement.
L'analyse fondée sur les PPA, par opposition à l'analyse plus conventionnelle faisant appel aux taux de change, a modifié la mesure de la production des pays de façon sensible. Les comparaisons fondées sur les taux de change peuvent difficilement tenir compte des écarts dans le niveau des prix entre pays, c'est-à-dire des biens et services que l'on peut acheter dans la monnaie d'un pays par rapport à celle d'un autre. En outre, les services ne s'échangent pas autant que les biens, de sorte que leurs prix dans les différents pays n'ont pas tendance à être liés aussi étroitement aux taux de change des devises. Si l'on désire procéder à une comparaison valable de la production totale entre pays, le recours aux PPA devient de plus en plus nécessaire au fur et à mesure que s'accroît la part du secteur des services.
La théorie économique donne à entendre que pour des biens et services produits au pays et faisant l'objet d'échanges internationaux, les PPA et les taux de change auront tendance à s'équivaloir à long terme. Les taux de change peuvent fluctuer grandement à brève échéance et sont influencés par des facteurs comme les déficits, les guerres, les pénuries de carburant et les taux d'intérêt. Le calcul des PPA permet de dégager les écarts réels de prix. En outre, ces mesures sont beaucoup plus stables dans le temps.
Date de diffusion : 1993-11-30
Revues et périodiques (0)
Revues et périodiques (0) (0 résultat)
Aucun contenu disponible actuellement
- Date de modification :