Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Enquête ou programme statistique

1 facets displayed. 0 facets selected.

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (43)

Tout (43) (0 à 10 de 43 résultats)

  • Articles et rapports : 12-001-X202300200013
    Description : Jean-Claude Deville compte parmi les plus éminents chercheurs dans la théorie et la pratique des sondages. Ses travaux sur l’échantillonnage équilibré, l’échantillonnage indirect et le calage en particulier sont reconnus au niveau international et largement utilisés en statistique officielle. Il est également pionnier dans le domaine de l’analyse statistique des données fonctionnelles. Le présent article nous donne l’occasion de reconnaître l’immense travail qu’il a accompli, et de lui rendre hommage. Dans la première partie, nous évoquons brièvement la contribution de Jean-Claude à l’analyse statistique en composantes principales fonctionnelles. Nous détaillons également certaines extensions récentes de ses travaux au croisement des domaines de l’analyse statistique des données fonctionnelles et de la théorie des sondages. Dans la seconde partie, nous présentons une extension de son travail dans le domaine de l’échantillonnage indirect. Ces résultats de recherche sont motivés par des applications concrètes et illustrent l’influence de Jean-Claude sur notre travail de chercheuses.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 75F0002M2022006
    Description :

    Le présent document technique décrit la méthode d'estimation des « autres nécessités » dans la MPC de 2018. Il donne un aperçu de la théorie et de l'application des techniques d'estimation des coûts des « autres nécessités » dans les seuils de pauvreté et déconstruit la composante des autres nécessités de la MPC de l'année de base 2018 afin d'en analyser la construction. L'objectif de ce document est de fournir une compréhension plus détaillée de la façon dont la composante des autres besoins de la MPC est estimée.

    Date de diffusion : 2022-12-08

  • Articles et rapports : 12-001-X202100200005
    Description :

    L’estimation de la variance est un problème difficile dans les enquêtes, car plusieurs facteurs non négligeables contribuent à l’erreur d’enquête totale, notamment l’échantillonnage et la non-réponse totale. Initialement conçue pour saisir la variance des statistiques non triviales à partir de données indépendantes et identiquement distribuées, la méthode bootstrap a depuis été adaptée de diverses façons pour tenir compte des éléments ou facteurs propres à l’enquête. Dans l’article, nous examinons l’une de ces variantes, le bootstrap avec remise. Nous considérons les enquêtes auprès des ménages, avec ou sans sous-échantillonnage de personnes. Nous rendons explicites les estimateurs de la variance que le bootstrap avec remise vise à reproduire. Nous expliquons comment le bootstrap peut servir à tenir compte de l’effet de l’échantillonnage, du traitement de la non-réponse et du calage sur l’erreur d’enquête totale. Par souci de clarté, les méthodes proposées sont illustrées au moyen d’un exemple traité en fil rouge. Elles sont évaluées dans le cadre d’une étude par simulations et appliquées au Panel Politique de la Ville (PPV) français. Deux macros SAS pour exécuter les méthodes bootstrap sont également élaborées.

    Date de diffusion : 2022-01-06

  • Articles et rapports : 12-001-X202000200003
    Description :

    Nous combinons pondération et prédiction bayésienne dans une approche unifiée pour l’inférence d’enquête. Les principes généraux de l’analyse bayésienne impliquent que les modèles pour les résultats d’enquête devraient être conditionnés par toutes les variables influant sur les probabilités d’inclusion. Nous intégrons toutes les variables servant à l’ajustement de pondération dans un cadre de régression multiniveau et de poststratification pour obtenir un sous-produit générant des poids basés sur un modèle après lissage. Nous améliorons l’estimation sur petits domaines en traitant les divers problèmes complexes que posent les applications dans la vie réelle pour obtenir une inférence robuste à des niveaux plus fins pour les sous-domaines d’intérêt. Nous examinons les interactions profondes et introduisons des distributions a priori structurées pour le lissage et la stabilisation des estimations. Le calcul se fait par Stan et avec le paquet rstanarm du code source libre R, disponible pour utilisation publique. Nous évaluons les propriétés selon le plan de la procédure bayésienne. Nous recourons à des études en simulation pour illustrer comment la prédiction basée sur un modèle et l’inférence pondérée peuvent donner de meilleurs résultats que la pondération classique. Nous appliquons la méthode à la New York Longitudinal Study of Wellbeing (LSW). La nouvelle approche produit des poids lissés et rend plus efficace une inférence robuste de population finie, plus particulièrement pour des sous-ensembles de la population.

    Date de diffusion : 2020-12-15

  • Articles et rapports : 12-001-X202000100004
    Description :

    L’échantillonnage défini par un seuil d’inclusion est appliqué quand il est trop coûteux ou difficile d’obtenir les informations requises pour un sous-ensemble d’unités de la population et que, par conséquent, ces unités sont délibérément exclues de la sélection de l’échantillon. Si les unités exclues sont différentes des unités échantillonnées pour ce qui est des caractéristiques d’intérêt, les estimateurs naïfs peuvent être fortement biaisés. Des estimateurs par calage ont été proposés aux fins de réduction du biais sous le plan. Toutefois, dans les estimations sur petits domaines, ils peuvent être inefficaces y compris en l’absence d’échantillonnage défini par un seuil d’inclusion. Les méthodes d’estimation sur petits domaines fondées sur un modèle peuvent servir à réduire le biais causé par l’échantillonnage défini par un seuil d’inclusion si le modèle supposé se vérifie pour l’ensemble de la population. Parallèlement, pour les petits domaines, ces méthodes fournissent des estimateurs plus efficaces que les méthodes de calage. Étant donné qu’on obtient les propriétés fondées sur un modèle en supposant que le modèle se vérifie, mais qu’aucun modèle n’est exactement vrai, nous analysons ici les propriétés de plan des procédures de calage et des procédures fondées sur un modèle pour l’estimation de caractéristiques sur petits domaines sous échantillonnage défini par un seuil d’inclusion. Nos conclusions confirment que les estimateurs fondés sur un modèle réduisent le biais causé par un échantillonnage défini par un seuil d’inclusion et donnent des résultats significativement meilleurs en matière d’erreur quadratique moyenne du plan.

    Date de diffusion : 2020-06-30

  • Articles et rapports : 12-001-X201900200002
    Description :

    Le National Agricultural Statistics Service (NASS) du United States Department of Agriculture (USDA) est chargé d’estimer les taux moyens de location au comptant au niveau du comté. Par taux de location au comptant, on entend la valeur marchande des terres louées à l’acre contre argent comptant seulement. Les estimations des taux de location au comptant sont utilisées par les agriculteurs, les économistes et les responsables des politiques. Le NASS recueille des données sur les taux de location au comptant au moyen de la Cash Rent Survey. Comme les tailles d’échantillon réalisées au niveau du comté sont souvent trop petites pour permettre des estimateurs directs fiables, des prédicteurs fondés sur des modèles mixtes sont étudiés. Nous spécifions un modèle bivarié pour obtenir des prédicteurs des taux de location au comptant en 2010 pour les terres cultivées non irriguées à l’aide de données provenant de la Cash Rent Survey de 2009 et de variables auxiliaires provenant de sources externes, dont le Recensement de l’agriculture de 2007. Nous utilisons des méthodes bayésiennes pour l’inférence et présentons les résultats pour l’Iowa, le Kansas et le Texas. L’intégration des données de l’enquête de 2009 grâce à un modèle bivarié mène à des prédicteurs dont les erreurs quadratiques moyennes sont plus petites que celles des prédicteurs fondés sur un modèle univarié.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 12-001-X201900200003
    Description :

    Dans divers domaines, il est de plus en plus important de fusionner les sources d’information disponibles pour améliorer les estimations des caractéristiques de la population. En présence de plusieurs échantillons probabilistes indépendants d’une population finie, nous examinons plusieurs solutions d’estimateur combiné du total de la population, basé soit sur une combinaison linéaire d’estimateurs distincts, soit sur une méthode par échantillon combiné. L’estimateur en combinaison linéaire fondé sur des variances estimées est susceptible d’être biaisé, car les estimateurs distincts du total de la population peuvent être fortement corrélés à leurs estimateurs de la variance respectifs. Nous illustrons la possibilité d’utiliser un échantillon combiné pour estimer les variances des estimateurs distincts, ce qui donne des estimateurs de la variance groupés généraux. Ces estimateurs de la variance groupés utilisent tous les renseignements disponibles et peuvent réduire considérablement le biais d’une combinaison linéaire d’estimateurs distincts.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 12-001-X201800254955
    Description :

    De nombreuses études menées dans les différentes compagnies d’électricité à travers le monde se basent sur l’analyse de courbes de consommation électrique moyennes pour différentes sous-populations, en particulier de nature géographique. Ces courbes moyennes sont estimées à partir d’échantillons de milliers de courbes mesurées à un pas de temps fin pendant de longues périodes. L’estimation sur de petites sous-populations, aussi appelées petits domaines, est un sujet très courant en théorie des sondages.

    Dans cet article, nous traitons cette problématique dans le cadre des données fonctionnelles et nous cherchons à estimer des courbes moyennes de petits domaines. Pour cela, nous proposons quatre méthodes : la régression linéaire fonctionnelle, la modélisation des scores d’une analyse en composantes principales par des modèles linéaires mixtes au niveau unité, ainsi que deux estimateurs non paramétriques basés l’un sur des arbres de régression, l’autre sur des forêts aléatoires, adaptés aux courbes. L’ensemble de ces méthodes ont été testées et comparées sur des données réelles de consommation électrique de ménages français.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 12-001-X201800154959
    Description :

    Les modèles pour petits domaines conçus pour traiter les données au niveau du domaine reposent habituellement sur l’hypothèse de normalité des effets aléatoires. Cette hypothèse ne tient pas toujours. L’article présente un nouveau modèle pour petits domaines dont les effets aléatoires suivent une loi t. En outre, la modélisation conjointe des moyennes et des variances de petit domaine est examinée. Il est montré que cette approche donne de meilleurs résultats que les autres méthodes.

    Date de diffusion : 2018-06-21

  • Articles et rapports : 82-003-X201600414489
    Description :

    À partir de données d’accélérométrie pour les enfants et les jeunes de 3 à 17 ans tirées de l’Enquête canadienne sur les mesures de la santé, la probabilité d’observation des lignes directrices en matière d’activité physique est estimée au moyen d’une loi conditionnelle, étant donné le nombre de jours d’activité et d’inactivité distribué selon une loi bêta-binomiale.

    Date de diffusion : 2016-04-20
Stats en bref (0)

Stats en bref (0) (0 résultat)

Aucun contenu disponible actuellement

Articles et rapports (43)

Articles et rapports (43) (0 à 10 de 43 résultats)

  • Articles et rapports : 12-001-X202300200013
    Description : Jean-Claude Deville compte parmi les plus éminents chercheurs dans la théorie et la pratique des sondages. Ses travaux sur l’échantillonnage équilibré, l’échantillonnage indirect et le calage en particulier sont reconnus au niveau international et largement utilisés en statistique officielle. Il est également pionnier dans le domaine de l’analyse statistique des données fonctionnelles. Le présent article nous donne l’occasion de reconnaître l’immense travail qu’il a accompli, et de lui rendre hommage. Dans la première partie, nous évoquons brièvement la contribution de Jean-Claude à l’analyse statistique en composantes principales fonctionnelles. Nous détaillons également certaines extensions récentes de ses travaux au croisement des domaines de l’analyse statistique des données fonctionnelles et de la théorie des sondages. Dans la seconde partie, nous présentons une extension de son travail dans le domaine de l’échantillonnage indirect. Ces résultats de recherche sont motivés par des applications concrètes et illustrent l’influence de Jean-Claude sur notre travail de chercheuses.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 75F0002M2022006
    Description :

    Le présent document technique décrit la méthode d'estimation des « autres nécessités » dans la MPC de 2018. Il donne un aperçu de la théorie et de l'application des techniques d'estimation des coûts des « autres nécessités » dans les seuils de pauvreté et déconstruit la composante des autres nécessités de la MPC de l'année de base 2018 afin d'en analyser la construction. L'objectif de ce document est de fournir une compréhension plus détaillée de la façon dont la composante des autres besoins de la MPC est estimée.

    Date de diffusion : 2022-12-08

  • Articles et rapports : 12-001-X202100200005
    Description :

    L’estimation de la variance est un problème difficile dans les enquêtes, car plusieurs facteurs non négligeables contribuent à l’erreur d’enquête totale, notamment l’échantillonnage et la non-réponse totale. Initialement conçue pour saisir la variance des statistiques non triviales à partir de données indépendantes et identiquement distribuées, la méthode bootstrap a depuis été adaptée de diverses façons pour tenir compte des éléments ou facteurs propres à l’enquête. Dans l’article, nous examinons l’une de ces variantes, le bootstrap avec remise. Nous considérons les enquêtes auprès des ménages, avec ou sans sous-échantillonnage de personnes. Nous rendons explicites les estimateurs de la variance que le bootstrap avec remise vise à reproduire. Nous expliquons comment le bootstrap peut servir à tenir compte de l’effet de l’échantillonnage, du traitement de la non-réponse et du calage sur l’erreur d’enquête totale. Par souci de clarté, les méthodes proposées sont illustrées au moyen d’un exemple traité en fil rouge. Elles sont évaluées dans le cadre d’une étude par simulations et appliquées au Panel Politique de la Ville (PPV) français. Deux macros SAS pour exécuter les méthodes bootstrap sont également élaborées.

    Date de diffusion : 2022-01-06

  • Articles et rapports : 12-001-X202000200003
    Description :

    Nous combinons pondération et prédiction bayésienne dans une approche unifiée pour l’inférence d’enquête. Les principes généraux de l’analyse bayésienne impliquent que les modèles pour les résultats d’enquête devraient être conditionnés par toutes les variables influant sur les probabilités d’inclusion. Nous intégrons toutes les variables servant à l’ajustement de pondération dans un cadre de régression multiniveau et de poststratification pour obtenir un sous-produit générant des poids basés sur un modèle après lissage. Nous améliorons l’estimation sur petits domaines en traitant les divers problèmes complexes que posent les applications dans la vie réelle pour obtenir une inférence robuste à des niveaux plus fins pour les sous-domaines d’intérêt. Nous examinons les interactions profondes et introduisons des distributions a priori structurées pour le lissage et la stabilisation des estimations. Le calcul se fait par Stan et avec le paquet rstanarm du code source libre R, disponible pour utilisation publique. Nous évaluons les propriétés selon le plan de la procédure bayésienne. Nous recourons à des études en simulation pour illustrer comment la prédiction basée sur un modèle et l’inférence pondérée peuvent donner de meilleurs résultats que la pondération classique. Nous appliquons la méthode à la New York Longitudinal Study of Wellbeing (LSW). La nouvelle approche produit des poids lissés et rend plus efficace une inférence robuste de population finie, plus particulièrement pour des sous-ensembles de la population.

    Date de diffusion : 2020-12-15

  • Articles et rapports : 12-001-X202000100004
    Description :

    L’échantillonnage défini par un seuil d’inclusion est appliqué quand il est trop coûteux ou difficile d’obtenir les informations requises pour un sous-ensemble d’unités de la population et que, par conséquent, ces unités sont délibérément exclues de la sélection de l’échantillon. Si les unités exclues sont différentes des unités échantillonnées pour ce qui est des caractéristiques d’intérêt, les estimateurs naïfs peuvent être fortement biaisés. Des estimateurs par calage ont été proposés aux fins de réduction du biais sous le plan. Toutefois, dans les estimations sur petits domaines, ils peuvent être inefficaces y compris en l’absence d’échantillonnage défini par un seuil d’inclusion. Les méthodes d’estimation sur petits domaines fondées sur un modèle peuvent servir à réduire le biais causé par l’échantillonnage défini par un seuil d’inclusion si le modèle supposé se vérifie pour l’ensemble de la population. Parallèlement, pour les petits domaines, ces méthodes fournissent des estimateurs plus efficaces que les méthodes de calage. Étant donné qu’on obtient les propriétés fondées sur un modèle en supposant que le modèle se vérifie, mais qu’aucun modèle n’est exactement vrai, nous analysons ici les propriétés de plan des procédures de calage et des procédures fondées sur un modèle pour l’estimation de caractéristiques sur petits domaines sous échantillonnage défini par un seuil d’inclusion. Nos conclusions confirment que les estimateurs fondés sur un modèle réduisent le biais causé par un échantillonnage défini par un seuil d’inclusion et donnent des résultats significativement meilleurs en matière d’erreur quadratique moyenne du plan.

    Date de diffusion : 2020-06-30

  • Articles et rapports : 12-001-X201900200002
    Description :

    Le National Agricultural Statistics Service (NASS) du United States Department of Agriculture (USDA) est chargé d’estimer les taux moyens de location au comptant au niveau du comté. Par taux de location au comptant, on entend la valeur marchande des terres louées à l’acre contre argent comptant seulement. Les estimations des taux de location au comptant sont utilisées par les agriculteurs, les économistes et les responsables des politiques. Le NASS recueille des données sur les taux de location au comptant au moyen de la Cash Rent Survey. Comme les tailles d’échantillon réalisées au niveau du comté sont souvent trop petites pour permettre des estimateurs directs fiables, des prédicteurs fondés sur des modèles mixtes sont étudiés. Nous spécifions un modèle bivarié pour obtenir des prédicteurs des taux de location au comptant en 2010 pour les terres cultivées non irriguées à l’aide de données provenant de la Cash Rent Survey de 2009 et de variables auxiliaires provenant de sources externes, dont le Recensement de l’agriculture de 2007. Nous utilisons des méthodes bayésiennes pour l’inférence et présentons les résultats pour l’Iowa, le Kansas et le Texas. L’intégration des données de l’enquête de 2009 grâce à un modèle bivarié mène à des prédicteurs dont les erreurs quadratiques moyennes sont plus petites que celles des prédicteurs fondés sur un modèle univarié.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 12-001-X201900200003
    Description :

    Dans divers domaines, il est de plus en plus important de fusionner les sources d’information disponibles pour améliorer les estimations des caractéristiques de la population. En présence de plusieurs échantillons probabilistes indépendants d’une population finie, nous examinons plusieurs solutions d’estimateur combiné du total de la population, basé soit sur une combinaison linéaire d’estimateurs distincts, soit sur une méthode par échantillon combiné. L’estimateur en combinaison linéaire fondé sur des variances estimées est susceptible d’être biaisé, car les estimateurs distincts du total de la population peuvent être fortement corrélés à leurs estimateurs de la variance respectifs. Nous illustrons la possibilité d’utiliser un échantillon combiné pour estimer les variances des estimateurs distincts, ce qui donne des estimateurs de la variance groupés généraux. Ces estimateurs de la variance groupés utilisent tous les renseignements disponibles et peuvent réduire considérablement le biais d’une combinaison linéaire d’estimateurs distincts.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 12-001-X201800254955
    Description :

    De nombreuses études menées dans les différentes compagnies d’électricité à travers le monde se basent sur l’analyse de courbes de consommation électrique moyennes pour différentes sous-populations, en particulier de nature géographique. Ces courbes moyennes sont estimées à partir d’échantillons de milliers de courbes mesurées à un pas de temps fin pendant de longues périodes. L’estimation sur de petites sous-populations, aussi appelées petits domaines, est un sujet très courant en théorie des sondages.

    Dans cet article, nous traitons cette problématique dans le cadre des données fonctionnelles et nous cherchons à estimer des courbes moyennes de petits domaines. Pour cela, nous proposons quatre méthodes : la régression linéaire fonctionnelle, la modélisation des scores d’une analyse en composantes principales par des modèles linéaires mixtes au niveau unité, ainsi que deux estimateurs non paramétriques basés l’un sur des arbres de régression, l’autre sur des forêts aléatoires, adaptés aux courbes. L’ensemble de ces méthodes ont été testées et comparées sur des données réelles de consommation électrique de ménages français.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 12-001-X201800154959
    Description :

    Les modèles pour petits domaines conçus pour traiter les données au niveau du domaine reposent habituellement sur l’hypothèse de normalité des effets aléatoires. Cette hypothèse ne tient pas toujours. L’article présente un nouveau modèle pour petits domaines dont les effets aléatoires suivent une loi t. En outre, la modélisation conjointe des moyennes et des variances de petit domaine est examinée. Il est montré que cette approche donne de meilleurs résultats que les autres méthodes.

    Date de diffusion : 2018-06-21

  • Articles et rapports : 82-003-X201600414489
    Description :

    À partir de données d’accélérométrie pour les enfants et les jeunes de 3 à 17 ans tirées de l’Enquête canadienne sur les mesures de la santé, la probabilité d’observation des lignes directrices en matière d’activité physique est estimée au moyen d’une loi conditionnelle, étant donné le nombre de jours d’activité et d’inactivité distribué selon une loi bêta-binomiale.

    Date de diffusion : 2016-04-20
Revues et périodiques (0)

Revues et périodiques (0) (0 résultat)

Aucun contenu disponible actuellement

Date de modification :