Recherche par mot-clé

Aide à l'ordre
entrées

Résultats

Tout (38)

Tout (38) (0 à 10 de 38 résultats)

  • Articles et rapports : 12-001-X201800254952
    Description :

    Les enquêtes par panel sont souvent utilisées pour mesurer l’évolution de paramètres au cours du temps. Ces enquêtes peuvent souffrir de différentes formes de non-réponse totale, situation que l’on traite à l’heure actuelle en estimant les probabilités de réponse et en effectuant une nouvelle pondération des répondants. La présente étude porte sur l’estimation, ainsi que l’estimation de la variance en cas de non-réponse totale dans les enquêtes par panel. En étendant les travaux de Kim et Kim (2007) à plusieurs périodes, nous considérons un estimateur ajusté par un score de propension qui tient compte de la non-réponse initiale et de l’attrition, et proposons un estimateur de variance approprié. Nous étendons ensuite cet estimateur afin de couvrir la plupart des estimateurs utilisés dans les enquêtes, y compris les estimateurs calés, les estimateurs de paramètres complexes et les estimateurs longitudinaux. Les propriétés de l’estimateur de variance proposé et d’un estimateur de variance simplifié sont évaluées au moyen d’une étude en simulation. Une illustration de la méthode proposée sur des données provenant de l’enquête ELFE est également présentée.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 12-001-X201800254953
    Description :

    La coordination d’échantillons vise à créer une dépendance probabiliste entre la sélection de deux ou plusieurs échantillons tirés d’une même population ou de populations qui chevauchent. La coordination positive augmente le chevauchement espéré des échantillons, tandis que la coordination négative le réduit. Il existe de nombreuses applications de la coordination d’échantillons dont les objectifs varient. Un échantillon spatialement équilibré est un échantillon bien étalé dans un espace donné. Forcer l’étalement des échantillons sélectionnés est une technique générale très efficace de réduction de la variance pour l’estimateur de Horvitz-Thompson. La méthode du pivot local et l’échantillonnage de Poisson spatialement corrélé sont deux plans généraux pour obtenir des échantillons bien étalés. Notre but est d’introduire une coordination basée sur le concept des nombres aléatoires permanents pour ces méthodes d’échantillonnage. L’objectif est de coordonner les échantillons tout en préservant l’équilibre spatial. Les méthodes proposées sont motivées par des exemples empruntés à la foresterie, aux études environnementales et à la statistique officielle.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 12-001-X201800254954
    Description :

    Ces dernières années, les techniques d’échantillonnage équilibré ont suscité un regain d’intérêt. Ces techniques contraignent les estimateurs d’Horvitz-Thompson des totaux des variables auxiliaires a égaler, du moins approximativement, les totaux vrais correspondants, pour éviter la présence de mauvais échantillons. Plusieurs procédures existent pour exécuter l’échantillonnage équilibré, dont la méthode du cube, élaborée par Deville et Tillé (2004), et l’algorithme réjectif, introduit par Hájek (1964). Après un bref examen de ces méthodes d’échantillonnage, motivé par la planification d’une enquête auprès des pêcheurs sportifs, nous étudions par simulations Monte Carlo les plans de sondage produits par ces deux algorithmes d’échantillonnage.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 12-001-X201800254955
    Description :

    De nombreuses études menées dans les différentes compagnies d’électricité à travers le monde se basent sur l’analyse de courbes de consommation électrique moyennes pour différentes sous-populations, en particulier de nature géographique. Ces courbes moyennes sont estimées à partir d’échantillons de milliers de courbes mesurées à un pas de temps fin pendant de longues périodes. L’estimation sur de petites sous-populations, aussi appelées petits domaines, est un sujet très courant en théorie des sondages.

    Dans cet article, nous traitons cette problématique dans le cadre des données fonctionnelles et nous cherchons à estimer des courbes moyennes de petits domaines. Pour cela, nous proposons quatre méthodes : la régression linéaire fonctionnelle, la modélisation des scores d’une analyse en composantes principales par des modèles linéaires mixtes au niveau unité, ainsi que deux estimateurs non paramétriques basés l’un sur des arbres de régression, l’autre sur des forêts aléatoires, adaptés aux courbes. L’ensemble de ces méthodes ont été testées et comparées sur des données réelles de consommation électrique de ménages français.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 12-001-X201800254956
    Description :

    En Italie, l’Institut statistique national (ISTAT) mène tous les trimestres l’enquête sur la population active (EPA) et en tire des estimations de la situation d’activité de la population à différents niveaux géographiques. Il estime en particulier le nombre de salariés et de chômeurs en s’appuyant sur cette enquête pour les zones locales de marché du travail (ZLMT). En tant que ZLMT, on compte 611 grappes infrarégionales de municipalités. Ce sont là des domaines non planifiés pour lesquels les estimations directes sont entachées de trop grandes erreurs d’échantillonnage, d’où la nécessité de recourir aux méthodes d’estimation sur petits domaines (EPD). Nous exposerons ici une nouvelle méthode EPD à niveaux de zones avec un modèle latent ou caché de Markov (MLM) comme modèle de couplage. Dans de tels modèles, la caractéristique d’intérêt et son évolution dans le temps sont représentées par un processus caché en chaîne de Markov, habituellement du premier ordre. Ainsi, les zones en question sont à même de changer leur état latent dans le temps. Nous appliquons le modèle proposé aux données trimestrielles de l’EPA de 2004 à 2014 et l’ajustons dans un cadre bayésien hiérarchique au moyen d’un échantillonneur de Gibbs à augmentation de données. Nous comparons nos estimations à celles du modèle classique de Fay-Herriot, à un modèle EPD à niveaux de zones et en séries chronologiques et enfin aux données du recensement de la population de 2011.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 12-001-X201800254957
    Description :

    Lorsqu’une méthode d’imputation linéaire est utilisée pour corriger la non-réponse, et sous certaines hypothèses, on peut attribuer au niveau des unités non-répondantes la variance totale. L’imputation linéaire n’est pas aussi restrictive qu’il n’y paraît car les méthodes les plus populaires comme l’imputation par ratio; donneur; moyenne et valeur auxiliaire sont toutes des méthodes d’imputation linéaires. Le cadre théorique ainsi que l’expression donnant la décomposition de la variance due à la non-réponse au niveau de l’unité seront présentés. Des résultats par simulation seront aussi présentés. Cette décomposition peut être utilisée pour prioriser le suivi de non-réponse, prioriser les corrections manuelles ou simplement orienter l’analyse des données.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 12-001-X201800254958
    Description :

    Les domaines (ou sous-populations) pour lesquels les échantillons sont de petite taille sont appelés petits domaines. Les estimateurs directs classiques ne sont pas suffisamment précis pour ces petits domaines, en raison de la petite taille des échantillons. Or, la demande de statistiques fiables pour les petits domaines a augmenté considérablement. On utilise à l’heure actuelle des estimateurs indirects des moyennes ou des totaux de petits domaines basés sur un modèle pour résoudre les difficultés que pose l’estimation directe. Ces estimateurs reposent sur des modèles de liaison qui empruntent de l’information aux divers domaines pour accroître l’efficacité. En particulier, beaucoup d’attention a été accordée dans la littérature aux meilleurs estimateurs empiriques ou estimateurs EB (pour Empirical Best) sous des modèles de régression linéaires au niveau du domaine et au niveau de l’unité contenant des effets aléatoires de petit domaine. L’erreur quadratique moyenne (EQM) des estimateurs EB sous le modèle sert fréquemment à mesurer la variabilité des estimateurs. Les estimateurs par linéarisation, ainsi que les estimateurs jackknife et bootstrap de l’EQM sous le modèle sont d’usage très répandu. Toutefois, les organismes statistiques nationaux s’intéressent souvent à l’estimation de l’EQM des estimateurs EB sous le plan de sondage, pour cadrer avec les estimateurs classiques de l’EQM sous le plan associés aux estimateurs directs pour les grands domaines dont les tailles d’échantillon sont adéquates. Les estimateurs de l’EQM sous le plan des estimateurs EB peuvent être obtenus pour les modèles au niveau du domaine, mais ils ont tendance à être instables quand la taille de l’échantillon du domaine est petite. Des estimateurs composites de l’EQM, obtenus en prenant une somme pondérée de l’estimateur de l’EQM sous le plan et de l’estimateur de l’EQM sous le modèle, sont proposés dans le présent article. Les propriétés des estimateurs de l’EQM sous le modèle au niveau du domaine sont étudiées en examinant le biais, la racine carrée de l’erreur quadratique moyenne relative et le taux de couverture des intervalles de confiance sous le plan de sondage. Le cas d’un modèle au niveau de l’unité est également examiné sous échantillonnage aléatoire simple dans chaque domaine. Les résultats d’une étude en simulation montrent que les estimateurs composites proposés de l’EQM offrent un bon compromis pour l’estimation de l’EQM sous le plan.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 12-001-X201800254959
    Description :

    Cet article propose un critère de calcul du paramètre de compromis dans les répartitions dites « mixtes », c’est-à-dire qui mélangent deux répartitions classiques en théorie des sondages. Dans les enquêtes auprès des entreprises de l’Insee (Institut National de la Statistique et des Études Économiques), il est courant d’utiliser la moyenne arithmétique d’une répartition proportionnelle et d’une répartition de Neyman (correspondant à un paramètre de compromis de 0,5). Il est possible d’obtenir une valeur du paramètre de compromis aboutissant à de meilleures propriétés pour les estimateurs. Cette valeur appartient à une région qui est obtenue en résolvant un programme d’optimisation. Différentes méthodes de calcul de ce paramètre seront présentées. Une application sur des enquêtes auprès des entreprises est présentée, avec comparaison avec d’autres répartitions de compromis usuelles.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 12-001-X201800254960
    Description :

    En présence d’information auxiliaire, la technique de calage est souvent utilisée pour améliorer la précision des estimations produites. Cependant, les pondérations par calage peuvent ne pas convenir à toutes les variables d’intérêt de l’enquête, en particulier celles qui ne sont pas liées aux variables auxiliaires utilisées dans le calage. Dans ce papier, nous proposons un critère permettant d’évaluer pour toute variable d’intérêt l’effet de l’utilisation de la pondération par calage sur la précision de l’estimation de son total. Ce critère permet donc de décider des pondérations associées à chacune des variables d’intérêt d’une enquête et de déterminer ainsi celles pour lesquelles il convient d’utiliser la pondération par calage.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 12-001-X201800254961
    Description :

    Dans les enquêtes auprès des entreprises, il est courant de collecter des variables économiques dont la distribution est fortement asymétrique. Dans ce contexte, la winsorisation est fréquemment utilisée afin de traiter le problème des valeurs influentes. Dans le cas d’un sondage aléatoire simple stratifié, il existe deux méthodes permettant de choisir les seuils intervenant dans la winsorisation. L’article se décompose de la façon suivante. Une première partie rappelle les notations et la notion d’estimateur par winsorisation. La deuxième partie consiste à détailler les deux méthodes et à les étendre dans le cas d’un sondage poissonnien, puis à les comparer sur des jeux de données simulées et sur l’Enquête sur le Coût de la Main d’Oeuvre et la structure des salaires réalisée par l’INSEE.

    Date de diffusion : 2018-12-20
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (36)

Analyses (36) (0 à 10 de 36 résultats)

  • Articles et rapports : 12-001-X201800254952
    Description :

    Les enquêtes par panel sont souvent utilisées pour mesurer l’évolution de paramètres au cours du temps. Ces enquêtes peuvent souffrir de différentes formes de non-réponse totale, situation que l’on traite à l’heure actuelle en estimant les probabilités de réponse et en effectuant une nouvelle pondération des répondants. La présente étude porte sur l’estimation, ainsi que l’estimation de la variance en cas de non-réponse totale dans les enquêtes par panel. En étendant les travaux de Kim et Kim (2007) à plusieurs périodes, nous considérons un estimateur ajusté par un score de propension qui tient compte de la non-réponse initiale et de l’attrition, et proposons un estimateur de variance approprié. Nous étendons ensuite cet estimateur afin de couvrir la plupart des estimateurs utilisés dans les enquêtes, y compris les estimateurs calés, les estimateurs de paramètres complexes et les estimateurs longitudinaux. Les propriétés de l’estimateur de variance proposé et d’un estimateur de variance simplifié sont évaluées au moyen d’une étude en simulation. Une illustration de la méthode proposée sur des données provenant de l’enquête ELFE est également présentée.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 12-001-X201800254953
    Description :

    La coordination d’échantillons vise à créer une dépendance probabiliste entre la sélection de deux ou plusieurs échantillons tirés d’une même population ou de populations qui chevauchent. La coordination positive augmente le chevauchement espéré des échantillons, tandis que la coordination négative le réduit. Il existe de nombreuses applications de la coordination d’échantillons dont les objectifs varient. Un échantillon spatialement équilibré est un échantillon bien étalé dans un espace donné. Forcer l’étalement des échantillons sélectionnés est une technique générale très efficace de réduction de la variance pour l’estimateur de Horvitz-Thompson. La méthode du pivot local et l’échantillonnage de Poisson spatialement corrélé sont deux plans généraux pour obtenir des échantillons bien étalés. Notre but est d’introduire une coordination basée sur le concept des nombres aléatoires permanents pour ces méthodes d’échantillonnage. L’objectif est de coordonner les échantillons tout en préservant l’équilibre spatial. Les méthodes proposées sont motivées par des exemples empruntés à la foresterie, aux études environnementales et à la statistique officielle.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 12-001-X201800254954
    Description :

    Ces dernières années, les techniques d’échantillonnage équilibré ont suscité un regain d’intérêt. Ces techniques contraignent les estimateurs d’Horvitz-Thompson des totaux des variables auxiliaires a égaler, du moins approximativement, les totaux vrais correspondants, pour éviter la présence de mauvais échantillons. Plusieurs procédures existent pour exécuter l’échantillonnage équilibré, dont la méthode du cube, élaborée par Deville et Tillé (2004), et l’algorithme réjectif, introduit par Hájek (1964). Après un bref examen de ces méthodes d’échantillonnage, motivé par la planification d’une enquête auprès des pêcheurs sportifs, nous étudions par simulations Monte Carlo les plans de sondage produits par ces deux algorithmes d’échantillonnage.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 12-001-X201800254955
    Description :

    De nombreuses études menées dans les différentes compagnies d’électricité à travers le monde se basent sur l’analyse de courbes de consommation électrique moyennes pour différentes sous-populations, en particulier de nature géographique. Ces courbes moyennes sont estimées à partir d’échantillons de milliers de courbes mesurées à un pas de temps fin pendant de longues périodes. L’estimation sur de petites sous-populations, aussi appelées petits domaines, est un sujet très courant en théorie des sondages.

    Dans cet article, nous traitons cette problématique dans le cadre des données fonctionnelles et nous cherchons à estimer des courbes moyennes de petits domaines. Pour cela, nous proposons quatre méthodes : la régression linéaire fonctionnelle, la modélisation des scores d’une analyse en composantes principales par des modèles linéaires mixtes au niveau unité, ainsi que deux estimateurs non paramétriques basés l’un sur des arbres de régression, l’autre sur des forêts aléatoires, adaptés aux courbes. L’ensemble de ces méthodes ont été testées et comparées sur des données réelles de consommation électrique de ménages français.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 12-001-X201800254956
    Description :

    En Italie, l’Institut statistique national (ISTAT) mène tous les trimestres l’enquête sur la population active (EPA) et en tire des estimations de la situation d’activité de la population à différents niveaux géographiques. Il estime en particulier le nombre de salariés et de chômeurs en s’appuyant sur cette enquête pour les zones locales de marché du travail (ZLMT). En tant que ZLMT, on compte 611 grappes infrarégionales de municipalités. Ce sont là des domaines non planifiés pour lesquels les estimations directes sont entachées de trop grandes erreurs d’échantillonnage, d’où la nécessité de recourir aux méthodes d’estimation sur petits domaines (EPD). Nous exposerons ici une nouvelle méthode EPD à niveaux de zones avec un modèle latent ou caché de Markov (MLM) comme modèle de couplage. Dans de tels modèles, la caractéristique d’intérêt et son évolution dans le temps sont représentées par un processus caché en chaîne de Markov, habituellement du premier ordre. Ainsi, les zones en question sont à même de changer leur état latent dans le temps. Nous appliquons le modèle proposé aux données trimestrielles de l’EPA de 2004 à 2014 et l’ajustons dans un cadre bayésien hiérarchique au moyen d’un échantillonneur de Gibbs à augmentation de données. Nous comparons nos estimations à celles du modèle classique de Fay-Herriot, à un modèle EPD à niveaux de zones et en séries chronologiques et enfin aux données du recensement de la population de 2011.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 12-001-X201800254957
    Description :

    Lorsqu’une méthode d’imputation linéaire est utilisée pour corriger la non-réponse, et sous certaines hypothèses, on peut attribuer au niveau des unités non-répondantes la variance totale. L’imputation linéaire n’est pas aussi restrictive qu’il n’y paraît car les méthodes les plus populaires comme l’imputation par ratio; donneur; moyenne et valeur auxiliaire sont toutes des méthodes d’imputation linéaires. Le cadre théorique ainsi que l’expression donnant la décomposition de la variance due à la non-réponse au niveau de l’unité seront présentés. Des résultats par simulation seront aussi présentés. Cette décomposition peut être utilisée pour prioriser le suivi de non-réponse, prioriser les corrections manuelles ou simplement orienter l’analyse des données.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 12-001-X201800254958
    Description :

    Les domaines (ou sous-populations) pour lesquels les échantillons sont de petite taille sont appelés petits domaines. Les estimateurs directs classiques ne sont pas suffisamment précis pour ces petits domaines, en raison de la petite taille des échantillons. Or, la demande de statistiques fiables pour les petits domaines a augmenté considérablement. On utilise à l’heure actuelle des estimateurs indirects des moyennes ou des totaux de petits domaines basés sur un modèle pour résoudre les difficultés que pose l’estimation directe. Ces estimateurs reposent sur des modèles de liaison qui empruntent de l’information aux divers domaines pour accroître l’efficacité. En particulier, beaucoup d’attention a été accordée dans la littérature aux meilleurs estimateurs empiriques ou estimateurs EB (pour Empirical Best) sous des modèles de régression linéaires au niveau du domaine et au niveau de l’unité contenant des effets aléatoires de petit domaine. L’erreur quadratique moyenne (EQM) des estimateurs EB sous le modèle sert fréquemment à mesurer la variabilité des estimateurs. Les estimateurs par linéarisation, ainsi que les estimateurs jackknife et bootstrap de l’EQM sous le modèle sont d’usage très répandu. Toutefois, les organismes statistiques nationaux s’intéressent souvent à l’estimation de l’EQM des estimateurs EB sous le plan de sondage, pour cadrer avec les estimateurs classiques de l’EQM sous le plan associés aux estimateurs directs pour les grands domaines dont les tailles d’échantillon sont adéquates. Les estimateurs de l’EQM sous le plan des estimateurs EB peuvent être obtenus pour les modèles au niveau du domaine, mais ils ont tendance à être instables quand la taille de l’échantillon du domaine est petite. Des estimateurs composites de l’EQM, obtenus en prenant une somme pondérée de l’estimateur de l’EQM sous le plan et de l’estimateur de l’EQM sous le modèle, sont proposés dans le présent article. Les propriétés des estimateurs de l’EQM sous le modèle au niveau du domaine sont étudiées en examinant le biais, la racine carrée de l’erreur quadratique moyenne relative et le taux de couverture des intervalles de confiance sous le plan de sondage. Le cas d’un modèle au niveau de l’unité est également examiné sous échantillonnage aléatoire simple dans chaque domaine. Les résultats d’une étude en simulation montrent que les estimateurs composites proposés de l’EQM offrent un bon compromis pour l’estimation de l’EQM sous le plan.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 12-001-X201800254959
    Description :

    Cet article propose un critère de calcul du paramètre de compromis dans les répartitions dites « mixtes », c’est-à-dire qui mélangent deux répartitions classiques en théorie des sondages. Dans les enquêtes auprès des entreprises de l’Insee (Institut National de la Statistique et des Études Économiques), il est courant d’utiliser la moyenne arithmétique d’une répartition proportionnelle et d’une répartition de Neyman (correspondant à un paramètre de compromis de 0,5). Il est possible d’obtenir une valeur du paramètre de compromis aboutissant à de meilleures propriétés pour les estimateurs. Cette valeur appartient à une région qui est obtenue en résolvant un programme d’optimisation. Différentes méthodes de calcul de ce paramètre seront présentées. Une application sur des enquêtes auprès des entreprises est présentée, avec comparaison avec d’autres répartitions de compromis usuelles.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 12-001-X201800254960
    Description :

    En présence d’information auxiliaire, la technique de calage est souvent utilisée pour améliorer la précision des estimations produites. Cependant, les pondérations par calage peuvent ne pas convenir à toutes les variables d’intérêt de l’enquête, en particulier celles qui ne sont pas liées aux variables auxiliaires utilisées dans le calage. Dans ce papier, nous proposons un critère permettant d’évaluer pour toute variable d’intérêt l’effet de l’utilisation de la pondération par calage sur la précision de l’estimation de son total. Ce critère permet donc de décider des pondérations associées à chacune des variables d’intérêt d’une enquête et de déterminer ainsi celles pour lesquelles il convient d’utiliser la pondération par calage.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 12-001-X201800254961
    Description :

    Dans les enquêtes auprès des entreprises, il est courant de collecter des variables économiques dont la distribution est fortement asymétrique. Dans ce contexte, la winsorisation est fréquemment utilisée afin de traiter le problème des valeurs influentes. Dans le cas d’un sondage aléatoire simple stratifié, il existe deux méthodes permettant de choisir les seuils intervenant dans la winsorisation. L’article se décompose de la façon suivante. Une première partie rappelle les notations et la notion d’estimateur par winsorisation. La deuxième partie consiste à détailler les deux méthodes et à les étendre dans le cas d’un sondage poissonnien, puis à les comparer sur des jeux de données simulées et sur l’Enquête sur le Coût de la Main d’Oeuvre et la structure des salaires réalisée par l’INSEE.

    Date de diffusion : 2018-12-20
Références (2)

Références (2) ((2 résultats))

  • Enquêtes et programmes statistiques — Documentation : 11-633-X2018019
    Description :

    La base de données longitudinales sur l’immigration (BDIM) est une source importante et complète de données contribuant à mieux comprendre le comportement économique des immigrants. Il s’agit du seul ensemble annuel de données canadiennes permettant d’étudier les caractéristiques des immigrants au Canada au moment de leur admission ainsi que leur situation économique et leur mobilité régionale (interprovinciale) sur plus de 30 ans. La BDIM combine des fichiers de données administratives sur les admissions d’immigrants et sur les permis de résidence non permanente provenant d’Immigration, Réfugiés et Citoyenneté Canada (IRCC) à des fichiers de données fiscales provenant de l’Agence du revenu du Canada (ARC). Ces données sont disponibles pour des immigrants déclarants admis à partir de 1980. Les dossiers de déclarants sont disponibles pour les immigrants déclarants depuis 1982. Ce rapport vise à discuter des sources de données, des concepts et des variables de la BDIM, du couplage d’enregistrements, du traitement des données, de la diffusion, de l’évaluation des données et des indicateurs de qualité, de la comparabilité avec d’autres ensembles de données relatifs à l’immigration ainsi que des analyses que permet la BDIM.

    Date de diffusion : 2018-12-10

  • Enquêtes et programmes statistiques — Documentation : 11-633-X2018011
    Description :

    La base de données longitudinales sur l’immigration (BDIM) est une source importante et complète de données contribuant à mieux comprendre le comportement économique des immigrants. Il s’agit du seul ensemble annuel de données canadiennes permettant d’étudier les caractéristiques des immigrants au Canada au moment de leur admission ainsi que leur situation économique et leur mobilité régionale (interprovinciale) sur plus de 30 ans. La BDIM combine des fichiers de données administratives sur les admissions d’immigrants et sur les permis de résidence non permanente provenant d’Immigration, Réfugiés et Citoyenneté Canada (IRCC) à des fichiers de données fiscales provenant de l’Agence du revenu du Canada (ARC). Ces données sont disponibles pour des immigrants déclarants admis à partir de 1980. Les dossiers de déclarants sont disponibles pour les immigrants déclarants depuis 1982.

    Ce rapport vise à discuter des sources de données, des concepts et des variables de la BDIM, du couplage d’enregistrements, du traitement des données, de la diffusion, de l’évaluation des données et des indicateurs de qualité, de la comparabilité avec d’autres ensembles de données relatifs à l’immigration ainsi que des analyses que permet la BDIM.

    Date de diffusion : 2018-01-08
Date de modification :