Plans de collecte de données adaptatifs visant à minimiser les effets du mode d’enquête – étude du cas de l’Enquête sur la population active des Pays‑Bas 3. Un algorithme pour résoudre le problème d’optimisation multimodal

Dans la section qui précède, nous avons introduit les fonctions de qualité et de coût et construit un problème d’optimisation multimodal. La contrainte de la comparabilité des sous‑populations, c’est‑à‑dire la limite supérieure de la différence absolue maximale entre les effets de méthode de groupe, rend le problème non convexe et difficile à résoudre. En conséquence, lorsqu’ils essaient de résoudre le problème d’optimisation multimodal, la plupart des solveurs de programmation non linéaire à des fins générales ne peuvent pas faire mieux qu’un optimum local. Le choix des points de départ dans les solveurs joue donc un rôle important. C’est pourquoi nous proposons une approche en deux étapes. Dans la première étape, nous résolvons un problème de programmation linéaire (PL) en agissant sur les contraintes linéaires (2.1), (2.5), (2.6) et (2.9) MathType@MTEF@5@5@+= feaagKart1ev2aqatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLn hiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr 4rNCHbGeaGqiFu0Je9sqqrpepC0xbbL8F4rqqrpipeea0xe9Lq=Je9 vqaqFeFr0xbba9Fa0P0RWFb9fq0FXxbbf9=e0dfrpm0dXdirVu0=vr 0=vr0=fdbaqaaeGacaGaaiaabeqaamaabaabaaGcbaGaeyOeI0caaa@3864@ (2.10). Dans la deuxième étape, nous utilisons la solution optimale obtenue dans la première étape comme point de départ à un algorithme de recherche local pour résoudre le problème non linéaire non convexe.

Nous reformulons le problème d’optimisation afin d’en faciliter le calcul. Étant donné que | f( x ) |=max{ f( x ),f( x ) }, MathType@MTEF@5@5@+= feaagKart1ev2aqatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLn hiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr 4rNCHbGeaGqiFu0Je9sqqrpepC0xbbL8F4rqqrpipeea0xe9Lq=Je9 vqaqFeFr0xbba9Fa0P0RWFb9fq0FXxbbf9=e0dfrpm0dXdirVu0=vr 0=vr0=fdbaqaaeGacaGaaiaabeqaamaabaabaaGcbaWaaqWaaeaaca aMc8UaamOzamaabmaabaGaamiEaaGaayjkaiaawMcaaiaaykW7aiaa wEa7caGLiWoacqGH9aqpciGGTbGaaiyyaiaacIhadaGadaqaaiaadA gadaqadaqaaiaadIhaaiaawIcacaGLPaaacaaISaGaeyOeI0IaamOz amaabmaabaGaamiEaaGaayjkaiaawMcaaaGaay5Eaiaaw2haaiaacY caaaa@5060@ nous pouvons reformuler la fonction d’objectif au moyen d’une variable additionnelle t MathType@MTEF@5@5@+= feaagKart1ev2aqatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLn hiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr 4rNCHbGeaGqiFu0Je9sqqrpepC0xbbL8F4rqqrpipeea0xe9Lq=Je9 vqaqFeFr0xbba9Fa0P0RWFb9fq0FXxbbf9=e0dfrpm0dXdirVu0=vr 0=vr0=fdbaqaaeGacaGaaiaabeqaamaabaabaaGcbaGaamiDaaaa@3870@ et imposer les contraintes f ( x ) t MathType@MTEF@5@5@+= feaagKart1ev2aqatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLn hiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr 4rNCHbGeaGqiFu0Je9sqqrpepC0xbbL8F4rqqrpipeea0xe9Lq=Je9 vqaqFeFr0xbba9Fa0P0RWFb9fq0FXxbbf9=e0dfrpm0dXdirVu0=vr 0=vr0=fdbaqaaeGacaGaaiaabeqaamaabaabaaGcbaGaamOzamaabm aabaGaamiEaaGaayjkaiaawMcaaiabgsMiJkaadshaaaa@3D96@ et f ( x ) t . MathType@MTEF@5@5@+= feaagKart1ev2aqatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLn hiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr 4rNCHbGeaGqiFu0Je9sqqrpepC0xbbL8F4rqqrpipeea0xe9Lq=Je9 vqaqFeFr0xbba9Fa0P0RWFb9fq0FXxbbf9=e0dfrpm0dXdirVu0=vr 0=vr0=fdbaqaaeGacaGaaiaabeqaamaabaabaaGcbaGaeyOeI0Iaam OzamaabmaabaGaamiEaaGaayjkaiaawMcaaiabgsMiJkaadshacaGG Uaaaaa@3F35@ De toute évidence, t MathType@MTEF@5@5@+= feaagKart1ev2aqatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLn hiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr 4rNCHbGeaGqiFu0Je9sqqrpepC0xbbL8F4rqqrpipeea0xe9Lq=Je9 vqaqFeFr0xbba9Fa0P0RWFb9fq0FXxbbf9=e0dfrpm0dXdirVu0=vr 0=vr0=fdbaqaaeGacaGaaiaabeqaamaabaabaaGcbaGaamiDaaaa@3870@ doit être non négatif. Les contraintes mêmes ne changent pas; elles sont simplement remplacées. Le problème d’optimisation multimodal est donné en (3.2).

Nous pouvons dériver la PL en supprimant les contraintes non linéaires de la comparabilité des effets de méthodes entre les sous‑populations et en remplaçant la fonction d’objectif non linéaire par une des contraintes linéaires. Nous choisissons la minimisation des coûts comme objectif de la PL. Le problème de PL résultant est formulé comme suit :

minimiser p( s,g ) s,g N g p( s,g )c( s,g ) sous les contraintes s S R N g p( s,g )ρ( s,g ) R g ,gG s,g N g p( s,g ) S max 0p( s,g )1,sS,gG sS p( s,g ) =1,gG s S R p( s,g ) >0,gG. (3.1) MathType@MTEF@5@5@+= feaagKart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLn hiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr 4rNCHbGeaGqiFu0Je9sqqrpepC0xbbL8F4rqqr=fpeea0xe9Lq=Je9 vqaqFeFr0xbba9Fa0P0RWFb9fq0FXxbbf9=e0dfrpm0dXdirVu0=vr 0=vr0=fdbaqaaeGacaGaaiaabeqaamaabaabaaGcbaqbaeaabyGaaa aabaWaaCbeaeaacaqGTbGaaeyAaiaab6gacaqGPbGaaeyBaiaabMga caqGZbGaaeyzaiaabkhaaSqaaiaadchadaqadaqaaiaadohacaaISa Gaam4zaaGaayjkaiaawMcaaaqabaaakeaadaaeqbqaaiaad6eadaWg aaWcbaGaam4zaaqabaaabaGaam4CaiaaiYcacaWGNbaabeqdcqGHri s5aOGaamiCamaabmaabaGaam4CaiaaiYcacaWGNbaacaGLOaGaayzk aaGaam4yamaabmaabaGaam4CaiaaiYcacaWGNbaacaGLOaGaayzkaa aabaGaae4Caiaab+gacaqG1bGaae4CaiaabccacaqGSbGaaeyzaiaa bohacaqGGaGaae4yaiaab+gacaqGUbGaaeiDaiaabkhacaqGHbGaae yAaiaab6gacaqG0bGaaeyzaiaabohaaeaadaaeqbqaaiaad6eadaWg aaWcbaGaam4zaaqabaaabaGaam4CaiabgIGioprr1ngBPrwtHrhAXa qeguuDJXwAKbstHrhAG8KBLbacfaGae8NeXp1aaWbaaWqabeaacaWG sbaaaaWcbeqdcqGHris5aOGaamiCamaabmaabaGaam4CaiaaiYcaca WGNbaacaGLOaGaayzkaaGaeqyWdi3aaeWaaeaacaWGZbGaaGilaiaa dEgaaiaawIcacaGLPaaacqGHLjYScaWGsbWaaSbaaSqaaiaadEgaae qaaOGaaGilaiaaysW7cqGHaiIicaWGNbGaeyicI4Sae8NbXFeabaaa baWaaabuaeaacaWGobWaaSbaaSqaaiaadEgaaeqaaaqaaiaadohaca aISaGaam4zaaqab0GaeyyeIuoakiaadchadaqadaqaaiaadohacaaI SaGaam4zaaGaayjkaiaawMcaaiabgsMiJkaadofadaWgaaWcbaGaae yBaiaabggacaqG4baabeaaaOqaaaqaaiaaicdacqGHKjYOcaWGWbWa aeWaaeaacaWGZbGaaGilaiaadEgaaiaawIcacaGLPaaacqGHKjYOca aIXaGaaGilaiaaysW7cqGHaiIicaWGZbGaeyicI4Sae8NeXpLaaGil aiaaysW7caWGNbGaeyicI4Sae8NbXFeabaaabaWaaabuaeaacaWGWb WaaeWaaeaacaWGZbGaaGilaiaadEgaaiaawIcacaGLPaaaaSqaaiaa dohacqGHiiIZcqWFse=uaeqaniabggHiLdGccqGH9aqpcaaIXaGaai ilaiaaysW7cqGHaiIicaWGNbGaeyicI4Sae8NbXFeabaaabaWaaabu aeaacaWGWbWaaeWaaeaacaWGZbGaaGilaiaadEgaaiaawIcacaGLPa aaaSqaaiaadohacqGHiiIZcqWFse=udaahaaadbeqaaiaadkfaaaaa leqaniabggHiLdGccaaMe8UaaeOpaiaaysW7caaIWaGaaiilaiaays W7cqGHaiIicaWGNbGaeyicI4Sae8NbXFKaaGOlaaaacaaMf8UaaGzb VlaaywW7caaMf8UaaGzbVlaacIcacaaIZaGaaiOlaiaaigdacaGGPa aaaa@F38E@

Minimiser t sous les contraintes s,g w g p( s,g )ρ( s,g )D( s,g ) s S R p( s ,g )ρ( s ,g ) t s,g w g p( s,g )ρ( s,g )D( s,g ) s S R p( s ,g )ρ( s ,g ) t s,g N g p( s,g )c( s,g )B s S R N g p( s,g )ρ( s,g ) R g ,gG s S R p( s,g )ρ( s,g )D( s,g ) s S R p( s,g )ρ( s,g ) s S R p( s,h )ρ( s,h )D( s,h ) s S R p( s,h )ρ( s,h ) M s,g N g p( s,g ) S max 0p( s,g )1,sS,gG sS p( s,g ) =1,gG s S R p( s,g )>0,gG 0t. (3.2) MathType@MTEF@5@5@+= feaagKart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLn hiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr 4rNCHbGeaGqiFu0Je9sqqrpepC0xbbL8F4rqqr=fpeea0xe9Lq=Je9 vqaqFeFr0xbba9Fa0P0RWFb9fq0FXxbbf9=e0dfrpm0dXdirVu0=vr 0=vr0=fdbaqaaeGacaGaaiaabeqaamaabaabaaGcbaqbaeaabSGaaa aaaeaacaqGnbGaaeyAaiaab6gacaqGPbGaaeyBaiaabMgacaqGZbGa aeyzaiaabkhaaeaacaWG0baabaGaae4Caiaab+gacaqG1bGaae4Cai aabccacaqGSbGaaeyzaiaabohacaqGGaGaae4yaiaab+gacaqGUbGa aeiDaiaabkhacaqGHbGaaeyAaiaab6gacaqG0bGaaeyzaiaabohaae aadaaeqbqabSqaaiaadohacaaISaGaam4zaaqab0GaeyyeIuoakmaa laaabaGaam4DamaaBaaaleaacaWGNbaabeaakiaadchadaqadaqaai aadohacaaISaGaam4zaaGaayjkaiaawMcaaiabeg8aYnaabmaabaGa am4CaiaaiYcacaWGNbaacaGLOaGaayzkaaGaamiramaabmaabaGaam 4CaiaaiYcacaWGNbaacaGLOaGaayzkaaaabaWaaabuaeqaleaaceWG ZbGbauaacqGHiiIZtuuDJXwAK1uy0HwmaeHbfv3ySLgzG0uy0Hgip5 wzaGqbaiab=jr8tnaaCaaameqabaGaamOuaaaaaSqab0GaeyyeIuoa kiaadchadaqadaqaaiqadohagaqbaiaaiYcacaWGNbaacaGLOaGaay zkaaGaeqyWdi3aaeWaaeaaceWGZbGbauaacaaISaGaam4zaaGaayjk aiaawMcaaaaacqGHKjYOcaWG0baabaaabaGaeyOeI0Yaaabuaeqale aacaWGZbGaaGilaiaadEgaaeqaniabggHiLdGcdaWcaaqaaiaadEha daWgaaWcbaGaam4zaaqabaGccaWGWbWaaeWaaeaacaWGZbGaaGilai aadEgaaiaawIcacaGLPaaacqaHbpGCdaqadaqaaiaadohacaaISaGa am4zaaGaayjkaiaawMcaaiaadseadaqadaqaaiaadohacaaISaGaam 4zaaGaayjkaiaawMcaaaqaamaaqafabeWcbaGabm4CayaafaGaeyic I4Sae8NeXp1aaWbaaWqabeaacaWGsbaaaaWcbeqdcqGHris5aOGaam iCamaabmaabaGabm4CayaafaGaaGilaiaadEgaaiaawIcacaGLPaaa cqaHbpGCdaqadaqaaiqadohagaqbaiaaiYcacaWGNbaacaGLOaGaay zkaaaaaiabgsMiJkaadshaaeaaaeaadaaeqbqaaiaad6eadaWgaaWc baGaam4zaaqabaaabaGaam4CaiaaiYcacaWGNbaabeqdcqGHris5aO GaamiCamaabmaabaGaam4CaiaaiYcacaWGNbaacaGLOaGaayzkaaGa am4yamaabmaabaGaam4CaiaaiYcacaWGNbaacaGLOaGaayzkaaGaey izImQaamOqaaqaaaqaamaaqafabeWcbaGaam4CaiabgIGiolab=jr8 tnaaCaaameqabaGaamOuaaaaaSqab0GaeyyeIuoakiaad6eadaWgaa WcbaGaam4zaaqabaGccaWGWbWaaeWaaeaacaWGZbGaaGilaiaadEga aiaawIcacaGLPaaacqaHbpGCdaqadaqaaiaadohacaaISaGaam4zaa GaayjkaiaawMcaaiabgwMiZkaadkfadaWgaaWcbaGaam4zaaqabaGc caaISaGaaGjbVlabgcGiIiaadEgacqGHiiIZcqWFge=raeaaaeaada WcaaqaamaaqafabeWcbaGaam4CaiabgIGiolab=jr8tnaaCaaameqa baGaamOuaaaaaSqab0GaeyyeIuoakiaadchadaqadaqaaiaadohaca aISaGaam4zaaGaayjkaiaawMcaaiabeg8aYnaabmaabaGaam4Caiaa iYcacaWGNbaacaGLOaGaayzkaaGaamiramaabmaabaGaam4CaiaaiY cacaWGNbaacaGLOaGaayzkaaaabaWaaabuaeqaleaacaWGZbGaeyic I4Sae8NeXp1aaWbaaWqabeaacaWGsbaaaaWcbeqdcqGHris5aOGaam iCamaabmaabaGaam4CaiaaiYcacaWGNbaacaGLOaGaayzkaaGaeqyW di3aaeWaaeaacaWGZbGaaGilaiaadEgaaiaawIcacaGLPaaaaaGaey OeI0YaaSaaaeaadaaeqbqabSqaaiaadohacqGHiiIZcqWFse=udaah aaadbeqaaiaadkfaaaaaleqaniabggHiLdGccaWGWbWaaeWaaeaaca WGZbGaaGilaiaadIgaaiaawIcacaGLPaaacqaHbpGCdaqadaqaaiaa dohacaaISaGaamiAaaGaayjkaiaawMcaaiaadseadaqadaqaaiaado hacaaISaGaamiAaaGaayjkaiaawMcaaaqaamaaqafabeWcbaGaam4C aiabgIGiolab=jr8tnaaCaaameqabaGaamOuaaaaaSqab0GaeyyeIu oakiaadchadaqadaqaaiaadohacaaISaGaamiAaaGaayjkaiaawMca aiabeg8aYnaabmaabaGaam4CaiaaiYcacaWGObaacaGLOaGaayzkaa aaaiabgsMiJkaad2eaaeaaaeaadaaeqbqaaiaad6eadaWgaaWcbaGa am4zaaqabaaabaGaam4CaiaaiYcacaWGNbaabeqdcqGHris5aOGaam iCamaabmaabaGaam4CaiaaiYcacaWGNbaacaGLOaGaayzkaaGaeyiz ImQaam4uamaaBaaaleaacaqGTbGaaeyyaiaabIhaaeqaaaGcbaaaba GaaGimaiabgsMiJkaadchadaqadaqaaiaadohacaaISaGaam4zaaGa ayjkaiaawMcaaiabgsMiJkaaigdacaaISaGaaGjbVlabgcGiIiaado hacqGHiiIZcqWFse=ucaaISaGaaGjbVlaadEgacqGHiiIZcqWFge=r aeaaaeaadaaeqbqaaiaadchadaqadaqaaiaadohacaaISaGaam4zaa GaayjkaiaawMcaaaWcbaGaam4CaiabgIGiolab=jr8tbqab0Gaeyye Iuoakiabg2da9iaaigdacaGGSaGaaGjbVlabgcGiIiaadEgacqGHii IZcqWFge=raeaaaeaadaaeqbqabSqaaiaadohacqGHiiIZcqWFse=u daahaaadbeqaaiaadkfaaaaaleqaniabggHiLdGccaWGWbWaaeWaae aacaWGZbGaaGilaiaadEgaaiaawIcacaGLPaaacaaMe8UaaeOpaiaa ysW7caaIWaGaaiilaiaaysW7cqGHaiIicaWGNbGaeyicI4Sae8NbXF eabaaabaGaaGimaiabgsMiJkaadshacaaIUaaaaiaaywW7caaMf8Ua aiikaiaaiodacaGGUaGaaGOmaiaacMcaaaa@A189@

Pour résoudre le problème linéaire, nous utilisons la méthode du simplexe disponible en R dans le module b o o t . MathType@MTEF@5@5@+= feaagKart1ev2aqatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLn hiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr 4rNCHbGeaGqiFu0Je9sqqrpepC0xbbL8F4rqqrpipu0de9LqFHe9fr pepeuf0xe9q8qq0RWFaDk9vq=dbvh9v8Wq0db9Fn0dbba9pw0lfr=x fr=xfbpdbaqaaeGacaGaaiaabeqaamaabaabaaGcbaGaamOyaiaad+ gacaWGVbGaamiDaiaac6caaaa@3B23@ Notre algorithme proposé en deux étapes traite donc (3.1) dans la première étape. x LP * MathType@MTEF@5@5@+= feaagKart1ev2aqatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLn hiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr 4rNCHbGeaGqiFu0Je9sqqrpepC0xbbL8F4rqqrpipeea0xe9Lq=Je9 vqaqFeFr0xbba9Fa0P0RWFb9fq0FXxbbf9=e0dfrpm0dXdirVu0=vr 0=vr0=fdbaqaaeGacaGaaiaabeqaamaabaabaaGcbaGaamiEamaaDa aaleaacaqGmbGaaeiuaaqaaiaacQcaaaaaaa@3AF1@ dénote la solution optimale obtenue dans la PL. Dans la deuxième étape, la solution  x LP * MathType@MTEF@5@5@+= feaagKart1ev2aqatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLn hiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr 4rNCHbGeaGqiFu0Je9sqqrpepC0xbbL8F4rqqrpipeea0xe9Lq=Je9 vqaqFeFr0xbba9Fa0P0RWFb9fq0FXxbbf9=e0dfrpm0dXdirVu0=vr 0=vr0=fdbaqaaeGacaGaaiaabeqaamaabaabaaGcbaGaamiEamaaDa aaleaacaqGmbGaaeiuaaqaaiaacQcaaaaaaa@3AF1@ est soumise à un algorithme d’optimisation non linéaire comme point de départ afin de résoudre (3.2). À cette étape, nous utilisons les algorithmes non linéaires disponibles dans NLOPT (voir Johnson 2013 ), une bibliothèque de source ouverte pour l’optimisation non linéaire qui peut être appelée à partir de R dans le module  n l o p t r . MathType@MTEF@5@5@+= feaagKart1ev2aqatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLn hiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr 4rNCHbGeaGqiFu0Je9sqqrpepC0xbbL8F4rqqrpipu0de9LqFHe9fr pepeuf0xe9q8qq0RWFaDk9vq=dbvh9v8Wq0db9Fn0dbba9pw0lfr=x fr=xfbpdbaqaaeGacaGaaiaabeqaamaabaabaaGcbaGaamOBaiaadY gacaWGVbGaamiCaiaadshacaWGYbGaaiOlaaaa@3D18@ La deuxième étape du problème non linéaire non convexe de l’algorithme est exécutée seulement si le budget minimal requis trouvé à la première étape de la PL est plus petit ou égal au budget  B MathType@MTEF@5@5@+= feaagKart1ev2aqatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLn hiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr 4rNCHbGeaGqiFu0Je9sqqrpepC0xbbL8F4rqqrpipeea0xe9Lq=Je9 vqaqFeFr0xbba9Fa0P0RWFb9fq0FXxbbf9=e0dfrpm0dXdirVu0=vr 0=vr0=fdbaqaaeGacaGaaiaabeqaamaabaabaaGcbaGaamOqaaaa@383E@ disponible. Si le budget minimal est plus grand, il n’y a pas de solution possible au problème d’optimisation.

Étant donné que la performance de ces algorithmes dépend du problème, nous avons choisi de combiner deux algorithmes locaux de recherche afin d’accroître la vitesse de convergence. Des algorithmes d’optimisation globale sont disponibles dans la bibliothèque NLOPT, mais leur performance dans la résolution de notre problème était considérablement inférieure à celle des algorithmes d’optimisation locale sélectionnés. Les deux algorithmes de recherche locale sélectionnés sont COBYLA (Constrained Optimization by Linear Approximations), proposé par Powell (1998) (voir Roy 2007 pour une mise en œuvre en C ) MathType@MTEF@5@5@+= feaagKart1ev2aqatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLn hiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr 4rNCHbGeaGqiFu0Je9sqqrpepC0xbbL8F4rqqrpipeea0xe9Lq=Je9 vqaqFeFr0xbba9Fa0P0RWFb9fq0FXxbbf9=e0dfrpm0dXdirVu0=vr 0=vr0=fdbaqaaeGacaGaaiaabeqaamaabaabaaGcbaWefv3ySLgznf gDOfdaryqr1ngBPrginfgDObYtUvgaiuGacqWFce=qcaGGPaaaaa@436B@ et l’algorithme lagrangien augmenté AUGLAG, décrit dans Conn, Gould et Toint (1991) et Birgin et Martinez (2008) . La méthode COBYLA construit des approximations linéaires successives de la fonction d’objectif et des contraintes au moyen d’un simplexe de n + 1 MathType@MTEF@5@5@+= feaagKart1ev2aqatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLn hiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr 4rNCHbGeaGqiFu0Je9sqqrpepC0xbbL8F4rqqrpipeea0xe9Lq=Je9 vqaqFeFr0xbba9Fa0P0RWFb9fq0FXxbbf9=e0dfrpm0dXdirVu0=vr 0=vr0=fdbaqaaeGacaGaaiaabeqaamaabaabaaGcbaGaamOBaiabgU caRiaaigdaaaa@3A07@  points (en n MathType@MTEF@5@5@+= feaagKart1ev2aqatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLn hiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr 4rNCHbGeaGqiFu0Je9sqqrpepC0xbbL8F4rqqrpipeea0xe9Lq=Je9 vqaqFeFr0xbba9Fa0P0RWFb9fq0FXxbbf9=e0dfrpm0dXdirVu0=vr 0=vr0=fdbaqaaeGacaGaaiaabeqaamaabaabaaGcbaGaamOBaaaa@386A@  dimensions), et optimise ces approximations dans une région de confiance à chaque étape. La méthode AUGLAG combine la fonction d’objectif et les contraintes non linéaires en une seule fonction, c’est‑à‑dire l’objectif en plus d’une pénalité pour toute contrainte non respectée. La fonction résultante est ensuite transférée à un autre algorithme d’optimisation en tant que problème sans contrainte. Si la solution de ce sous‑problème enfreint les contraintes, les pénalités sont accrues et le processus est répété. Le processus finit par converger vers la solution souhaitée, si elle existe.

Nous avons choisi d’utiliser la méthode MMA (Method of Moving Asymptotes, introduite dans Svanberg 2002), comme optimiseur local pour la méthode AUGLAG, en raison de sa performance dans nos expériences numériques. La stratégie sous‑tendant la méthode MMA est expliquée ci‑après. À chaque point x k , MathType@MTEF@5@5@+= feaagKart1ev2aqatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLn hiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr 4rNCHbGeaGqiFu0Je9sqqrpepC0xbbL8F4rqqrpipeea0xe9Lq=Je9 vqaqFeFr0xbba9Fa0P0RWFb9fq0FXxbbf9=e0dfrpm0dXdirVu0=vr 0=vr0=fdbaqaaeGacaGaaiaabeqaamaabaabaaGcbaGaaCiEamaaBa aaleaacaWHRbaabeaakiaacYcaaaa@3A52@ MMA forme une approximation locale à la fois convexe et séparable en utilisant le gradient de f ( x k ) MathType@MTEF@5@5@+= feaagKart1ev2aqatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLn hiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr 4rNCHbGeaGqiFu0Je9sqqrpepC0xbbL8F4rqqrpipeea0xe9Lq=Je9 vqaqFeFr0xbba9Fa0P0RWFb9fq0FXxbbf9=e0dfrpm0dXdirVu0=vr 0=vr0=fdbaqaaeGacaGaaiaabeqaamaabaabaaGcbaGaamOzamaabm aabaGaaCiEamaaBaaaleaacaWHRbaabeaaaOGaayjkaiaawMcaaaaa @3C16@ et les fonctions de contrainte, ainsi qu’un terme de pénalité quadratique pour rendre les approximations prudentes, par exemple des limites supérieures pour les fonctions exactes. L’optimisation de l’approximation mène à un nouveau point candidat x k + 1 . MathType@MTEF@5@5@+= feaagKart1ev2aqatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLn hiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr 4rNCHbGeaGqiFu0Je9sqqrpepC0xbbL8F4rqqrpipeea0xe9Lq=Je9 vqaqFeFr0xbba9Fa0P0RWFb9fq0FXxbbf9=e0dfrpm0dXdirVu0=vr 0=vr0=fdbaqaaeGacaGaaiaabeqaamaabaabaaGcbaGaaCiEamaaBa aaleaacaWHRbGaey4kaSIaaCymaaqabaGccaGGUaaaaa@3BF0@ Si les contraintes sont respectées, le processus continue à partir du nouveau point x k + 1 . MathType@MTEF@5@5@+= feaagKart1ev2aqatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLn hiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr 4rNCHbGeaGqiFu0Je9sqqrpepC0xbbL8F4rqqrpipeea0xe9Lq=Je9 vqaqFeFr0xbba9Fa0P0RWFb9fq0FXxbbf9=e0dfrpm0dXdirVu0=vr 0=vr0=fdbaqaaeGacaGaaiaabeqaamaabaabaaGcbaGaaCiEamaaBa aaleaacaWHRbGaey4kaSIaaCymaaqabaGccaGGUaaaaa@3BF0@ Sinon, le terme de pénalité est accru et le processus est répété.

Nous utilisons deux algorithmes de recherche locaux, parce que la méthode AUGLAG est plus efficace pour trouver le voisinage de l’optimum global, tandis que la méthode COBYLA offre une plus grande exactitude dans la recherche de l’optimum. En conséquence, la solution optimale de la PL est d’abord soumise à AUGLAG, puis, après un certain nombre d’itérations, lorsque l’amélioration de la valeur objective est inférieure à un seuil spécifié, la solution de la méthode AUGLAG est traitée par la méthode COBYLA pour une plus grande exactitude. Pour notre étude de cas, étant donné les exigences en matière de précision des statistiques obtenues dans le cadre de l’enquête (0,5 %), les résultats sont considérés comme suffisamment exacts si la valeur objective obtenue se situe à moins de 10 4 MathType@MTEF@5@5@+= feaagKart1ev2aqatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLn hiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr 4rNCHbGeaGqiFu0Je9sqqrpepC0xbbL8F4rqqrpipeea0xe9Lq=Je9 vqaqFeFr0xbba9Fa0P0RWFb9fq0FXxbbf9=e0dfrpm0dXdirVu0=vr 0=vr0=fdbaqaaeGacaGaaiaabeqaamaabaabaaGcbaGaaGymaiaaic dadaahaaWcbeqaaiabgkHiTiaaisdaaaaaaa@3AC4@ de l’optimum global. Tout autre gain d’exactitude est complètement éliminé par la variation d’échantillonnage et l’exactitude des paramètres d’entrée mêmes. Les calculs peuvent prendre jusqu’à quelques heures. Comme il n’est pas nécessaire de résoudre le problème d’optimisation durant la collecte des données, cela ne posera pas de problèmes dans la pratique.

Date de modification :