====== Théo Denorme ====== Contact : \\ Directeur : [[groupe-dfo-bbo:acteurs:profs:youssef-diouane:main-page|Youssef Diouane]] \\ Co-directeur : [[groupe-dfo-bbo:acteurs:profs:charles-audet:main-page|Charles Audet]] \\ Membre du [[https://www.gerad.ca/en|GERAD]] et étudiant à [[https://www.polymtl.ca/|Polytechnique Montréal]] depuis 2023. Ce stage vise à développer de nouvelles méthodes pour l'optimisation BlackBox (BBO), coûteuse en termes de calcul. BBO se réfère à des situations où la structure de la fonction objective et des contraintes est inconnue et ne peut pas être exploitée. Les méthodes BBO jouent un rôle de plus en plus important dans la construction de systèmes automatisés ; de plus en plus d'applications liées à l'apprentissage automatique et à la conception technique (mais aussi à de nombreux autres domaines) nécessitent la résolution de problèmes BBO difficiles. Un problème BBO est de la forme \min_{x \in \Omega } f(x) avec Ω \subseteq \mathbb{R}^n, où les dérivées de f et les fonctions définissant Ω ne sont pas explicitement disponibles.### Dans ce contexte, deux catégories de méthodes ont suscité un intérêt croissant : L'optimisation sans dérivées (DFO) et l'optimisation bayésienne (BO). Bien qu'elles traitent des mêmes problèmes, seules quelques interactions entre DFO et BO ont été établies. L'objectif est d'adapter l'approche de la barrière progressive (PB) pour l'utiliser dans une méthode de décroissance minimale afin de traiter les contraintes souples, c'est-à-dire celles qui peuvent être violées au cours du processus d'optimisation. L'algorithme PB place un seuil sur la violation des contraintes, rejette tous les points infaisables qui dépassent ce seuil, et réduit progressivement ce seuil au fur et à mesure que l'algorithme progresse. L'algorithme PB est connu pour ses bonnes performances, en particulier lorsqu'aucun point réalisable n'est connu. C. Audet and J. E. Dennis Jr. A progressive barrier for derivative-free nonlinear programming. SIAM J. Optim., 20:445–472, 2009. C. Audet and W. Hare. Derivative-Free and Blackbox Optimization. Springer, Cham, Philadelphia, 2017. C. Audet, S. Le Digabel, V. Rochon Montplaisir, and C. Tribes. Algorithm 1027: NOMAD Version 4: Nonlinear Optimization with the Mads Algorithm. ACM Trans. Math. Softw., 48:1–22, 2022. Y. Diouane. A merit function approach for evolution strategies. EURO J. Comput. Optim., 9:100001, 2021. Y. Diouane, V. Picheny, R. Le Riche, and A. Scotto Di Perrotolo. TREGO: a trust-region framework for efficient global optimization. J. Global Optim., 2022. ==== Présentations au GÉRAD ==== ==== Rencontres ====