Participants : Dounia Lakhmiri, Sébastien Le Digabel et Christophe Tribes
Ordre du jour : Révision de l'article d'HyperNOMAD:
Trouver des exemples d'articles similaires au notre.
Survey on Neural Architecture Search (NAS) : NAS_survey
Pour répondre à l'arbitre 2, il y a plusieurs points à considérer:
Test : Dans $HYPERNOMAD_HOME/src/blacbox
> python blackbox.py MNIST 1 5 3 1 1 1 1 128 128 2 0.01 0.9 0.9 0.05 0.45 2
Résultats: Obtenus avec 1 GPU sur la machine Pandora
Temps (sec) | |
---|---|
CPU | 482,28 |
HN - version 1 | 290,04 |
HN - version 2 | 144,27 |
Les Dataloaders de la version 2 ont 12 workers au lieu de 2 pour la version 1, ce qui explique la rapidité du traitement des données par le GPU.
Durant le séminaire : Road to AutoML, et en particulier durant la présentation “Geometry-Aware Gradient Algorithms for Neural Architecture Search”, la question suivante a été posée :
GAEA works better than EfficientNet on ImageNet classification?
et a reçu la réponse suivante:
the search space used for efficientnet is different and efficientnet evaluation uses a bunch of bells and whistels (squeeze and excite, swish activation, autoaugment, ema, etc.) and hence is not comparable. GAEA is more so an optimization approach where we propose using exponentiated gradient update to get faster convergence and hence can be applied to any search space. applying GAEA to a search space more similar to that considered by efficientnet is something we want to do in the future.
Je pense qu'on pourrait utiliser une réponse similaire dans notre rebuttle.