Aygalic rejoint SCIAM en 2025 après des débuts en start-up et en laboratoire universitaire. Doctorant et ingénieur en Machine Learning, Aygalic s'est formé en Apprentissage Statistique à l'École Centrale de Nantes et au Politecnico di Milano.
Son parcours et sa passion pour les sciences l'amènent aussi souvent à se plonger dans les dernières avancées scientifiques qu'à mettre les mains dans le code pour résoudre des challenges techniques.
En dehors du bureau, il aime la montagne aussi bien l'été que l'hiver pour les trails et les pistes de ski.
Les hallucinations sont un phénomène où la sortie d’un modèle de langues génératif (LLM) apparait dépourvue de sens, non factuelle ou encore en contradiction avec les instructions données.
Ce phénomène représente un frein à l’adoption et au déploiement responsable des LLMs dans les applications où la fiabilité est un aspect critique. Nous pouvons citer les exemples des applications bancaires ou de la santé.
C’est pour cela que nous travaillons sur la détection, quantification et mitigation des hallucinations dans les LLMs.