Actualités

Foxstream sélectionné pour participer à la conférence ICML


Dans le domaine du machine learning et de l’intelligence artificielle, se tient chaque année l’International Conference on Machine Learning (ICML), une des principales rencontres du secteur prisée par les chercheurs, les praticiens et les professionnels de l’industrie du monde entier, et dont l’objectif est d’encourager la recherche sur l’apprentissage automatique.

ICML est réputée pour publier des recherches de pointe sur tous les aspects de l’apprentissage automatique utilisés dans des domaines étroitement liés tels que l’intelligence artificielle, les statistiques et la science des données, ainsi que des domaines d’application importants tels que la vision artificielle, la biologie computationnelle, la reconnaissance vocale et la robotique.

A l’occasion de l’édition anniversaire des 40 ans de l’ICML qui se tiendra à Hawaï du 23 au 29 juillet 2023, la société Foxstream, membre de Vitaprotech, est fière d’avoir été sélectionnée pour présenter un article rédigé par deux de ses chercheurs, Blaise Delattre et Quentin Barthélemy, en partenariat avec l’Université de Paris Dauphine et l’Université de New York : “Efficient Bound of Lipschitz Constant for Convolutional Layers by Gram Iteration”.

Cette reconnaissance par l’une des plus grandes organisations dédiées au machine learning dans le monde démontre le haut niveau d’exigence et de recherche dont fait preuve Foxstream pour continuer à améliorer ses solutions. En effet, les travaux qu’ont entrepris Blaise Delattre et Quentin Barthélemy ont pour objectif de renforcer la robustesse et la confiance dans les algorithmes de deep learning. Cette confiance est essentielle pour utiliser ces algorithmes dans les solutions sécuritaires de Foxstream.

Vitaprotech est fier d’accompagner ses sociétés dans leurs travaux de recherche et d’innovation et ainsi participer à la construction d’un monde plus sûr pour tous.


En savoir plus sur l’article “Efficient Bound of Lipschitz Constant for Convolutional Layers by Gram Iteration” :

Les réseaux de neurones (Neural Networks) sont des programmes informatiques capables d’apprendre à partir de données et d’effectuer des tâches telles que la classification d’objets, la segmentation ou la détection d’intrusions. Malgré leurs incroyables succès dans ces tâches, les réseaux de neurones peuvent également être trompés ou corrompus par de mauvaises données, du bruit ou des modifications de leurs paramètres. Pour la sécurité, la conduite autonome et les applications médicales, il est crucial de contrôler sa stabilité pour garantir une confiance totale dans les sorties du système. Nous devons donc nous assurer que les réseaux de neurones sont stables, ce qui signifie qu’ils ne changent pas trop leur comportement lorsque quelque chose de petit change dans leur entrée ou leurs paramètres. La constante de Lipschitz d’un réseau de neurones est un nombre caractérisant sa stabilité, plus ce nombre est petit, plus le réseau de neurones est stable.

L’article introduit ainsi :

  • L’itération de Gram, une nouvelle méthode pour estimer la constante de Lipschitz d’un réseau de neurones, bien plus rapide sur GPU que les méthodes existantes.
  • Une estimation rapide et précise d’une borne supérieure pour la constante de Lipschitz de différentes parties du réseau de neurones.
  • L’utilisation de la borne sur la constante de Lipschitz pour contraindre les réseaux de neurones lors de leurs apprentissages, afin de les rendre plus stables pour les tâches de classification d’images.

Cet article a été écrit en partenariat avec l’université de Paris Dauphine et de New York.
Auteurs Foxstream : Blaise Delattre, Quentin Barthélemy.
Auteurs universitaires : Professeur Alexandre Allauzen (Paris Dauphine), Alexandre Araujo (Université de New York).

En savoir plus sur la conférence ICML