DarwinAI, une start-up de Kitchener-Waterloo spécialisée dans l’intelligence artificielle, s’est associée à la société aérospatiale mondiale Lockheed Martin pour améliorer la compréhension des solutions d’IA par les clients de Lockheed Martin.
« Négocier le problème de la boîte noire de l’IA de manière pratique et réalisable est un objectif clé pour nous cette année ».
DarwinAI offre une plateforme d’explicabilité qui tente de décrire comment les réseaux neuronaux, qui sont des constructions complexes imitant le cerveau humain, prennent leurs décisions. Lockheed Martin utilisera cette plateforme pour identifier des projets dans l’ensemble de ses activités où la technologie de l’explicabilité peut être appliquée.
« L’explicabilité est un défi essentiel dans notre industrie », a déclaré Lee Ritholtz, directeur et architecte en chef de l’intelligence artificielle appliquée chez Lockheed Martin. « Comprendre comment un réseau de neurones prend ses décisions est important pour construire des solutions d’IA robustes auxquelles nos clients peuvent faire confiance ».
Selon un rapport d’Aéro Montréal datant de 2019, le secteur aérospatial dispose de nombreuses
et des problèmes de sécurité qui peuvent retarder l’adoption de l’IA. Par exemple, le développement d’un algorithme capable de déterminer si un appareil est « apte au vol » ou non, nécessite un niveau élevé d’explication aux ingénieurs et aux régulateurs. Le rapport indique que l’explicabilité est donc un domaine de recherche essentiel dans l’industrie aérospatiale.
DarwinAI a créé une plateforme d’explicabilité pour le développement de l’apprentissage profond, alimentée par sa technologie, GenSynth Explain. En plus d’optimiser les réseaux de neurones, la plateforme vise à réduire considérablement le temps nécessaire à la production de modèles solides et précis.
Ce problème d’explicabilité est courant dans l’industrie aérospatiale, mais pas seulement. L’IA est souvent décrite comme ayant un « problème de boîte noire », ce qui signifie que comme la boîte noire d’un avion, il est difficile d’expliquer ce qui se passe en interne, alors que la technologie continue de progresser.
RELATIVES : Élément AI pour mettre en œuvre des fonctionnalités AI dans les activités d’un constructeur automobile japonais
Fondé en 2017, DarwinAI est sorti de l’ombre avec un financement de départ de 3,9 millions de dollars canadiens en septembre 2018. La société cherche à combattre ce problème de boîte noire, en visant à créer une IA explicable qui permet aux entreprises de construire des modèles d’IA auxquels elles peuvent faire confiance.
L’équipe fondatrice comprend le PDG Sheldon Fernandez, également co-fondateur de la société de conseil en logiciels Infusion, qui a été rachetée par Avanade l’année dernière.l’équipe fondatrice de DarwinAI comprend également le scientifique en chef Alexander Wong, professeur à l’université de Waterloo, et le directeur de l’exploitation Arif Virani, ancien consultant en technologie de McKinsey & Company.
« Négocier le problème de la boîte noire de l’IA de manière pratique et réalisable est un objectif clé pour nous cette année », a déclaré M. Fernandez. « Notre collaboration avec un leader de l’industrie aérospatiale tel que Lockheed Martin souligne l’importance de solutions d’IA fiables. Nous nous réjouissons de cette importante collaboration ».
Darwin AI a également récemment développé un réseau neuronal pour la détection de COVID-19 par radiographie pulmonaire avec le laboratoire de vision et de traitement d’images de l’université de Waterloo.
Source de l’image Unsplash. Photo par Pixpoetry.