La chercheuse Insight, Dr Alessandra Mileo, nous parle de son travail vers une IA plus humaine qui peut être explicable et digne de confiance.
Il y a deux ans, le Dr Alessandra Mileo a obtenu un financement de la Science Foundation Ireland (SFI), du Irish Research Council et de Nokia Bell Labs pour ses recherches sur l’apprentissage profond et l’intelligence artificielle (IA).
Elle dirige une équipe de recherche en pleine croissance qui explore l’utilisation des graphiques de connaissances pour interpréter les modèles d’apprentissage en profondeur, et examine également comment les connaissances peuvent à la fois être extraites et injectées dans ces modèles.
Jusqu’à présent, les résultats publiés sont prometteurs et l’équipe de Mileo teste déjà l’application de cette recherche en analyse d’imagerie médicale avec la School of Medicine de l’University College Dublin et BarcelonaTech, une grande université d’ingénierie en Espagne.
Chercheur financé dans deux centres de recherche financés par le SFI – Insight et I-Form – Mileo est également professeur adjoint à la Dublin City University.
«Je pense que l’IA n’est pas et ne devrait jamais être considérée comme une technologie qui fait des choses pour vous. Au lieu de cela, il fait des choses avec vous ‘
– DR ALESSANDRA MILEO
Qu’est-ce qui vous a poussé à devenir chercheur?
J’adorais étudier, apprendre et découvrir de nouvelles choses, alors j’ai pensé que je commencerais par étudier le plus longtemps possible. A partir de là, une chose en a conduit une autre: université, doctorat, postdoc, académique.
Mes recherches sur l’IA remontent à ma dernière année en tant qu’étudiant de premier cycle et à un projet que nous avons réalisé sur les robots Lego Mindstorms. J’étais tellement frustré que nous ne pouvions amener les robots qu’à faire des choses simples, car l’expressivité et la complexité du langage étaient limitées. Je n’arrêtais pas de me plaindre auprès de mes coéquipiers de projet du fait qu’il y avait très peu d’intelligence là-dedans. Et là, j’ai trouvé mon défi de trouver de meilleures façons d’exprimer la pensée logique et l’intelligence humaine pour apprendre à un robot (et aux machines en général) à faire quelque chose de plus intelligent. C’est ainsi que je suis entré dans l’intelligence artificielle symbolique et le raisonnement automatisé.
Comment expliqueriez-vous la recherche sur laquelle vous travaillez actuellement?
En tant qu’humains, lorsque nous apprenons quelque chose de nouveau, nous ne comptons pas sur voir des millions et des millions d’exemples à chaque fois. Nous tirons parti d’une énorme quantité d’expérience ou de connaissances antérieures que nous avons accumulées et synthétisées à travers une partie de notre cerveau qui permet la mémoire à long terme (l’hippocampe). Nous sélectionnons également ce qui est pertinent et combinons ces connaissances structurées avec de nouvelles données pour adapter ce que nous savons déjà à la nouvelle tâche.
Si nous pouvons systématiquement intégrer des connaissances structurées (exprimées sous forme de relations entre des informations) aux données dans des modèles d’apprentissage profond, nous obtenons une IA plus humaine.
La chose intéressante à propos de la connaissance structurée est qu’elle est organisée sous forme de concepts et de relations entre les concepts. Les modèles d’apprentissage profond, cependant, sont encore pour la plupart une boîte noire. Vous jetez des millions d’échantillons de données et obtenez comme par magie un résultat, et vous ne savez pas comment le justifier, d’où il vient ou quelle relation il entretient avec ce que vous saviez déjà.
Si nous pouvons combiner les deux aspects de l’apprentissage automatique et du raisonnement symbolique dans l’IA, nous jetons les bases de la construction de la prochaine génération de machines intelligentes. C’est un objectif très ambitieux, mais certaines approches dans ce sens deviennent de plus en plus populaires dans la communauté de l’IA avec le retour à la vie de l’informatique neuro-symbolique.
À votre avis, pourquoi votre recherche est-elle importante?
Malgré les progrès de l’apprentissage en profondeur pour l’analyse d’images médicales, il y a toujours un manque d’adoption clinique car il est difficile pour les humains de comprendre et donc de faire confiance aux résultats de l’analyse. Cette recherche réduira cet écart d’interprétabilité, conduisant à une confiance accrue, à une plus grande autonomisation des patients et, en fin de compte, à de meilleurs résultats, y compris un diagnostic amélioré, un déploiement clinique plus large et une plus grande efficacité en termes de temps et de coût.
Il existe de nombreux autres domaines dans lesquels cette recherche peut être pertinente, comme la prise de décision financière, la criminalistique numérique et la prédiction de la criminalité. Essentiellement, tous les processus de prise de décision où l’incapacité de comprendre et de corriger les erreurs et les préjugés peut entraîner une perte énorme, et le retour d’une mauvaise décision a un coût élevé.
Le manque de transparence, la nécessité de comprendre et d’expliquer (et de prédire) les erreurs possibles, et l’identification des biais sont un facteur clé pour l’adoption généralisée de l’apprentissage profond moderne.
Ce type de recherche peut également jouer un rôle clé pour atteindre la communauté plus large de l’IA pour se réunir pour résoudre des problèmes complexes. C’est une autre étape vers la réduction du fossé entre l’IA symbolique et connexionniste, combinant la force des deux mondes dans une nouvelle version de l’IA qui englobe différents aspects de l’intelligence humaine en agents artificiels pour des systèmes vraiment explicables.
Quelles applications commerciales envisagez-vous pour vos recherches?
Il s’agit de recherche fondamentale et je pense que l’open source doit être le choix à court terme. À moyen et long terme, cependant, je pense que cette recherche a le potentiel de créer un changement dans le modèle commercial des entreprises vendant des solutions d’apprentissage en profondeur pour la prise de décision. Ils ne devraient pas profiter de leurs modèles propriétaires sans être responsables de la qualité de leurs résultats.
Il existe de nombreuses applications dans lesquelles l’IA repose sur la vision par ordinateur et la compréhension du langage. Pour la vision par ordinateur au-delà de l’analyse d’images médicales, je peux penser à la surveillance, à la prévention du crime, à la responsabilité des véhicules autonomes. Pour la compréhension de la langue, je peux penser à la sécurité sur les médias sociaux et à l’équité des processus de recrutement.
Quels sont certains des plus grands défis auxquels vous êtes confronté en tant que chercheur en IA?
La recherche sur laquelle je me concentre en ce moment est assez récente; il n’y a pas de référence solide à comparer. Il est donc difficile de comprendre si vous allez dans la bonne direction car la plupart des approches qui ont été proposées indépendamment ces dernières années ne sont pas totalement et directement comparables.
En plus de cela, lorsque vous essayez de combiner des approches avec des fondements fondamentaux très différents, vous devez comprendre les deux ou vous engager dans des collaborations significatives. Cela peut être un défi car cela nécessite de contacter des experts d’autres communautés d’IA. Souvent, ces communautés ont très peu de liens et d’occasions de se réunir car elles publient généralement dans des lieux différents et s’associent à des projets et initiatives qui sont pour la plupart disjoints.
Quand tout le monde pense dans sa propre bulle, il peut être difficile de percer, mais quand nous le faisons, quelque chose de bon en sort généralement.
Existe-t-il des idées fausses communes sur ce domaine de recherche?
Je pense qu’une idée fausse courante est que si les résultats (c.-à-d. La précision) sont bons, alors votre système d’IA est bon. Mais nous devons évaluer les approches au-delà de leur précision quantitative d’une manière plus holistique. Lorsque vous prenez des décisions à fort enjeu, des aspects tels que la transparence, la confiance et l’équité méritent d’être sérieusement pris en compte, même s’il existe un compromis entre la confiance de votre système d’IA dans ses propres décisions et votre confiance en votre système d’IA.
Une autre idée fausse est que lorsque nous faisons raisonnablement confiance à un système d’IA, nous pouvons nous asseoir et le laisser faire le travail. Je pense que l’IA n’est pas et ne devrait jamais être considérée comme une technologie qui fait des choses pour vous. Au lieu de cela, il fait des choses avec vous. Cela ne remplace pas votre capacité de juger et de décider, cela la renforce. Le rôle humain est donc toujours un élément clé et nous devons nous concentrer sur l’IA pour soutenir les décisions plutôt que sur la prise de décisions.
Quels sont les domaines de recherche que vous aimeriez voir abordés dans les années à venir?
Il y a beaucoup de battage médiatique autour de la recherche interdisciplinaire, mais je pense qu’il y a encore beaucoup de potentiel inexploité dans la seule recherche sur l’IA. J’aimerais voir un cadre plus systématique pour que la communauté de l’IA se réunisse. Nous devons nous ouvrir à de nouvelles façons de s’engager au-delà des ateliers isolés et des séminaires. Je pense que c’est essentiel pour combiner les forces de l’IA symbolique et axée sur les données avec une nouvelle perspective holistique.
Vous voulez des histoires comme celle-ci et plus directement dans votre boîte de réception? S’inscrire pour Tendances technologiques, Le résumé hebdomadaire de Silicon Republic sur les nouvelles technologiques indispensables.
Êtes-vous un chercheur avec un projet intéressant à partager? Faites-nous savoir par email Editorial@siliconrepublic.com avec la ligne d’objet «Science Uncovered».