Knowledge Mapping and Management

Splendeurs et misères de l’Intelligence Artificielle

Le renouveau de l’IA est indéniable et il ne se passe plus une journée sans une annonce spectaculaire sur telle ou telle réussite.

Ces progrès technologiques sont si flagrants que l’IA est devenue un enjeu stratégique : le dernier rapport de l’Académie des Technologies, et le rapport Villlani(et de nombreux autres dans la sphère anglo-saxonne) préconisent aux entreprises et à l’Etat non seulement de s’y intéresser de près mais de les mettre en œuvre.

Si l’enthousiasme et la généralisation à tous les domaines de l’activité humaine s’en sont suivis immédiatement, les spéculations les plus inquiétantes sur le devenir de l’emploi et hasardeuses sur le futur de l’humanité ont été aussi développées.

Mais … en y regardant de plus près :

Au final, les succès de l’IA restent cantonnés à des tâches très restreintes. Ces programmes ne sont qu’une illusion d’intelligence : ils sont tous très spécialisés, très contraints au problème qu’ils résolvent, incapables de généralisation et tous très sensibles aux éléments qui ont permis leur apprentissage.

Un problème générique ?

Un long article de Gary Marcus, professeur à New-York University propose une analyse similaire alors que les chercheurs les plus avancés dans le domaine comme Yann le Cun illustrent aussi ces limites. Allant carrément plus loin, le fameux chercheur américain Roger Schank dénonce dans un article récent la stratégie marketing d’IBM sur l’IA qu’il qualifie même de ‘frauduleuse’. Un article tout récent issu des laboratoires Google décrit ces limites aujourd’hui constatées à l’IA en médecine, qui finalement ne sont pas très éloignées de celles des années 90 !

Tous ces cas démontrent que les méthodes actuelles à la mode de deep-learning, surtout très analytiques, sont loin d’être suffisantes pour représenter la complexité de l’intelligence humaine et diverses formes de  raisonnement, capable d’apprentissage et de généralisation quasi-immédiate. Le paradigme de l’IA générique est donc toujours aussi présent qu’au cours du dernier hiver de l’IA !

L’intelligence humaine est très vaste et lui a permis de comprendre des millions de sujets (Wikipedia contient près de 20 millions d’articles en anglais), et de s’adapter en permanence à de nouveaux domaines, alors que les succès de l’IA ne couvrent que quelques domaines très spécialisés, avec des limites flagrantes et des efforts humains et techniques colossaux.

Il s’agit donc d’être très prudent et réaliste dans la mise en œuvre d’outils d’IA ‘magiques’ : l’hypothèse « un algorithme pour tous » (= Réseau de neurones et variantes) ne fonctionne pas correctement même avec des adaptations importantes (RNN et LSTM). La sensibilité de ces logiciels au calcul en double ou simple précision nous montrent une incompatibilité avec le raisonnement humain qui n’a que faire de la 20° décimale d’un raisonnement.

Enfin la fabrique du faux grâce à l’IA est une industrie en plein essor sur laquelle il convient de se pencher avec urgence, car elle pose un danger immédiat à l’humanité.

Les progrès considérables que l’on voit sont dus en très grande partie à une augmentation colossale des moyens de calcul depuis les années 2000, ainsi que par des avancées algorithmiques et conceptuelles dans les réseaux de neurones, mais des problèmes de fond subsistent, comme la compréhension du langage naturel, la compréhension du monde, la compréhension de la connaissance humaine, le bon sens, etc.

Un nouveau danger pour l’IA, sa mise en œuvre et la recherche dans le domaine

La frénésie journalistique et les enjeux financiers et publicitaires des principaux acteurs ne doivent pas nous conduire à un nouvel « hiver de l’IA », généré par des attentes irréalistes,  des retours sur investissements piteux ou des mises en œuvre avec des conséquences graves.

D’un coté, les machines et les logiciels ont considérablement évolué ces dernières années, et il ne faut pas hésiter à acquérir des compétences et réaliser des prototypes dans ce domaine.

Cependant les équipes mises en place doivent avoir des compétences bien plus larges que les statistiques et la mise en œuvre de big data, de réseaux de neurones et de TensorFlow. La mise en œuvre critique et circonstanciée doit être étudiée avec soin avant tout déploiement.

A la question « que puis je faire avec ces algorithmes ? » doit se doubler par une série de questions :

  • que ne puis-je pas faire avec ces algorithmes ?
  • quelles en sont les limites ?
  • quelles sont les conséquences d’une erreur ? (mineure, réparable, …) ?

Assez curieusement, la plupart de ces questions de base sont pourtant oubliées dans les communiqués aussi enthousiastes que populistes. Le progrès vient cependant des impossibles d’aujourd’hui.

Il y a encore clairement beaucoup de place pour la recherche , et il faut sortir de cette mode « toute application a son réseau de neurones qu’il faut entrainer » pour élargir les techniques utilisées. L’IA sans réseaux de neurones a trouvé un immense champ d’applications dans les systèmes d’aide à la décision, les outils de CAO, Mathlab, contrôle des cartes de crédit et autres logiciels. L’esprit scientifique et le raisonnement ont permis des développements originaux en élargissant le spectre des connaissance au delà des habitudes des anciens. On a construit des avions alors que les oiseaux n’ont ni hélice ni réacteur. Tant que l’IA moderne se cantonnera à une recension statistique (même astucieuse et mathématique) des faits, elle ne pourra évoluer que dans ses propres et étroites limites.

©Laurent Gouzènes, mai 2018

KM2 est un outil générique de gestion et manipulation  de connaissances pour l’Intelligence Augmentée.