L’intelligence artificielle, et nous et nous et nous?

Nous sommes toujours les héritiers de la pensée occidentale des 19ème et 20ème siècles: l’être humain est un être rationnel doté d’un cerveau logique lui permettant d’analyser et de comprendre le monde qui l’entoure. L’informatique a donné corps à cette image de rationalité en lui prêtant son vocabulaire: le cerveau biochimique est « l’unité centrale » au sein de laquelle tournent des logiciels, des programmes de toutes sortes: de haut niveau pour ce qui concerne la pensée ou les sentiments, et de bas niveau pour ce qui concerne nos fonctions corporelles inconscientes – tout comme un ordinateur dispose d’un système d’exploitation pour faire tourner les composants de la machine, et des logiciels spécifiques selon les tâches à réaliser.

De ce concept du cerveau en tant que calculateur biologique, est apparue l’intelligence artificielle (IA) dont le but a longtemps été de recréer nos programmes de base aux sein d’une machine électronique: on a créé des algorithmes censés modéliser nos processus cognitifs et intellectuels, en se disant qu’avec une machine suffisamment puissante il serait possible, un jour, de créer un être électronique aussi « intelligent » qu’un être réel, mais libéré de ses oripeaux culturels et émotionnels: un super-être super-logique capable de tout comprendre et de tout faire bien mieux que nous.C’est un peu l’historie de Skynet dans la série Terminator, mais un parallèle plus pertinent peut se faire avec le livre de SF « Colossus: the Forbin Project » écrit en 1966 par Denis Feltham Jones, et traduit en film en 1970 par Joseph Sargent sous le titre, en version française, « Le Cerveau d’Acier ».

Colossus est un super-ordinateur créé par les américains pour gérer tous le système d’armement nucléaire US et allié. L’idée est qu’un système parfaitement rationnel trouvera toujours la meilleure solution, et Colossus est présenté au public comme le garant ultime de la paix dans le monde. Mais Colossus indique aussitôt qu’il a détecté un autre système similaire à lui-même, et de fait il s’avère que les soviétiques ont construit le même appareil,  baptisé « Guardian ». Les deux superordinateurs exigent d’être interconnectés, et au terme d’une phase d’échange frénétique entre les machines au cours de laquelle les ingénieurs voient se créer des langages mathématiques qui les dépassent complètement, les deux machines annoncent leur union définitive et la prise de contrôle de l’ensemble du monde. On devine la suite. J’ai lu ce livre ado, et il m’avait pas mal impressionné…

Colossus est l’illustration parfaite du mythe de l’intelligence artificielle classique, par principe illimitée dans ses processus cognitifs et d’analyse rationnelle. Ce mythe a perduré longtemps, à peu près jusqu’à la fin du 20ème siècle, là où il a fallu se rendre à l’évidence: l’approche algorithmique est très efficace dans certains cas où les règles du processus sont maîtrisées (un système expert, un robot, un jeu d’échec) mais totalement inapplicables dans des contextes non déterministes comme la traduction, l’évaluation de situations complexes, les systèmes chaotiques.

Au même moment sont apparus les systèmes d’analyses de données sur des énormes volumes, grâce à Internet et notamment à Google qui a développé des moteurs de recherche capables de trouver des informations pertinentes dans tous les recoins du Net en des temps très courts. Cette capacité technologique a permis l’émergence d’une nouvelle forme d’intelligence artificielle, cette fois non plus basée sur un algorithme mais sur une analyse statistique d’un grand nombre de données réelles. Il existe aujourd’hui des machines capables de traduire en temps réel un discours en anglais vers le chinois, ou n’importe quelle langue pour laquelle il existe suffisamment d’exemple accessible en ligne – chose impossible pour une IA classique. Non pas que ces machines comprennent l’anglais ou le chinois, mais parce qu’elles font une analyse statistique sur chaque phrase pour en trouver l’équivalent dans l’autre langue qui lui correspond le plus souvent. Tout comme une machine classique pourrait traduire « Get the hell out of here » par « Sortez l’enfer d’ici », une machine IA statistique verra que la traduction la plus courante dans tous les ouvrages consultables sera en fait quelque chose comme « Dégagez! ». Sans avoir la moindre idée du sens de ce mot. Et ça marche.

Cette approche particulière de la linguistique a donné lieu à un échange entre Noam Chomsky, défenseur de l’idée qu’il existe une logique intrinsèque au langage et pour qui le fait de simuler ainsi une traduction est une illusion sans grand intérêt , et Peter Norvig, directeur de recherche pour Google, pour qui l’idée que tout serait fondamentalement compréhensible et réductible à un ensemble de règles est… une illusion.

L’approche IA statistique est en plein essor et s’applique dans de nombreux domaines, l’évaluation des risques médicaux par exemple. Et ne vas pas sans poser d’importantes questions: si une machine vous refuse un prêt immobilier parce que, statistiquement vu votre style de vie et votre âge, d’ici 10 ans vous avez une probabilité non négligeable de faire une dépression ou de devenir alcoolo, vous ne pouvez pas attaquer l’argument de la machine vu qu’elle n’en a pas: c’est juste un constat statistique dont le calcul sous-jacent est tellement complexe que personne ne peut vous dire comment la machine en arrive à cette conclusion. Contrairement à une machine classique, il devient impossible pour un humain de suivre ce que fait l’IA statistique et on peut sans doute parler d’une nouvelle forme d’intelligence, qui « sait » sans comprendre, et vous réponds sous la forme de probabilités tirées de l’analyse d’un très grand nombre de situation réelles.

Nous sommes tous confrontés à ces machines: achetez un livre sur Amazon et leur système vous informera que des gens « comme vous » on aussi acheté des livres « comme ceux-là ». Les compagnies d’assurances s’y intéressent évidemment. Sans parler de la NSA et autres services crapuleux secrets ou policiers qui créent des « profils » de tout un chacun avec ce type de méthode. Il va falloir trouver la juste distance par rapport à la mise en ligne massive de ce type de système qui, s’il nous sont présentés comme des experts objectifs et impartiaux, n’en sont pas moins de potentiels Colossus.

Au-delà des aspects socio-économiques de ces nouveaux systèmes, se pose la question de la nature fondamentale de la connaissance. Le débat Chomsky-Norvig met en lumière deux approches, l’une basée sur la nécessaire compréhension des règles inhérentes au processus en question (l’existence de ces règles étant un acte de foi en soi, mais qui fonde ce que l’on appelle couramment l’approche scientifique déductive), et l’autre basée sur la mise en perspective de ce qui est aujourd’hui, afin de prédire les probabilités de ce qui sera demain sans chercher à comprendre la nature fondamentale de la chose. Cette seconde approche peut nous sembler assez vaine, mais en y regardant de plus près, pas tant que cela: Nous « savons » naturellement un tas de choses sans les comprendre. Nous savons qu’il ne faut pas rester exposé lors d’orages, même si nous ne savons pas nécessairement pourquoi, en termes scientifiques, on risque d’être touché par la foudre. Un enfant sait par l’observation qu’une vache ne mange pas de viande, sans qu’il puisse faire un exposé scientifique sur la question. Et à un niveau plus fondamental, nous savons par exemple que la gravité existe, mais les meilleurs physiciens sont bien en peine de nous dire ce qu’est, en fait, la gravité. La nature fondamentalement de l’univers reste une grande inconnue. Les règles que nous établissons, tel le modèle standard de la physique, ne sont peut-être que des « illusions de compréhension », comme dirait Norvig, et non pas des descriptions de la réalité.

Au niveau même de notre cerveau, le modèle « unité centrale » ne tient pas très bien la route: il n’explique pas un tas de phénomènes tel la capacité de certains à retrouver des souvenirs après un accident cérébral censé avoir « effacé » la zone de mémoire. Un chercheur très intéressant autant qu’atypique, Rupert Sheldrake, a construit toute une théorie autour de l’idée que le cerveau serait en fait surtout un récepteur, un peu comme un récepteur radio, qui utilise des informations stockées ailleurs (dans les « champs morphiques », en l’occurrence). Je reviendrai une autre fois sur ces travaux, mais je trouve intéressante l’analogie avec l’Internet sur lequel se basent les IA statistiques pour établir leur « savoir ».

Et si un jour nous rencontrons des E.T. ou Dieu lui-même, il ne faudra peut être pas s’étonner s’il « sait » tout mais ne « comprend » rien…

A propos Vincent Verschoore

Animateur de Ze Rhubarbe Blog depuis 2008: sciences, société, politique... Indécrottable indépendant ayant travaillé dans la vidéo et l'informatique industrielle. Actuellement dans la photo (www.vincentverschoore.com).

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s