Intelligence artificielle : jouons-nous avec le feu ?

Intelligence artificielle : jouons-nous avec le feu ?

Films de science-fiction, annonces catastrophistes ou technologies du quotidien: les intelligences artificielles sont partout. Aujourd’hui, lorsque tu utilises un smartphone, tu fais appel à l’intelligence artificielle : Siri, Google Now, Skype Translator… Ces dernières années, des machines plus évolués, capables « d’apprendre » plutôt que de réciter sont apparues. Citons par exemple AlphaGo, le robot joueur de go qui, ce jeudi 10 mars 2016, a battu le champion du monde. Ceci arrive à un tel point que des scientifiques très célèbres, comme le physicien Stephen Hawking, y voient un danger pour l’humanité.
On appelle « intelligence artificielle » (ou IA) l’intelligence des machines et des logiciels. Il s’agit d’une discipline scientifique dont l’objectif est de simuler le raisonnement, les fonctions et les capacités du cerveau humain. Cette science cherche donc à imiter l’homme via des robots.

Quand parle-t-on d’ « intelligence » artificielle ?

Définir l’intelligence artificielle n’est pas facile. L’intelligence est la faculté d’apprendre, de comprendre, de connaître, de s’adapter à son environnement… On peut dire qu’un robot possède un certain degré d’ « intelligence » lorsqu’il est capable de s’adapter à son environnement et de résoudre des problèmes.
Le test de Turing a été la première hypothèse sérieuse à propos de la philosophie de l’intelligence artificielle. Le principe ? Si, à travers des échanges de textes, une machine à faire croire qu’elle est humaine à au moins 30% de juges humains en 5 minutes, elle peut être qualifiée d’« intelligente ».
Voilà de quoi expérimenter ce fameux test : http://www.cleverbot.com/
Cleverbot est un logiciel de
chat utilisant une IA pour converser avec les utilisateurs. Il est programmé pour répondre à certaines phrases. Quand il n’a pas de réponse dans sa base de données, il donne une réponse au hasard, note la réaction, repose la première question à quelqu’un d’autre, note et devient ainsi de plus en plus intelligent.
Il existe deux types d’intelligence artificielle :
  • L’intelligence artificielle faible est celle d’un ordinateur aussi compétent (voire plus) qu’un humain mais qui ne peut réaliser qu’une tâche précise (exemple : les logiciels d’échecs).
  • L’intelligence artificielle forte, est celle qui se rapproche le plus du comportement humain. Le programme commence avec des tâches simples pour arriver à des tâches compliquées. L’IA serait capable de penser et son raisonnement serait le même que celui d’un humain.

Nouveau mais pas tellement

L’intelligence artificielle, ça ne date pas d’hier. L’histoire de la robotique commence avant même les robots, avec l’automate. La différence entre l’automate et le robot est que le premier obéit à un programme prédéfini tandis que le second dispose de capteurs qui permettent à son programme de décider d’action en tenant compte de son environnement (c’est la notion de feed-back*, qui marque le début de la cybernétique).
Les hommes mécaniques et les êtres artificiels sont déjà présents dans la mythologie grecque: Héphaïstos, le dieu des forgerons,disposait de servantes d’or qui l’assistaient dans ses travaux (Iliade 18, 418-419). On voit aussi apparaître, toujours dans l’Antiquité, les premiers calculateurs analogiques. Certains avec un degré d’ingéniosité incroyable (par exemple la mystérieuse machine d’Anticythère, le mécanisme le plus sophistiqué de l’Antiquité connu jusqu’ici).
Le fragment principal de la machine d'Anticythère
Le fragment principal de la machine d’Anticythère
L’intérêt pour les automates va s’accroître et les techniques vont se perfectionner au fil des siècles. Au XIXe siècle, Charles Babbage conçoit la machine à calculer programmable (bien qu’il ne la construira jamais).
Début du XXe, suite aux travaux d’ingénieurs qui voulaient tester des hypothèses émises par des biologistes et des psychologues, les robots font leur apparition. On citera par exemple le chien électrique de Hammond et Miessner (1915), Grey Walter et ses tortues cybernétiques (1950), ou le renard électronique de Ducrocq (1953). Entre le nom et l’animal, on ne voit pas toujours le rapport.
Lors de la Seconde Guerre mondiale, les premiers ordinateurs modernes voient le jour, ce sont les machine de cryptanalyse*. Nous arrivons ensuite dans les années 1940 et 1950, où des scientifiques ont commencé à discuter de la possibilité de créer un cerveau artificiel. La recherche en intelligence artificielle a vraiment débutée durant l’été 1956, après une conférence tenue sur le campus de Dartmouth College (New Hampshire, USA). C’est à ce moment que l’on définit précisément le champ de l’intelligence artificielle et qu’on la considère enfin en tant que discipline scientifique. Après cela, de nombreux programmes furent développés et, au fur et à mesure du temps, les recherches en intelligence artificielle trouvent des applications pratiques.
Deep Blue, premier supercalculateur à battre un champion du monde d'échecs en titre.
Deep Blue, premier supercalculateur à battre un champion du monde d’échecs en titre.

1997 est une année marquante dans l’histoire des machines. Le robot Deep Blue a battu aux échecs le champion du monde à l’époque. L’homme va ainsi continuer de perdre face à l’ordinateur dans de plus en plus de domaines. Avec ces 10 170 configurations possibles (plus de combinaisons que d’atomes dans l’univers) le go était un des derniers domaine où l’homme gardait l’avantage. Considéré comme le plus complexe des jeux de stratégie, il demandait des qualités comme l’intuition et la créativité, des domaines où l’homme était supérieur à la machine. Jusqu’à ce jeudi 10 mars… : Lee Se-Dol, champion du monde de go, a en effet perdu face au programme AlphaGo. Il ira jusqu’à dire à la presse qu’il n’avait trouvé « aucune faiblesse » à la machine.

Le secret de l’ingéniosité d’AlphaGo tient en deux principes :
  • Le premier, est de puissants algorithmes qui permettent de calculer les coups à jouer pour atteindre une certaine position sur le damier en procédant via un arbre de recherche*.
  • Le second est « l’apprentissage profond » ou « Deep learning », une méthode d’apprentissage conçue sur la base de couches de « neurones » artificiels, imitant ceux du cerveau humain ! Le logiciel intègre des unités informatiques organisées en couches de neurones superposés, où chaque cellule est en contact avec des milliers d’autres. C’est-à-dire, comme les cellules dans le cortex cérébral humain (ou la matière grise si tu préfères).
C’est en tirant leçon de matchs joués entre grands joueurs, et en jouant contre lui-même des centaines de milliers de fois qu’AlphaGo a pu en apprendre de son expérience.
Hugues Bersini -co-directeur de l’institut de recherches dédié à la thématique (IRIDIA) de l’ULB, confiait au journal Metro (lire l’article entier)
« Des logiciels jouent et apprennent par essais-erreurs contre eux-mêmes, pour autant qu’on leur explique ce que c’est de gagner une partie. Et ça a quelque chose d’un tout petit peu inquiétant dans la mesure où ils n’ont pas la moindre idée de comment ils le font vu qu’ils n’en ont pas conscience.» […] Depuis le ‘machine learning’, les logiciels se rapprochent des êtres humains par apprentissage, en faisant des tonnes de parties et en mémorisant des configurations et des coups à associer à celles-ci. Les machines s’en rapprochent en devenant inconscientes. Par exemple, lors de tournois d’échecs qui opposent un champion à plusieurs joueurs, il n’a besoin que d’une seconde pour reconnaître un schéma de jeu et y apporter le meilleur coup possible. Et c’est bien parce que dans son inconscient, il a engrangé des tonnes de configurations. Depuis AlphaGo, les logiciels deviennent aussi intuitifs et automatiques que les humains.»
Aujourd’hui, l’intelligence artificielle intervient dans des domaines très variés : jeux vidéo, reconnaissance vocale, traduction automatique, robotique, mathématiques, médecine (logiciels d’aide au diagnostic médical). Par contre, contrairement aux idées reçues, les chercheurs sont très loin de comprendre comment construire une machine dotée d’une intelligence générale. Ce qui est pour l’instant impossible, c’est de doter les machines d’un sens commun. Si je te dis, “ton ami se lève et sort de la pièce ”, tu peux t’imaginer qu’il était assis, à l’intérieur, qu’une porte fermait la pièce… Bref, tu peux faire plein de déductions grâce à ton sens commun. Les machines n’ont pas ce sens commun et doivent ou devront apprendre par l’expérience.

Que du positif ?

« L’intelligence artificielle, c’est le diable », « [c’est un] démon que l’on ne pourra pas contrôler », « […] le développement d’une intelligence artificielle complète pourrait mettre fin à la race humaine. » Ca sonne un brin illuminé ou paranoïaque non ? Pourtant si je te disais que ces mots ont été prononcés respectivement par Bill Gates (le fondateur de Microsoft), Elon Musk (co-fondateur de Tesla Motors et des fusées Space X) et Stephen Hawking (un grand physicien).
En juillet 2015, des dizaines de spécialistes écrivent une lettre ouverte dans qualifient l’IA de « fiable et bénéfique » mais ajoutent :
« En raison du grand potentiel de l’intelligence artificielle, il est important de se demander comment en recueillir les fruits tout en évitant les pièges potentiels. »
Alors, faut-il avoir peur de l’intelligence artificielle, et est-on bien certain de savoir ce qu’on met derrière ce concept ? Une partie de cette crainte vient de l’idée de singularité technologique. Selon la loi de Moore, la puissance de calcul des processeurs double à peu près tous les 18 mois. En partant de cette théorie, on imagine que les IA vont évoluer de façon exponentielle jusqu’à peut-être dépasser l’intelligence humaine.
Michel Nachez, cyberanthropologue, chargé de cours à l’université Marc-Bloch à Strasbourg, et auteur de « Les Machines “intelligentes” et l’homme » répondait à l’Obs :
« On met au point des choses, on les teste, puis quand on les met en réel, on se rend compte qu’il y a des effets secondaires indésirables. Il y a des domaines où ça peut être tellement dangereux qu’on doit être absolument sûr avant d’avancer. Je pense qu’avant d’envoyer des robots connectés en réseau au sein de la population, il faudrait s’assurer qu’ils sont sécurisés, qu’ils ne sont pas « hackables », qu’ils aient un réseau interne mais pas ouvert sur Internet… Quand on fait de la recherche sur l’intelligence artificielle, on doit se poser la question de : « Qu’est-ce qui se passe… si elle émerge ? » Et si elle émerge, de ne pas la mettre dans un réseau public dont elle connaîtra les failles, la tester suffisamment pour savoir de quelle nature elle est. »
Néanmoins, ce concept a plusieurs problèmes : l’intelligence artificielle n’est pas définie uniquement par la puissance de calcul des ordinateurs, les performances informatiques sont limitées de manière physique par la technologie (processeur au silicium), on ne sait pas encore définir précisément l’intelligence humaine et encore moins la notion de conscience…
Yann Lecun, directeur de la recherche sur les IA chez Facebook et professeur à l’Université de New-York, va même plus loin en critiquant toute machine ayant passé le test de Turing. «Ça semble intelligent, parce que ces phrases ont été écrites par des humains à l’origine. Mais c’est une ruse. C’est pour ça qu’on pense que ça n’est pas un bon test ». De plus, ce test est subjectif puisqu’il dépend de la personnalité des juges humains qui évaluent le robot. L’hypothèse de la singularité technologique parait alors fortement improbable.
Néanmoins, même sans une intelligence quasi-humaine, le danger des IA fait débat. Les voitures autonomes par exemple. Imaginons, tu es au volant d’une voiture autonome lorsqu’un accident que tu ne peux éviter se produit. Tu as deux choix : tuer une, ou deux personnes. L’IA de la voiture étant programmée pour limiter le nombre de morts sur les routes, elle va choisir de ne faire qu’une seule victime, même cette victime, c’est toi.
De quelle façon réagira l’intelligence artificielle ? En fonction de quels critères « choisira »-t-elle la victime ? C’est ce type de question qui nourrit le débat sur l’existence d’un «algorithme moral».

Glossaire :

  • Arbre de recherche : structure où les informations sont hiérarchisées et représentée sous une forme arborescente.
  • Calculateur analogique : système qui permet de réaliser des calculs sur des équations différentielles en remplaçant un ensemble de variables avec un autre ensemble de variables physiques.
  • Cryptanalyse : science qui consiste à tenter de déchiffrer un message ayant été chiffré sans posséder la clé de chiffrement
  • Cybernétique : science qui étudie les mécanismes de communication et de régulation dans les machines et chez les êtres vivants.
  • Feed-back : synonyme de rétroaction et de rétrocontrôle. Action exercée sur les causes d’un phénomène par le phénomène lui-même.

Webographie :

http://www.science-et-vie.com/2016/03/le-champion-du-monde-de-go-battu-par-alphago-lintelligence-artificielle-de-google/
http://www.lalibre.be/dernieres-depeches/afp/jeu-de-go-le-champion-du-monde-de-nouveau-battu-par-l-ordinateur-de-google-56e14b7a35708ea2d36b7463
http://fr.metrotime.be/2016/03/09/must-read/lintelligence-artificielle-rattrape-lhomme/