AI, discussion


L’article récemment publié dans **Wukali*] et intitulé [La Singularité, bienvenue dans le futur et traitant tout particulièrement de l’intelligence artificielle a battu des records de lecture. Merci à [**Palantir*], notre chroniqueur scientifique, notre «Seigneur des nanos» en quelque sorte, pour la qualité de sa réflexion, sa rigueur intellectuelle et sa capacité à rendre les sujets apparemment compliqués plus simples à appréhender sans jamais tomber toutefois dans une vulgarisation émolliente.

Suite aux réactions et à l’abondant courrier que nous avons reçus nous avons sélectionné un commentaire qui complémente le sujet, un point de vue différencié, une approche générationnelle. Dans un article annexe à la suite de celui ci, Intelligence artificielle, point de synthèse, Palantir fait le point sur l’intelligence artificielle.

[**Pierre-Alain Lévy*]


[**Le point de vue d’un lecteur*]

Je trouve que seule une vision apocalyptique de l’IA domine dans cet article.

Le problème dans l’[**IA*], c’est le mot intelligence, personne n’est d’accord avec la définition de ce mot. Mais ce qui revient assez souvent, c’est que l’on dit d’un être vivant qu’il est intelligent si il a une conscience de lui même. Par exemple, on met une tâche sur le museau d’un animal, on place l’animal devant un miroir et si l’animal se frotte le museau c’est qu’il a eu conscience que ce qui se présente dans le miroir, c’est lui. Le problème, c’est que tout le monde n’est pas d’accord non plus sur ce qu’est la conscience … Ensuite, il y a beaucoup d’êtres vivants dont on a l’impression qu’ils n’ont pas conscience d’eux-mêmes, mais ce n’est pas sûr pour autant. Et il y aussi la problématique des consciences collectives, qu’est ce qui nous dit qu’une fourmilière n’a pas conscience d’elle-même dans sa globalité ?

Pour ma part, j’aime à parler de[** raisonnement artificielle*]. Un ordinateur est une machine de [**Turing*] universelle. Une machine de Turing ne sait faire que des opérations[** basiques*] : avancer, reculer une tête de lecture/écriture sur une bande de “papier” infini et effectuer des actions (déplacements, lecture, écriture) d’après une table d’action (le programme), elle peut également mémoriser l’état dans lequel elle se trouve (logique, pour savoir ce que l’on doit faire à l’état n+1, il faut savoir que l’on est dans l’état n). Bref, ce qui confère de la puissance à la machine de Turing, [**c’est la rapidité avec laquelle elle va pouvoir faire ces actions.*] Et c’est maintenant que cela devient intéressant d’un point de vue philosophique.

Au début, les performances de ces automates était restreintes par leurs capacités à effectuer leurs actions rapidement, tout cela était très lent, et peu bluffant, une calculatrice en fait. Puis sont arrivés les transistors, qui ont permis d’éliminer certaines pièces mécaniques, c’est le début de l’électronique. L’électronique s’est de plus en plus développée et nous avons aujourd’hui des ordinateurs qui ne contiennent rien de mécanique quant à leurs processus de calcul. Plus l’électronique évolue, plus c’est bluffant (un peu comme l’évolution du cinéma: au début on voyait qu’il s’agissait de photos les unes derrières les autres, maintenant on a l’illusion que les personnages vivent dans l’écran). On a donc l’illusion que certains programmes sur des ordinateurs puissants ([**l’un ne va pas sans l’autre, le programme a besoin de la machine*], cela peut éventuellement nous renvoyer au fait que le corps a besoin de l’esprit pour (avoir l’illusion d’) exister et vice-versa) sont doués d’intelligence (par exemple, le programme qui a passé avec succès le test de Turing”).

Lorsque Deep Blue a battu Gasparov au jeu d’échec.[** Il ne s’agissait pas d’IA*], mais de capacité technique de la machine (The system derived its playing strength mainly out of brute force computing power ), la machine était assez puissante pour explorer énormément de combinaisons possibles de jeux à partir de l’état dans lequel il se trouvait. Plus la partie avance et plus l’espace de recherche (i-e le nombre de combinaisons) diminue. Au jeu d’échec il peut arriver (mais pas nécessairement à cause des parties nulles) un moment où la machine sait si elle a gagné ou si elle a perdu: une sorte d’impasse dans l’espace de recherche, un ensemble de combinaisons dont on ne peut sortir. Bref, ce n’était pas de l’IA.

En revanche, il y a un jeu dont on dit que jamais un ordinateur classique ne pourra jamais être assez puissant pour explorer de façon efficace l’espace de recherche, c’est le[** jeu de Go*]. Il y a encore 3-4 ans, tout le monde s’accordait à dire que ce n’était pas demain la veille qu’un ordinateur battrait le champion du monde d’échec au jeu de Go. Pourquoi ? Parce que la seule solution pour gagner serait que l’ordinateur (et son programme) soit “intelligent”, ou en tout cas, ait des capacités de raisonnement. Seulement l’année dernière, [**Google*] a dévoilé un programme capable de battre le champion du monde du jeu de Go. Le programme fonctionne sur des technologies matériel très avancée, mais cela n’explique pas la victoire du programme. Le programme est en fait capable d’apprendre, on parle d’apprentissage artificiel. Au début le programme perd quasiment toutes les parties mais au fur et à mesure, il gagne. Plus il gagne et plus il joue contre des meilleurs joueurs et plus il apprend, jusqu’à battre le champion du monde lui même. Seulement voilà, il y a 2 choses importantes à retenir:

– Le programme a besoin de l’être humain pour apprendre.(Ce qui est aussi le cas de l’être humain)
– Une fois que le champion du monde est éliminé, le programme n’apprend plus, il n’a plus d’adversaire. (Si l’on fait jouer l’ordinateur contre lui même, il s’agirait de partie quasiment stérile.)
Ces programmes sont conçues sur le modèle de fonctionnement des réseaux de neurones. On parle d’apprentissage profond (deep learning). Voire aussi réseaux Bayésiens.

Le [**CERN*] a obtenu des crédit de l’[**Europe*] pour simuler un cerveau humain ( Blue brain project ). Si leur projet réussit et que le résultat obtenu paraît doté d’une conscience, cela pourrait signifier que l’être humain n’est rien d’autre qu’une machine (physiologiquement, nous ressemblons à une machine: cablage (veine,nerfs), alimentation (coeur), batterie (graisse), calcul (cerveau), …) et que la conscience, l’intelligence ne seraient que des illusions dûes à la rapidité de nos calculs.

Voir aussi sur Youtube point de singularité
Ordinateur classique vs ordinateur quantique (en gros parce que je ne maîtrise pas le sujet) : **en théorie*], de par sa nature physique, un ordinateur quantique peut répondre [**instantanément et de manière optimale*] à certains problèmes combinatoires (de classe de complexité élevée (voir [théorie de la complexité: )

En pratique, il faut que la machine puisse disposer d’un endroit à une température zéro absolu pour que la réponse au problème soit optimal. Il y a des ordinateurs dont on dit qu’ils sont (semi, quasi-quantiques) mais pas quantiques parce que nous n’arrivons pas à générer les conditions physiques pour que ceux-ci fonctionnent de manière optimale (comme dans la théorie)

Edit: Dans le cas de l’ordinateur quantique, quant bien même on arriverait à faire un ordinateur vraiment quantique, cela ne serait pas de l’IA, mais une propriété intrinsèque de la machine à la résolution de certains problèmes. Mais c’est intéressant quand même. Ce qui me plait, c’est le dessin des frontières entre ce que l’on peut et ce que l’on veut, et aussi les interactions entre différentes disciplines. On repousse toujours un peu les frontières, mais on sent que l’on est proche d’une limite, quelque chose que l’on n’arriverait (peut-être) pas à dépasser.

J-M Cantador


*Contact *] : [redaction@wukali.com
WUKALI 01/12/2016

Ces articles peuvent aussi vous intéresser

Notre site utilise des 'cookies' pour améliorer votre expérience et son utilisation. Si vous le refusez vous pouvez les désactiver. Accepter En savoir plus