Catégories
Actualités RH

Intelligence artificielle : conscience, es-tu là ?

Malgré les progrès de l’intelligence artificielle, leur donner le « sens commun  » ou une « conscience  » semble encore hors d’atteinte. Et, de toute façon, nul ne saurait comment s’en assurer.

« Un rat a plus de conscience que les meilleurs systèmes d’intelligence artificielle (IA) qu’on est capable de construire », et c’est un spécialiste qui le dit : Yann LeCun, directeur de la recherche en IA chez Facebook, lors d’une conférence organisée dans l’incubateur parisien Station F, en janvier dernier. Aussi sophistiqué soit un ordinateur, même lorsqu’il arrive à battre des champions du jeu de go, à savoir que vous avez fait une faute dans votre recherche sur Google ou à conduire une voiture, il a encore besoin qu’on lui tienne la main. Il a beau apprendre tout seul – c’est ce qu’on veut souvent dire par IA -, au départ il faut bien lui dire que ça ne sert à rien d’essayer de traverser un platane.

Il existe de nombreux types d’apprentissage, mais celui de l’humain est encore difficilement modélisable : « Un bébé observe le monde et comprend par interaction : il découvre seul qu’il y a des objets animés et d’autres inanimés « , continue Yann LeCun. « A partir de huit mois, il comprend qu’un objet ne peut pas tenir en l’air tout seul, avant ça ne le choque pas. Les principes de l’apprentissage sont dans la nature, et notre travail de chercheur est d’explorer cela. »

L’un des plus grands défis de l’IA aujourd’hui est d’arriver à donner un sens commun à une machine. Par exemple, quand nous entendons : « Jean est sorti de l’appartement, il a pris ses clefs », nous comprenons tous que « il » se réfère à « Jean » et non à « appartement « . Et nous devinons que Jean est passé par la porte et non par la fenêtre. Alors qu’un système d’intelligence artificielle en est encore incapable.

Les progrès toutefois réalisés laissent espérer, comme feu Marvin Minsky, l’un des pères fondateurs de l’informatique, ou craindre, comme Elon Musk, patron de Tesla et de SpaceX, qu’il sera bientôt impossible de distinguer l’IA de l’humain.

Dès 1950, le mathématicien britannique Alan Turing, connu pour avoir déchiffré le code Enigma des nazis, avait imaginé un test pour savoir si une machine pouvait penser, aussi connu sous le nom de « jeu de l’imitation « . L’épreuve consiste à faire discuter une personne avec ce qu’on appellerait aujourd’hui un chatbot (c’est-à-dire un programme qui répond aux internautes dans une boîte de dialogue), et un autre humain. Si l’expérimentateur n’arrive pas à faire la différence entre l’individu de son espèce et la machine, alors cette dernière aura réussi le test.

En 2014, une équipe de l’université de Reading (Royaume-Uni) avait annoncé qu’un logiciel y était arrivé. Le programme simulait les réponses d’un soi-disant garçon sarcastique de 13 ans, habitant en Ukraine et nommé Eugene Gootsman. Lorsqu’on lui demandait le nombre de pattes d’un mille-pattes, il répondait : « Seulement deux, mais les mutants de Tchernobyl peuvent en avoir jusqu’à cinq. Je sais que vous êtes censé me duper. » Avec un temps de discussion limité à cinq minutes, 33 % des expérimentateurs étaient tombés dans le panneau.

Mais cette expérience a suscité des critiques : la [lire la suite sur le site des Echos]

Par Claire PASQUAL

Claire PASQUAL est Chargée de Marketing & Digital et rédige de nombreux articles sur l'actualité RH ainsi que sur les expertises de PROEVOLUTION.