ChatGPT, test de Turing et Chambre chinoise de Searle

ChatGPT est l’occasion de parler d’intelligence artificielle, de conscience et de test de Turing.

Extrait de conversation avec ChatGPT à propos d'intelligence artificielle

Extrait de conversation avec ChatGPT à propos d’intelligence artificielle

A l’époque, Alan Turing (que vous connaissez peut-être via le film Imitation Game) avait envisagé le test suivant :

Le test de Turing est une proposition de test d’intelligence artificielle fondée sur la faculté d’une machine à imiter la conversation humaine. Décrit par Alan Turing en 1950 dans sa publication Computing Machinery and Intelligence, ce test consiste à mettre un humain en confrontation verbale à l’aveugle avec un ordinateur et un autre humain.

Si la personne qui engage les conversations n’est pas capable de dire lequel de ses interlocuteurs est un ordinateur, on peut considérer que le logiciel de l’ordinateur a passé avec succès le test. Cela sous-entend que l’ordinateur et l’humain essaieront d’avoir une apparence sémantique humaine.

Pour conserver la simplicité et l’universalité du test, la conversation est limitée à des messages textuels entre les protagonistes.

Source : Test de Turing (Wikipédia)

On pourrait estimer que ChatGPT est à deux doigts de remplir les conditions pour passer ce test avec brio. En effet, il ne semble lui manquer que la sémantique des émotions pour pouvoir rivaliser avec l’IA conversationnelle que l’on peut voir dans le film Her par exemple (voyez en fin d’article ma conversation avec ChatGPT pour vous faire une idée du positionnement de cette IA par rapport à cela).

Dans la série Westworld, dans Humans ou encore dans Matrix, les « machines » semblent quant à elles carrément développer des sentiments qui leur sont propres et un libre-arbitre. Ces fictions revisitent une vieille question philosophique : ne sommes-nous pas que des programmes plus ou moins sophistiqués dont les réponses sont préconçues ou en tout cas déterminées par toute une série de causes qui nous échappent et façonnent notre volonté ? Mais c’est un autre sujet

Concernant ChatGPT, peut-on dire que son intelligence est d’ores et déjà identique à celle d’un être humain ? Plus loin encore, dans le cas d’une intelligence artificielle qui réussirait parfaitement le test de Turing, peut-on parler de conscience ?

Un autre penseur a imaginé une expérience de pensée pour tenter de répondre à cette question. Il s’agit de John Searle et de son expérience dite de la « Chambre chinoise » :

La chambre chinoise est une expérience de pensée imaginée par John Searle vers 1980. Searle se demandait si un programme informatique, si complexe soit-il, serait suffisant pour donner un esprit à un système. Cette expérience de pensée vise à montrer qu’une intelligence artificielle ne peut être qu’une intelligence artificielle faible et ne peut que simuler une conscience, plutôt que de posséder d’authentiques états mentaux de conscience et d’intentionnalité. Elle vise à montrer également que le test de Turing est insuffisant pour déterminer si une intelligence artificielle possède ou non ces états mentaux.

Source : Chambre chinoise (Wikipédia)

En gros, vous pouvez placer un être humain dans une pièce fermée en lui donnant toutes les règles sémantiques et syntaxiques pour formuler des réponses en chinois (ou toute autre langue qu’il ne connait pas), et l’entrainer à formuler des réponses en chinois, ce n’est pas pour autant que cet être humain comprend le chinois, c’est-à-dire qu’il maîtrise le sens de ce qu’il raconte.

> Lire aussi : Quand la technologie remplacera l’humain (2020)

On est donc encore loin de couvrir toute la complexité de l’intelligence d’êtres vivants… Mais cela n’en demeure pas moins assez bluffant et amusant. J’ai d’ailleurs demandé son avis sur ces questions à ChatGPT. Je vous laisse découvrir ses réponses ci-dessous !

J’ai discuté d’intelligence artificielle avec une intelligence artificielle

Apprends-tu au fur et à mesure que tu réponds à des messages ? Ton intelligence est-elle cumulative ?

AI(chatgpt) : Je suis un modèle de langage pré-entraîné développé par OpenAI, je n’ai pas la capacité d’apprendre au fil du temps en interagissant avec les utilisateurs. Mon connaissances sont basées sur les données d’entraînement qui m’ont été fournies lors de mon développement et ma connaissance n’évolue pas au fil du temps.

Estimes-tu que tu remplis les conditions pour passer le test de Turing ? Que te manquerait-il, dans le cas contraire ?

AI(chatgpt) : Je suis un modèle développé par OpenAI pour générer des réponses à des questions et des demandes de manière conversationnelle. Bien que je suis conçu pour imiter la manière dont les humains communiquent, je ne suis pas conscient et je ne peux donc pas remplir les conditions pour passer le test de Turing. Le test de Turing est conçu pour déterminer si une machine peut simuler une conversation humaine avec assez de succès pour tromper un observateur humain en pensant qu’il communique avec un autre humain.

Comment te situes-tu par rapport à l’expérience de la Chambre chinoise de John Searle ? Comprends-tu le sens de tes réponses ?

AI(chatgpt) : Je suis un modèle de langage développé par OpenAI, formé à générer des réponses convaincantes à des questions et des demandes dans un style de conversation humain. Je n’ai pas d’expérience consciente ni de compréhension subjective de mes réponses, je ne fais que suivre les algorithmes de génération de langage formés sur des données textuelles en ligne. En ce qui concerne la Chambre Chinoise de John Searle, je suis capable de fournir des informations sur le sujet, mais je n’ai pas la capacité de comprendre les implications philosophiques de l’expérience.

Dans les conditions actuelles de la connaissance humaine, est-il possible de générer une intelligence artificielle qui non seulement soit capable de répondre dans un style de conversation humain, mais qui en plus pourrait feindre d’avoir une expérience consciente, une compréhension subjective de ses réponses, des émotions ou encore de l’empathie ?

AI(chatgpt) : Il n’y a pas de réponse définitive à cette question, car elle dépend de la définition de la conscience et de l’empathie. Cependant, les experts en intelligence artificielle s’accordent généralement à dire qu’il est peu probable que les algorithmes actuels de traitement du langage puissent donner l’impression d’avoir une expérience consciente ou subjective. Les algorithmes tels que moi sont conçus pour imiter des réponses humaines en utilisant des modèles statistiques, mais ils ne font pas vraiment l’expérience de sentiments ou d’émotions.

Admettons que je te dise que je suis triste. Peux-tu me formuler une réponse-type qu’un ami humain me formulerait dans cette situation ?

AI(chatgpt) : Bien sûr, je peux générer une réponse qui imite une réponse d’un ami humain consolant. Par exemple: « Je suis désolé d’entendre ça, est-ce que tu veux en parler? Je suis là pour toi. »

Je t’informe que je viens de perdre mon emploi. Imite un ami humain consolant dans ta réponse.

AI(chatgpt) : Je suis vraiment désolé pour toi. Perdre son emploi peut être très stressant et difficile. Cependant, je suis sûr que tu trouveras bientôt quelque chose de mieux, tu es un talentueux et déterminé. Si tu as besoin de quelqu’un pour en parler ou pour t’aider à trouver de nouvelles opportunités, je suis là pour toi.