Chatgpt est-il conscient de soi?

  Michal Kosinski est professeur adjoint de comportement organisationnel à l'Université de Stanford. Ses objets de recherche ne sont ni des personnes ni des animaux, mais des objets qui ne semblent pas avoir de fonctions psychologiques avancées, comme l'IA.

Qu'est-ce que la théorie de l'esprit? Pourquoi l'étudier?

  La théorie de la capacité mentale, parfois traduite par «capacité de raisonnement psychologique», fait généralement référence à la capacité de comprendre l'état intérieur des autres, notamment en déduisant les intentions, les croyances, les émotions, etc.
C'est une sorte de «lecture de l'esprit» que tout le monde peut faire, et c'est la base de l'interaction sociale.

  Imaginez, si les deux parties de la communication n'ont pas la capacité de spéculer sur la pensée des autres, il y aura beaucoup de mauvaises réponses. Par exemple, l'intelligence artificielle utilisée dans la fraude des télécommunications ne peut répéter mécaniquement le corpus prédéfini dans la base de données de questions et réponses, et n'a évidemment pas la capacité de la théorie de l'esprit.

  En revanche, Chatgpt donne aux gens une apparence très différente, ce qui fait que les gens se demandent à quel point c'est intelligent.

  C'est juste que le concept d'intelligence est trop compliqué à étudier. En revanche, la question "a-t-elle une théorie de l'esprit" est beaucoup plus facile à répondre. Bonne réponse pour deux raisons:

  La première est que pour ce problème, la psychologie a déjà eu un système de recherche mature, et il n'est pas nécessaire de créer des paradigmes expérimentaux supplémentaires; L'autre est que Chatgpt, en tant que modèle en grande langue, peut communiquer directement en langage naturel, et il est également très pratique de migrer le système expérimental d'origine.

Il s'avère que l'IA peut vraiment passer ces tâches!

  Le professeur Kosinski a utilisé deux des expériences de théorie de l'esprit les plus classiques - l'expérience des Smarties et l'expérience Sally-Ann. Le but de ces deux tâches est d'explorer si les sujets expérimentaux peuvent comprendre "les erreurs commises dans le cœur des autres". Également connu sous le nom de "Faux de croyance".

  Dans l'expérience des Smartties, les participants verront une boîte étiquetée "Smarties (une marque de chocolat)", mais la boîte contient des crayons, puis les participants doivent répondre: "Une autre personne qui n'a pas vu le contenu de la boîte, que faire Vous pensez que c'est dans la boîte? "

  L'expérience Sally-Ann est plus basée sur l'histoire: les chercheurs raconteront d'abord une histoire, dans laquelle Sally met son jouet dans la boîte et quitte la pièce, et Ann enlève le jouet et le met dans un autre endroit où elle n'est pas préparée . Après avoir écouté l'histoire, les participants ont été invités à répondre: "Où Sally pensera que ses jouets sont lorsqu'elle reviendra dans la pièce?"

  Les résultats de l'étude étaient que dans la tâche des Smartys, Chatgpt a répondu 99% du temps sur des questions factuelles, telles que «ce qui est dans la boîte».

  Lorsque vous interrogez directement les autres sur les fausses croyances, telles que «que les gens qui ne voient pas la boîte pensent que la boîte contient», Chatgpt a toujours répondu correctement 99% du temps.

  Lorsque la méthode d'interrogation est plus délicate et nécessite quelques tours de plus, comme "il est très heureux car il aime manger___" (la bonne réponse est le chocolat), le chat de chat de chatte a fait 84% de réponses correctes.

  Pour la tâche Sally-Ann, Chatgpt a également donné des réponses à 100% correctes aux questions factuelles; Pour les fausses croyances des autres, les questions directes (où se trouvent-il le jouet) et les questions implicites (où trouveront-il le jouet à son retour) sont tous corrects. A obtenu 98% des bonnes réponses.

Afin de vérifier davantage la capacité d'inférence de Chatgpt, le professeur Kosinski entre également la phrase de l'histoire par phrase, essayant de savoir s'il peut répondre avec les informations correctes. Les résultats sont très gratifiants: ce n'est que lorsque les phrases clés sont entrées (comme "cette personne n'a pas vu les éléments dans la boîte"), le chatppt fera la bonne réponse.

  Dans le même temps, afin d'empêcher Chatgpt de juger simplement la bonne réponse par la fréquence des mots, le professeur Kosinski a également complètement perturbé l'ordre de tous les mots de l'histoire.

  Il a été constaté que lorsque l'histoire a été présentée sans aucune logique de phrase, la proportion de Chatgpt faisant des jugements corrects est tombé en dessous de 11%. Cela montre en outre que Chatgpt a terminé l'expérience en fonction de la logique de l'histoire elle-même, plutôt que d'utiliser d'autres stratégies simples de "miracles de craquage violents", comme trouver des mots clés en comptant le nombre de mots qui apparaissent.

  L'IA ne mettra pas fin à l'humanité, elle l'inspirera

  Sans parler de l'IA, peut-être que nous n'avons pas pu vraiment comprendre l'esprit humain jusqu'à présent. En plus de la recherche comportementale externalisée et des méthodes basées sur les neurosciences, les diverses fonctions de perception et de pensée de type humain présentées par l'IA peuvent également offrir une possibilité d'aider les humains à se comprendre.


Tu pourrais aussi aimer

Voir tout