Je n'ai pas de bouche, mais je dois crier. Réflexions sur l'IA et l'éthique

Clause de non-responsabilité
Je suis sceptique quant à ma capacité à exprimer une pensée vraiment originale. Très probablement, je suis loin d'être le premier à poser ces questions, et il est fort possible que des réponses digestes aient déjà été élaborées à leur sujet. Par conséquent, en tapant ce texte, je n'attends pas votre surprise ou votre admiration. Je m'attends à ce que des gens familiers avec la philosophie moderne de la conscience viennent au commentaire et me donnent des liens vers le travail de penseurs sérieux avec des noms de famille allemands amusants.

image

Il n'y a pas si longtemps, il y avait un article sur Habré, dont les commentaires m'ont fait réfléchir à plusieurs questions interconnectées. Je veux partager les résultats de ces pensées (ou leur absence, voici comment regarder) avec la communauté.

Qu'est-ce que la douleur?


Une fois, j'ai eu mal aux dents. J'étais allongé sur le canapé et j'ai essayé de ne pas y prêter attention. Je pensais que la douleur n'était qu'un signal entrant dans mon cerveau. Le même signal que la présence ou l'absence de tension dans le câblage allant au connecteur PS / 2 de l'unité centrale. En soi, il n'a pas de sémantique, c'est ma conscience qui choisit comment l'interpréter. Si j'arrête de le percevoir comme de la douleur et que je l'ignore ou simplement «prends note», cela deviendra plus facile pour moi.

Mais cela n'a pas été plus facile. D'une manière si simple, j'ai trouvé que qualia a mal et ne se résume pas à un simple transfert d'informations.

Comment comprenons-nous que cela blesse les autres?


Je ne suis pas spécial en neurophysiologie, mais ils disent qu'il y a une sorte de neurones miroirs dans le cerveau. Lorsque nous voyons comment une autre personne effectue certaines actions, les neurones miroirs effectuent leur ingénierie inverse. Nous essayons de comprendre ce qui devrait arriver dans la tête de cette personne pour qu'elle se comporte de cette façon. Et dans une certaine mesure, même nous-mêmes commençons à ressentir ce que, selon nos hypothèses, il devrait ressentir. Mes pommettes peuvent être réduites à la vue de quelqu'un mangeant un citron. Si quelqu'un, par exemple, crie, pleure, se tord, roule par terre ... Il est probable que cette personne souffre. Très probablement, il sera désagréable pour moi de voir une telle vue. Je vais commencer à sympathiser avec cette personne et, si elle est en mon pouvoir, même à prendre des mesures pour arrêter la douleur. Putain de neurones miroirs.

En fait, nous n'avons aucune garantie que l'autre personne souffre vraiment. Par exemple, il peut s'agir d'un simulateur, d'un acteur, comme dans l' expérience Milgram . Cependant, cela peut facilement être compris en plaçant le simulateur dans le tomographe et en voyant quelles parties du cerveau sont actuellement actives. Cependant, il s'agit également d'un comportement, bien que plus "bas". En conséquence, tout se résume à un critère très simple (je dirais même trop simple): nous pensons qu'une personne ressent de la douleur si elle se comporte comme si nous ressentions de la douleur .

Comment comprendre que l'autre personne est une personne?


Il y a une telle expérience de pensée célèbre appelée le zombie philosophique . Son essence est simple: imaginez quelque chose qui se comporte absolument indiscernable d'une personne du point de vue d'un observateur externe, mais qui est totalement dépourvu d'expérience subjective. Si vous le piquez avec une aiguille, il dira «ah» (ou quelque chose de moins censuré), tirera sa main en arrière, ses muscles faciaux correspondants se contracteront et même le tomographe ne pourra pas l'attraper. Mais en même temps, il ne ressent rien à l'intérieur. Il n'a tout simplement pas cet «intérieur». Un tel quelque chose est appelé un «zombie philosophique», et l'essence de l'expérience est que l'existence de cette créature hypothétique ne conduit pas à des contradictions évidentes. Autrement dit, il semble que possible .

Pour revenir à la question précédente, nous n'avons vraiment aucune possibilité fiable de savoir si l'autre personne souffre en tant que qualia. Nous pouvons écouter nos neurones miroirs ou, si cela ne suffit pas pour nos esprits sophistiqués, utiliser le rasoir d'Occam. Dire que le «zombie philosophique» est une entité supplémentaire. Il est beaucoup plus logique de supposer que toutes les personnes sont plus ou moins identiques que de supposer le contraire, sans aucune raison claire à cela. Cependant, le principe d'Occam est toujours une loi heuristique et non immuable. Des entités qui nous semblaient superflues hier entrent dans notre maison aujourd'hui, ouvrant la porte avec leurs pieds. Si vous n'êtes pas d'accord, essayez d'imaginer comment la mécanique quantique serait expliquée à Démocrite.

Les androïdes rêvent-ils de supports électriques?


Dans le premier commentaire sur le post que j'ai écrit ci-dessus, la pensée suivante a été exprimée par l'utilisateur NeoCode :
Tout d'abord, une `` IA forte '' n'est pas une créature vivante et ne pourra pas ressentir la douleur ou la solitude, simplement parce que sa nature est initialement différente, elle n'a pas des millions d'années d'évolution et de sélection naturelle, et donc - des mécanismes et des programmes biologiques de bas niveau. Il n'aura même pas l'instinct de conservation de soi, à moins que vous ne programmiez spécifiquement bien sûr. Mais dans sa forme pure - ne le sera pas; vous pouvez créer une IA qui a conscience et est capable de résoudre des problèmes complexes et d'apprendre, sans avoir l'instinct de conservation en général.
C'est un point important que, pour une raison quelconque, beaucoup ne comprennent pas, par défaut, l'intelligence artificielle "humanisante".

En cela, bien sûr, il y a un noyau rationnel. Les qualités humaines ne peuvent pas être transférées sans réfléchir à une IA hypothétique. À cet égard, 95% de la science-fiction et 99,9% des habitants sont désespérément naïfs. Mais je veux dire ce qui suit: ne privez pas non plus inconsidérément l'IA des qualités humaines. Certains d'entre eux peuvent s'avérer plus fondamentaux que ce à quoi on aurait pu s'attendre.

Considérez cette situation hypothétique: pour que l'IA fasse ce dont nous avons besoin, et non ce qu'elle veut (et il pourrait bien être plus «intéressant» de résoudre le sudoku que de s'engager dans notre projet, qui est sur le point d'avoir un délai) , nous y ajoutons un signal d'entrée spécial - de telle sorte que l'objectif principal de l'IA, le composant principal de sa fonction objectif, est de minimiser ce signal. En conséquence, lorsque la date limite approche, nous appuyons sur la pédale, une tension est appliquée aux fils et l'IA commence à réfléchir activement à la façon de supprimer cette tension. Et plus nous sommes actifs, plus nous appuyons. Et comme la pression du pied sur la pédale est associée à un projet incomplet, l'IA n'a d'autre choix que de terminer ce projet. Eh bien, ou pour pirater un drone militaire qui vole au-delà afin qu'il assomme le cerveau de l'opérateur à pédales. Qui sait, cette IA puissante.

Cependant, j'étais distrait. Dites-moi, ce signal hypothétique ne vous rappelle-t-il accidentellement rien? Est-il possible dans ce cas de dire que l'IA souffre?

L'homme à l'homme est un loup, et les zombies sont des zombies zombies


Comment pouvons-nous même comprendre si l'IA connaît des qualia? Dans le cas des zombies philosophiques, l'empathie et le rasoir d'Occam étaient de notre côté. Cependant, l'IA est philosophique, mais pas zombie. Autrement dit, il est logique de soulever cette question à son sujet, mais il n'est pas humain. Par conséquent, nous ne pouvons pas dire qu'il ressent quelque chose, juste par analogie avec nous-mêmes.

Quelqu'un (comme, par exemple, l'auteur du commentaire cité ci-dessus) dira que nous pouvons dire le contraire en toute sécurité. Qu'il n'y a aucune raison de croire que l'IA souffre vraiment, et sinon, nous ne le penserons pas. Je voudrais répondre à ceci comme suit: Imaginez qu'un être, un sentiment, mais un être complètement inhumain vous a créés. Quelles raisons aurait-il pour croire que vous vivez des qualia? À moins, bien sûr, que cette créature n'ait pas la capacité transcendantale de vraiment s'intégrer dans la tête de quelqu'un d'autre; allégoriquement parlant, devenez une chauve-souris . Cependant, cela dépasse déjà le cadre de notre analogie et entre dans la catégorie des conversations sur le divin.

Chauvinisme anthropique


Dans tous les paragraphes précédents, nous avons parlé de la douleur. La douleur est, disons, l'une des variétés les plus caractéristiques des sensations humaines. Mais qui a dit que tout est limité à l'homme?

Si un esprit extraterrestre hypothétique (en général, même s'il n'est pas artificiel, extraterrestre ou autre) est, en principe, capable de vivre des qualia, il peut se révéler fondamentalement différent de ceux qu'une personne connaît. Un exemple grotesque: baby-AI vient à son père-scientifique et dit qu'il vit quelque chose . Est-ce bon ou mauvais? Faut-il lui donner un bonbon en récompense, lui tapoter la tête en guise de réconfort, ou même mettre une ceinture électrique, car il n'y a rien ici?

Dans tous les paragraphes précédents, j'ai posé des questions sans réponse et, pour l'essentiel, je n'ai rien dit. J'oserai maintenant affirmer: l'éthique humaine n'est pas prête à faire de l'esprit non humain son sujet à part entière . Nous pouvons parler des "problèmes éthiques de l'IA", en considérant l'intelligence artificielle comme un moyen par lequel certaines personnes font du bien ou du mal à d'autres. Mais si nous essayons de penser aux problèmes éthiques en termes d'IA, nous ne réussirons tout simplement pas. Ce n'est pas que nous n'avons pas pu obtenir de réponse - nous n'avons même pas l'appareil conceptuel approprié pour poser correctement la question. Peut-être que nous n'en possédons pas encore . Ou peut-être s'agit-il d'un écart fondamentalement irrécupérable. Et l'intelligence artificielle devra développer sa propre éthique, si, bien sûr, il en a besoin.

Et puis décidez s'il vaut la peine de considérer une personne comme un sujet, hehe.

Source: https://habr.com/ru/post/fr422917/


All Articles