Descargo de responsabilidadSoy escéptico sobre mi capacidad de expresar un pensamiento verdaderamente original. Lo más probable es que estoy lejos de ser el primero en hacer estas preguntas, y es muy posible que ya se hayan resuelto algunas respuestas digeribles. Por lo tanto, al escribir este texto, no espero su sorpresa o admiración. Espero que las personas familiarizadas con la filosofía moderna de la conciencia vengan al comentario y me den enlaces al trabajo de pensadores serios con divertidos apellidos alemanes.

No hace mucho tiempo había una
publicación sobre Habré, cuyos comentarios me hicieron pensar en varios problemas interconectados. Quiero compartir los resultados de estos pensamientos (o falta de ellos, aquí es cómo mirar) con la comunidad.
¿Qué es el dolor?
Una vez tuve dolor de muelas. Estaba acostada en el sofá e intenté no prestarle atención. Pensé que el dolor es solo una señal que entra en mi cerebro. La misma señal que la presencia o ausencia de voltaje en el cableado que va al conector PS / 2 de la unidad del sistema. Por sí mismo, no tiene semántica, es mi conciencia la que elige cómo interpretarlo. Si dejo de percibirlo como dolor y, en cambio, lo ignoro o simplemente "tomo nota", será más fácil para mí.
Pero no fue más fácil. De una manera tan simple, descubrí que los
qualia tienen dolor y no se reducen a una simple transferencia de información.
¿Cómo entendemos que lastima a otros?
No soy especial en neurofisiología, pero dicen que hay algún tipo de neuronas espejo en el cerebro. Cuando vemos cómo otra persona realiza ciertas acciones, las neuronas espejo realizan su ingeniería inversa. Estamos tratando de entender lo que debe pasar en la cabeza de esta persona para que se comporte de esta manera. Y hasta cierto punto, incluso nosotros mismos comenzamos a sentir lo que, según nuestras suposiciones, debería sentir. Mis pómulos se pueden reducir al ver a alguien comiendo un limón. Si alguien, por ejemplo, grita, llora, se retuerce, rueda por el suelo ... Es probable que alguien sufra. Lo más probable es que sea desagradable para mí ver tal espectáculo. Comenzaré a simpatizar con esta persona y, si está en mi poder, incluso tomaré medidas para detener el dolor. Malditas neuronas espejo.
De hecho, no tenemos garantía de que la otra persona esté realmente sufriendo. Por ejemplo, puede ser un simulador, un actor, como en el
experimento de Milgram . Sin embargo, esto se puede resolver fácilmente colocando el simulador en el tomógrafo y viendo qué partes del cerebro están activas actualmente. Sin embargo, esto también es comportamiento, aunque más "de bajo nivel". Como resultado, todo se reduce a un criterio muy simple (incluso diría que demasiado simple): creemos que una
persona experimenta dolor si se comporta como nosotros si lo experimentamos .
¿Cómo entender que la otra persona es una persona?
Existe un experimento mental tan famoso llamado
zombie filosófico . Su esencia es simple: imagine algo que se comporte absolutamente indistinguible de una persona desde el punto de vista de un observador externo, pero que esté completamente desprovisto de experiencia subjetiva. Si lo pincha con una aguja, él dirá "ah" (o algo menos censurado), retirará su mano, sus músculos faciales correspondientes se contraerán, e incluso el tomógrafo no podrá atraparlo. Pero al mismo tiempo, no siente nada dentro. Él simplemente no tiene este "adentro". Tal cosa se llama "zombie filosófico", y la esencia del experimento es que la existencia de esta criatura hipotética no conduce a contradicciones obvias. Es decir, parece lo más
posible .
Volviendo a la pregunta anterior, realmente no tenemos ninguna oportunidad confiable para averiguar si la otra persona tiene dolor como un qualia. Podemos escuchar nuestras neuronas espejo o, si esto no es suficiente para nuestras mentes sofisticadas, usar la navaja de afeitar de Occam. Decir que el "zombie filosófico" es una entidad extra. Es mucho más lógico asumir que todas las personas son más o menos iguales que asumir lo contrario, sin una razón clara para esto. Sin embargo, el principio de Occam sigue siendo una ley heurística y no inmutable. Las entidades que ayer nos parecían superfluas entran hoy en nuestra casa, abriendo la puerta con los pies. Si no está de acuerdo, intente imaginar cómo se explicaría la mecánica cuántica a Demócrito.
¿Sueñan los androides con bastidores eléctricos?
En el primer comentario sobre la publicación que escribí anteriormente, el usuario de
NeoCode expresó el siguiente pensamiento:
En primer lugar, una "IA fuerte" no es una criatura viva y no podrá experimentar dolor o soledad, simplemente porque su naturaleza es inicialmente diferente, no tiene millones de años de evolución y selección natural y, por lo tanto, mecanismos y programas biológicos de bajo nivel. Ni siquiera tendrá el instinto de autoconservación, a menos que usted programe específicamente, por supuesto. Pero en su forma pura, no lo será; puedes crear una IA que tenga conciencia y sea capaz de resolver problemas complejos y aprender, sin tener el instinto de autoconservación en general.
Este es un punto importante que por alguna razón muchos no entienden, por defecto, la "humanización" de la inteligencia artificial.
En esto, por supuesto, hay un núcleo racional. Las cualidades humanas no pueden transferirse irreflexivamente a la hipotética IA. En este sentido, el 95% de la ciencia ficción y el 99,9% de los habitantes son irremediablemente ingenuos. Pero quiero decir lo siguiente: no privéis también sin pensar a AI de las cualidades humanas. Algunos de ellos pueden resultar más fundamentales de lo que cabría esperar.
Considere esta situación hipotética: para que la IA haga lo que necesitamos y no lo que quiere (y bien podría ser más "interesante" resolver el sudoku que participar en nuestro proyecto, que está a punto de tener una fecha límite) , le agregamos una señal de entrada especial, de modo que el objetivo principal de la IA, el componente principal de su
función objetivo, es minimizar esta señal. En consecuencia, cuando se acerca la fecha límite, presionamos el pedal, se aplica voltaje a los cables y la IA comienza a pensar activamente en cómo eliminar este voltaje. Y cuanto más activo, más presionamos. Y dado que la presión del pie sobre el pedal está asociada con un proyecto incompleto, la IA no tiene más remedio que completar este proyecto. Bueno, o para hackear un avión no tripulado militar que pasa volando para que golpee el cerebro del operador del pedal. Quién sabe, esta IA fuerte.
Sin embargo, estaba distraído. Dime, ¿esta señal hipotética accidentalmente no te recuerda nada? ¿Es posible en este caso decir que la IA está sufriendo?
De hombre a hombre es un lobo, y los zombies son zombies zombies
¿Cómo podemos entender si la IA está experimentando qualia? En el caso de los zombis filosóficos, la empatía y la navaja de afeitar de Occam estaban de nuestro lado. Sin embargo, la IA es filosófica, pero no zombie. Es decir, tiene sentido plantear esta pregunta con respecto a él, pero no es humano. Por lo tanto, no podemos decir que siente algo, solo por analogía con nosotros mismos.
Alguien (como, por ejemplo, el autor del comentario citado anteriormente) dirá que podemos decir lo contrario con seguridad. Que no hay razón para creer que la IA realmente está sufriendo, y si no, entonces no lo pensaremos. Me gustaría responder a esto de la siguiente manera: Imagina que un pensamiento, sentimiento, pero completamente inhumano te está creando. ¿Qué razones tendría él para creer que estás experimentando qualia? A menos, por supuesto, que esta criatura no tenga la capacidad trascendental de encajar realmente en la cabeza de otra persona; Alegóricamente hablando,
conviértete en un murciélago . Sin embargo, esto ya está más allá del alcance de nuestra analogía y entra en la categoría de conversaciones sobre lo divino.
Chovinismo antrópico
En todos los párrafos anteriores hablamos sobre el dolor. El dolor es una de, digamos, las variedades más características de las sensaciones humanas. Sin embargo, ¿quién dijo que todo está limitado al hombre?
Si una mente extraterrestre hipotética (en general, incluso si no importa, artificial, extraterrestre o lo que sea) es, en principio, capaz de experimentar qualia, puede llegar a ser fundamentalmente diferente a las que está experimentando una persona. Un ejemplo grotesco: baby-AI llega a su padre científico y le dice que está experimentando
algo . ¿Es bueno o malo? ¿Debería darle un caramelo como recompensa, darle palmaditas en la cabeza con consuelo, o incluso ponerle un cinturón eléctrico, porque no hay nada aquí?
En todos los párrafos anteriores, hice preguntas que no fueron respondidas, y esencialmente no declararon nada. Ahora me aventuraré a afirmar:
la ética humana no está lista para hacer de la mente no humana su tema de pleno derecho . Podemos hablar sobre los "problemas éticos de la IA", considerando la inteligencia artificial como un medio por el cual algunas personas hacen bien o mal a otras personas. Pero si tratamos de pensar en cuestiones éticas en términos de IA, simplemente no tendremos éxito. No es que no podamos obtener una respuesta, ni siquiera tenemos el aparato conceptual apropiado para plantear correctamente la pregunta. Quizás aún no poseemos. O tal vez esta es una brecha fundamentalmente irrecuperable. Y la inteligencia artificial tendrá que desarrollar su propia ética, si, por supuesto, la necesita.
Y luego decida si vale la pena considerar a una persona como sujeto, jeje.