
¿Debemos temer a la inteligencia artificial (IA)? Para mí, esta es una pregunta simple, con una respuesta aún más simple: no. Pero no todos están de acuerdo conmigo: muchas personas, incluido Stephen Hawking, han expresado su preocupación de que la aparición de poderosos sistemas de inteligencia artificial podría significar el fin de la humanidad.
Su punto de vista sobre la cuestión de si la IA capturará el mundo o no, obviamente, dependerá de si la IA puede desarrollar un comportamiento razonable que sea superior al comportamiento humano, algo llamado "superinteligencia". Veamos la probabilidad de este proceso y por qué hay tanta preocupación sobre el futuro de la IA.
Las personas generalmente tienen miedo de lo que no entienden. El miedo a menudo se hace responsable del racismo, la homofobia y otras fuentes de discriminación. No es sorprendente que se aplique a las nuevas tecnologías: a menudo están rodeadas de ciertos acertijos. Algunos avances tecnológicos parecen completamente poco realistas, superan las expectativas y, en algunos casos, las capacidades humanas.
No hay espíritu en el carro
Separemos el misterio de las tecnologías de IA más populares, conocidas como "aprendizaje automático". Permiten que la máquina aprenda a completar una tarea sin tener que programar instrucciones específicas. Puede parecer aterrador, pero de hecho se trata de estadísticas bastante aburridas.
Una máquina, es decir, un programa, o más precisamente, un algoritmo, está diseñado para que pueda revelar las relaciones disponibles en los datos de entrada. Hay muchos métodos diferentes para lograr este efecto. Por ejemplo, podemos proporcionar a la máquina imágenes de letras escritas a mano y pedirle que reconozca la secuencia de estas letras. Ya le hemos dado posibles respuestas: estas solo pueden ser letras del alfabeto. Primero, la máquina nombra aleatoriamente la letra, y la corregimos, dando la respuesta correcta. También programamos la máquina para el autoajuste, y la próxima vez que le den la carta, es más probable que nos dé la respuesta correcta. Como resultado, con el tiempo, la máquina mejora su eficiencia y "aprende" a reconocer el alfabeto.
De hecho, programamos la máquina para usar las relaciones comunes en los datos para lograr un objetivo específico. Por ejemplo, todas las variantes de la letra "a" se ven estructuralmente similares, pero diferentes de "b", que el algoritmo puede aprovechar. Curiosamente, después de la fase de entrenamiento, la máquina puede aplicar los conocimientos adquiridos a nuevos ejemplos de cartas, por ejemplo, escritas por una persona cuya escritura no se había visto antes.
Damos respuestas de IASin embargo, las personas ya son buenas para leer. Quizás un ejemplo más interesante sería el jugador artificial en el proyecto go, Google Deepmind, que venció a todos los jugadores humanos. Obviamente, él no estudia como las personas: juega el juego consigo mismo tantas veces que ninguna persona jugará en toda su vida. Fue programado para ganar, y explicó que la victoria depende de sus acciones. También le enseñaron las reglas del juego. Al jugar el mismo juego una y otra vez, puede descubrir el mejor movimiento en cada situación, inventando movimientos que la gente nunca ha hecho antes.
Niños pequeños vs robots
¿Eso hace que una IA que juega sea más inteligente que los humanos? Definitivamente no. La IA es muy especializada, está diseñada para un determinado tipo de tarea y no tiene la versatilidad de las personas. Con los años, las personas comienzan a comprender el mundo de una manera que ninguna IA ha logrado, y en el futuro cercano, probablemente, no podrán.
El hecho de que la IA se llame "inteligencia" se debe al hecho de que es capaz de aprender. Pero en el entrenamiento, no llega a las personas. Los pequeños son capaces de aprender simplemente mirando a otra persona resolver el problema. La IA requiere autos de datos y muchos intentos de lograr el éxito en tareas muy específicas, y es muy difícil generalizar sus datos para tareas que son muy diferentes de aquellas en las que se entrenó. Por lo tanto, si las personas desarrollan una inteligencia sorprendente con bastante rapidez en los primeros años de su vida, los conceptos clave del aprendizaje automático no son muy diferentes de lo que eran hace diez o veinte años.
El cerebro de un niño pequeño es asombroso.Los éxitos de la IA moderna están menos asociados con los avances tecnológicos y dependen más de la simple cantidad de datos y potencia informática. Es importante tener en cuenta que incluso una cantidad infinita de datos no le dará inteligencia humana a la inteligencia artificial; primero debemos hacer un progreso significativo en la creación de tecnologías de "inteligencia generalizada", y ni siquiera nos acercamos a resolver este problema.
En general, solo por el hecho de que la IA es capaz de aprender, no se deduce que de repente estudiará todos los aspectos de la inteligencia humana y nos superará. Ni siquiera hay una definición simple de lo que es la inteligencia humana, y no tenemos una comprensión clara de cómo aparece en el cerebro. Pero incluso si pudiéramos resolverlo, y luego crear una IA que se volvería más inteligente, de ninguna manera se deduce que sería más exitoso.
Personalmente, me preocupa más cómo la gente usa la IA. Los algoritmos de aprendizaje automático a menudo se consideran cajas negras, y se hacen pocos intentos para comprender los detalles de la solución encontrada por el algoritmo. Este es un aspecto importante que a menudo se ignora mientras estamos más obsesionados con la eficiencia y menos con la comprensión. Comprender las soluciones abiertas por estos sistemas es importante, porque entonces podríamos evaluar si estas son las decisiones correctas y si queremos aplicarlas.
Si, por ejemplo, entrenamos nuestro sistema incorrectamente, podemos obtener una máquina que ha aprendido las relaciones, que generalmente no existen. Supongamos que queremos hacer una máquina que evalúe a los estudiantes potenciales para tener éxito en ingeniería. La idea es probablemente mala, pero vayamos tan lejos como un ejemplo hasta el final. Tradicionalmente, los hombres dominan en esta área, lo que significa que es probable que se tomen ejemplos de capacitación de los estudiantes varones. Si no estamos convencidos del equilibrio de los datos de entrenamiento, la máquina puede concluir que solo los hombres pueden ser ingenieros, y es incorrecto aplicarlo a decisiones futuras.
El aprendizaje automático y la IA son herramientas. Se pueden usar bien o mal, como todo lo demás. Deberíamos preocuparnos por la forma en que se usan, no por los métodos en sí. La codicia y la estupidez de una persona me molesta mucho más que la inteligencia artificial.