El jefe de Google cree que el miedo a la IA está "completamente justificado"



Sundar Pichai, CEO de Google, una de las compañías más grandes que trabajan en el campo de la inteligencia artificial, dijo en una entrevista esta semana que los temores sobre el uso dañino de la tecnología están "completamente justificados", sin embargo, debemos confiar en la industria de la tecnología en que será capaz de toda responsabilidad de regular su uso.

En una conversación con The Washington Post, Pichai dijo que las nuevas herramientas de IA, la base de innovaciones como los robomóviles y los algoritmos de reconocimiento de enfermedades, requieren que las empresas definan un marco ético y consideren cuidadosamente cómo se puede abusar de esta tecnología.

"Creo que las empresas de tecnología deberían entender que no se puede crear primero y luego arreglarlo", dijo Pichai. "Creo que no funcionará".

Los gigantes tecnológicos deben asegurarse de que la IA "con sus objetivos" no dañe a la humanidad, dijo Pichai. Dijo que era optimista sobre los beneficios a largo plazo de la tecnología, pero su evaluación de los riesgos potenciales de la IA está de acuerdo con algunos de los críticos de la tecnología que afirman que esta tecnología puede usarse para implementar vigilancia invasiva, fabricar armas mortales y difundir información errónea. Otros gerentes de compañías de tecnología, como el fundador de SpaceX y Tesla, Elon Musk, hicieron predicciones más audaces de que la IA podría ser "mucho más peligrosa que las bombas nucleares".

La tecnología de inteligencia artificial de Google está en el centro de todo, desde un controvertido proyecto de una empresa china hasta teorías de odio y conspiración en YouTube, una división de la empresa. Pichai prometió resolver este problema el próximo año. La forma en que Google decide usar la IA también ha generado disturbios recientes entre los empleados de la compañía.

El llamado de autorregulación de Pichai siguió a su discurso en el Congreso , donde los legisladores amenazaron con restringir el uso de la tecnología en respuesta a su mal uso, incluso como medio para la difusión de información errónea y discurso de odio [discurso de odio]. Su reconocimiento de la existencia de posibles amenazas por parte de AI fue de importancia crítica, ya que anteriormente este programador, nacido en India, a menudo promocionaba cómo las consecuencias de introducir sistemas automatizados capaces de aprender y tomar decisiones sin supervisión humana cambiarían el mundo.

Pichai dijo en una entrevista que los legisladores de todo el mundo todavía están tratando de darse cuenta del efecto de la IA y la posible necesidad de su regulación estatal. "A veces me molesta que la gente subestime la magnitud de los cambios que pueden ocurrir a corto y mediano plazo, y creo que estos problemas son realmente extremadamente complejos", dijo. Otros gigantes de la tecnología, incluido Microsoft, han adoptado recientemente la regulación de IA, tanto de las empresas que crean esta tecnología como de los gobiernos que supervisan su uso.

Sin embargo, con un manejo adecuado, la IA puede proporcionar "enormes beneficios", explicó Pichai, que incluye ayudar a los médicos a reconocer enfermedades oculares y otras enfermedades mediante el escaneo automático de registros médicos. "La regulación de la tecnología en una etapa temprana de desarrollo es difícil, pero creo que las empresas deberían participar en la autorregulación", dijo. - Por lo tanto, estamos tratando activamente de expresar el conjunto de principios de IA. Puede que no hayamos hecho todo bien, pero pensamos que era importante comenzar este diálogo ".

Pichai, quien se unió a Google en 2004 y, después de asumir el cargo de CEO, calificó a AI como "una de las cosas más importantes en las que la humanidad está trabajando" en enero y dijo que podría ser "más importante" para la humanidad que "electricidad o electricidad". fuego ". Sin embargo, la carrera por mejorar las máquinas que pueden operar por sí mismas ha dado lugar a temores familiares de que el espíritu corporativo de Silicon Valley - "hacerlo rápido, hacer daño", como lo describió Facebook una vez, podría conducir a una tecnología poderosa e imperfecta que elimine los trabajos y perjudique a la gente

En Google, los intentos de crear IA también son controvertidos: la compañía enfrentó una oleada de críticas este año por trabajar en un contrato para el Departamento de Defensa, en virtud del cual la IA, capaz de etiquetar automáticamente automóviles, edificios y otros objetos, se utilizará en drones militares. Algunos empleados incluso renunciaron, llamando a la razón de esto las ganancias de la compañía en el "negocio militar".

Pichai, en respuesta a las preguntas sobre esta reacción de los empleados, le dijo al periódico que estos trabajadores eran "una parte importante de nuestra cultura". Tienen la oportunidad de decir su palabra, y esto es importante para la compañía, esto es lo que valoramos ”, dijo.

En junio, después del anuncio, donde la compañía dijo que no renovaría este contrato, Pichai reveló un conjunto de principios éticos al crear IA, que incluía la prohibición de desarrollar sistemas que pudieran usarse para causar daño, violar los derechos humanos o ayudar a controlar a las personas ". en violación de las normas internacionalmente aceptadas ".

La compañía ha sido criticada por lanzar herramientas de IA de uso general que pueden usarse en detrimento. Lanzado en 2015, el paquete de software TensorFlow, el sistema interno de aprendizaje automático de Google, ayudó a acelerar el desarrollo masivo de IA, pero se utilizó para automatizar la creación de videos falsos, que luego se utilizaron para desinformar y hostigar.

Google y Pichai defendieron personalmente el lanzamiento, argumentando que restringir la difusión de la tecnología significaría que el público no lo controlaría con suficiente cuidado, y los desarrolladores e investigadores no podrían mejorar sus capacidades para que la beneficiara.

"Creo que con el tiempo, desarrollando con éxito la tecnología, es importante discutir cuestiones éticas y sesgos cognitivos, y desarrollarla al mismo tiempo", dijo Pichai en una entrevista.

"En cierto sentido, queremos desarrollar una plataforma ética, para atraer a científicos que no pertenezcan al campo de la informática en una etapa temprana de desarrollo", dijo. "Es necesario involucrar a la humanidad más activamente, ya que esta tecnología afectará a la humanidad".

Pichai comparó los primeros intentos de establecer parámetros de IA con los esfuerzos de la comunidad científica para limitar la investigación genética en las primeras etapas de esta área. "Muchos biólogos han comenzado a hacer distinciones que indican dónde debe desarrollarse la tecnología", dijo. "La comunidad académica ha asumido una autorregulación activa, lo cual, me parece, fue extremadamente importante".

El Director de Google dijo que tal enfoque sería absolutamente necesario en el desarrollo de armas autónomas, y este problema está atormentando a los directores y empleados de las empresas de tecnología. En julio, miles de trabajadores de la industria que representan a compañías como Google firmaron una petición para prohibir las herramientas de inteligencia artificial que podrían programarse para matar.

Pichai dijo que consideraba "desagradables" las teorías de conspiración odiadas por YouTube descritas en el artículo de WP , y dejó en claro que la compañía trabajaría para mejorar los sistemas que reconocen el contenido problemático. En estos videos, cuyas vistas totales superaron varios millones de veces desde su aparición en abril, discutieron las acusaciones infundadas de Hillary Clinton y su asistente de mucho tiempo Hume Abedin de que atacaron a la niña, la mataron y bebieron su sangre.

Pichai dijo que él mismo no vio esos videos que le hicieron preguntas en el Congreso, y se negó a informar si tales fallas de YouTube son el resultado de restricciones en los sistemas que reconocen contenido inapropiado o reglas para evaluar la necesidad de eliminar videos. Pero agregó que "en 2019 verá más trabajo en esta área de nuestro lado".

Pichai también describió los intentos de Google de desarrollar un nuevo producto en el segmento de Internet controlado por China como preliminar, y no dijo qué tipo de producto podría ser y cuándo podría llegar al mercado, si es que lo hizo.

Se le llama el "Proyecto Libélula", y ha provocado una fuerte reacción de los empleados y activistas de derechos humanos que advierten sobre la posible asistencia de Google en la vigilancia gubernamental de los ciudadanos que son intolerantes con los disidentes políticos. En respuesta a una pregunta sobre la posibilidad de que Google cree un producto que permita a los funcionarios chinos averiguar cuándo una persona busca algunas palabras sensibles, como " masacre en la Plaza Tiananmen " , Pichai dijo que es demasiado pronto para emitir dichos juicios.

"Estas son todas consideraciones hipotéticas", dijo Pichai. "Estamos terriblemente lejos de este estado de cosas".

Source: https://habr.com/ru/post/es433236/


All Articles