La historia de la IA a menudo se cuenta cómo la historia de las máquinas se está volviendo gradualmente más inteligente. Pero el factor humano se pierde en la historia, la cuestión de diseñar y entrenar máquinas, y cómo aparecen, gracias a los esfuerzos del hombre, mental y físico.
Estudiemos esta historia humana de la IA: cómo innovadores, pensadores, trabajadores y, a veces, especuladores crearon algoritmos que pueden reproducir el pensamiento y el comportamiento humano (o pretender que se reproducen). La idea de computadoras súper inteligentes que no requieren la participación humana puede ser emocionante, pero la verdadera historia de las máquinas inteligentes muestra que nuestra IA es tan buena como nosotros.
Cuando Charles Babbage jugó ajedrez con el primer turco mecánico
El famoso ingeniero del siglo XIX puede haberse inspirado en el primer ejemplo de la exageración en torno a la IA.

En 1770, en la corte de la emperatriz austriaca
Maria Theresa , el inventor
Wolfgang von Kempelen demostró una
máquina jugando al ajedrez . "Turk", como Kempelen llamó a su invención, era una figura humana de tamaño natural tallada en cedro [según otras fuentes - cera / aprox. transl.], vestido como un representante del Imperio Otomano, sentado detrás de un gabinete de madera, en la encimera de la cual había un tablero de ajedrez.
Kempelen declaró que su automóvil era capaz de derrotar a cualquier cortesano, y esta llamada fue aceptada por uno de los asesores de Maria Theresa. Kempelen abrió las puertas del gabinete, demostrando un mecanismo similar a un mecanismo de relojería: una compleja red de palancas y engranajes, y luego insertó una llave en el automóvil y lo encendió. La ametralladora cobró vida y levantó una mano de madera para mover la primera figura. En 30 minutos, derrotó a su oponente.
El turco hizo una sensación. Durante los siguientes diez años, Kempelen apareció con su máquina de ajedrez en Europa, derrotando a muchas de las personas más inteligentes de la época, incluidos Benjamin Franklin y Frederick II. Después de la muerte de Kempelen en 1804,
Johann Nepomuk Melzel , estudiante de una universidad alemana y diseñador de instrumentos musicales que continuó sus actuaciones en todo el mundo, adquirió Turku.
Uno de los que pudieron ver el automóvil con más detalle fue
Charles Babbage , un famoso ingeniero y matemático británico. En 1819, Babbage jugó dos veces con Turk y perdió las dos veces. Según el historiador Tom Standage, quien escribió la historia detallada de Turk, Babbage sospechaba que la máquina no era una máquina inteligente, sino solo un engaño astuto, y que estaba ocultando a un hombre que controlaba los movimientos del turco desde el interior.

Babbage tenía razón. Detrás de la pantalla del mecanismo turco estaba lo siguiente: Kempelen y Melzel contrataron a grandes maestros para sentarse en secreto dentro de una gran caja. El gran maestro pudo ver lo que sucedía en el tablero gracias a los imanes que daban una imagen especular de las piezas colocadas.
Para controlar la mano de Turk, un jugador oculto utilizó un pantógrafo, un sistema de bloques que sincronizaba los movimientos de su mano con un Turk de madera. El jugador movió la palanca en el tablero magnético, la giró para abrir y cerrar los dedos del turco, y luego movió la figura al lugar correcto. La sala donde estaba sentado el gran maestro contenía varios paneles deslizantes y una silla con ruedas, que se movía sobre rieles engrasados, lo que le permitía avanzar y retroceder cuando Melzel abrió la caja para que todos lo vieran.
Y aunque Babbage sospechaba tales trucos, no perdió el tiempo exponiéndolo, como muchos de sus contemporáneos. Sin embargo, su reunión con Turk, aparentemente, determinó su pensamiento durante muchos años.
Charles Babbage desarrolló la máquina de diferencia No. 2 desde 1847 hasta 1849, pero durante su vida no fue construida.Poco después, comenzó a trabajar en una calculadora mecánica automática llamada "
máquina de diferencia ", que pretendía usar para crear tablas logarítmicas sin errores. El primer diseño de la máquina, que podía pesar 4 toneladas, contenía 25,000 componentes metálicos. En la década de 1830, lo abandonó, comenzando a trabajar en un mecanismo aún más complejo, la "máquina analítica". Tenía un "repositorio" y un "molino" que funcionaba como memoria y procesador, así como la capacidad de interpretar las instrucciones del software contenidas en las tarjetas perforadas.
Inicialmente, Babbage esperaba que la máquina analítica funcionara simplemente como una versión mejorada de la diferencia. Pero su compañera,
Ada Lovelace , se dio cuenta de que la capacidad de programación de la máquina le permite funcionar en un modo más generalizado. Ella dijo que tal máquina daría lugar a un nuevo tipo de "ciencia poética", y los matemáticos entrenarían la máquina para realizar tareas mediante la programación. Incluso predijo que la máquina podría componer "obras musicales científicas complejas".
Ada lovelace y charles babbageBabbage finalmente estuvo de acuerdo con Lovelace, e imaginó cómo el potencial de una máquina de uso general, capaz de no solo moler números, podría cambiar el mundo. Naturalmente, sus pensamientos volvieron a encontrarse con Turk. En 1864, escribió en un diario sobre su deseo de usar un "registro mecánico" para resolver problemas completamente nuevos. "Después de pensarlo seriamente, para mi prueba elegí una máquina astuta que puede jugar con éxito un juego intelectual, como el ajedrez".
Aunque técnicamente la máquina Turk y la máquina Babbage no están conectadas de ninguna manera, la posibilidad de la existencia de inteligencia artificial incorporada en la mistificación de von Kempelen parece haber inspirado a Babbage a pensar en los automóviles con una luz completamente nueva. Como su compañero escribió más tarde, David Brewster: "Estos juguetes automáticos, que alguna vez entretuvieron a los plebeyos, ahora están involucrados en aumentar las capacidades y el desarrollo de nuestro tipo de civilización".
La reunión de Babbage con el turco al comienzo de la historia computacional sirve como un recordatorio de que la publicidad y la innovación a veces van de la mano. Pero nos enseña una cosa más: la inteligencia atribuida a las máquinas casi siempre se basa en logros humanos ocultos.
Programadores informáticos femeninos invisibles ENIAC
Las personas que dirigen ENIAC apenas han recibido reconocimiento
Marilyn Veskov (izquierda) y Ruth Lichterman fueron dos programadoras de ENIAC.El 14 de febrero de 1946, los periodistas se reunieron en la Moore's Engineering School de la Universidad de Pennsylvania para ver una demostración abierta de una de las primeras computadoras digitales electrónicas de propósito general en el mundo: ENIAC (Electronic Numeric Integrator and Computer).
Arthur Burks, matemático e ingeniero jefe del equipo ENIAC, estuvo a cargo de una demostración de las capacidades de la máquina. Primero, le indicó a la computadora que agregara 5000 números, lo que se hizo en 1 segundo. Luego demostró cómo una máquina puede calcular la trayectoria de un proyectil más rápido de lo que el proyectil mismo necesitaría volar de arma a blanco.
Los periodistas quedaron asombrados. Les pareció que Burks solo necesitaba presionar un botón, y el automóvil cobraría vida para contar en un par de momentos lo que la gente había elegido anteriormente.
Lo que no sabían o lo que estaba oculto durante la demostración fue que detrás de la aparente inteligencia de la máquina estaba el trabajo duro y avanzado de un equipo de programadores compuesto por seis mujeres que habían trabajado previamente como "computadoras".
Betty Jennings (izquierda) y Francis Bilas trabajan con el panel de control principal de ENIACEl plan para construir una máquina capaz de calcular la trayectoria de los proyectiles nació en los primeros años de la Segunda Guerra Mundial. La Escuela de Ingeniería de Moore trabajó con el Laboratorio de Investigación Balística (BRL), donde un equipo de 100 "calculadoras humanas" capacitadas calculó manualmente las mesas de fuego de artillería.
La tarea requería un buen nivel de conocimiento en matemáticas, incluida la capacidad de resolver ecuaciones diferenciales no lineales,
analizadores diferenciales y
reglas de cálculo . Pero al mismo tiempo, los cálculos se consideraban trabajo administrativo, una tarea demasiado tediosa para que los ingenieros varones la hicieran. Por lo tanto, BRL contrató a mujeres, principalmente aquellas con títulos universitarios y una inclinación por las matemáticas, para este trabajo.
En el transcurso de la guerra, la capacidad de predecir la trayectoria de vuelo de los proyectiles estuvo cada vez más vinculada a la estrategia militar, y el BRL exigía cada vez más resultados.
En 1942, el físico
John Mowchley escribió una
nota proponiendo crear una calculadora electrónica programable de uso general que pudiera automatizar los cálculos. Para junio de 1943, Mouchley, junto con el ingeniero J. Presper Eckert, había recibido fondos para la construcción de ENIAC.
J. Presper Eckert, John Mouchley, Betty Jean Jennings y Herman Goldstein frente a ENIACEl objetivo de la computadora electrónica era reemplazar cientos de personas-computadoras de BRL, así como aumentar la velocidad y la eficiencia de la informática. Sin embargo, Mauchly y Eckert se dieron cuenta de que su nueva máquina necesitaría ser programada para calcular rutas utilizando tarjetas perforadas, utilizando la tecnología que IBM había estado utilizando para sus máquinas durante varias décadas.
Adele y Herman Goldstein, una pareja casada que supervisó el trabajo de las calculadoras humanas en BRL, sugirieron que los matemáticos más poderosos de su equipo deberían participar en este trabajo. Seleccionaron seis: Kathleen McNulty, Francis Bilas, Betty Jean Jennings, Ruth Lichterman, Elizabeth Schneider y Marilyn Veskov, y las promovieron de calculadoras humanas a operadores.
Elizabeth Betty Schneider trabaja para ENIACSu primera tarea fue conocer a ENIAC a fondo. Estudiaron los dibujos de la máquina para comprender sus circuitos electrónicos, lógica y estructura física. Había algo que aprender: un monstruo de 30 toneladas ocupaba unos 140 metros cuadrados. m., utilizó más de 17,000 tubos electrónicos, 70,000 resistencias, 10,000 condensadores, 1,500 relés y 6,000 interruptores manuales. Un equipo de seis operadores se encargó de configurar e instalar la máquina para realizar ciertos cálculos, trabajar con equipos que sirven tarjetas perforadas y buscar errores en el trabajo. Para esto, los operadores a veces tuvieron que subir al interior de la máquina y reemplazar una lámpara electrónica o cableado defectuoso.
ENIAC no tuvo tiempo de terminar a tiempo para calcular el vuelo de los proyectiles durante la guerra. Pero pronto
John von Neumann utilizó su poder para calcular la fusión nuclear. Esto requirió el uso de más de un millón de tarjetas perforadas. Los físicos de Los Alamos confiaron completamente en las habilidades de programación del operador, ya que solo ellos sabían cómo manejar una cantidad tan grande de operaciones.
Programador de ENIAC Kathleen McNultySin embargo, la contribución de las programadoras recibió muy poco reconocimiento o agradecimiento. En particular, porque la programación de la máquina todavía estaba estrechamente asociada con los cálculos manuales y, por lo tanto, no se consideraba un trabajo profesional, adecuado solo para mujeres. Los principales ingenieros y físicos se centraron en el desarrollo y la creación de hierro, que consideraron más importante para el futuro de las computadoras.
Por lo tanto, cuando ENIAC finalmente se presentó a la prensa en 1946, seis operadoras permanecieron ocultas a la vista del público. Se acercaba el comienzo de la Guerra Fría, y el ejército de los Estados Unidos demostró con entusiasmo su superioridad tecnológica. Al representar a ENIAC como una máquina inteligente autónoma, los ingenieros pintaron una imagen de excelencia tecnológica, ocultando el trabajo humano que se utilizó.
Las tácticas funcionaron e influyeron en la cobertura mediática del trabajo de las computadoras en las siguientes décadas. En las noticias de ENIAC que se extendieron por todo el mundo, el automóvil ocupó el foco principal y recibió epítetos como "cerebro electrónico", "mago" y "cerebro robot hecho por el hombre".
El trabajo arduo y minucioso de seis operadoras que se arrastraban dentro del automóvil, reemplazando el cableado y las lámparas para que la máquina pudiera realizar sus acciones "razonables", fue extremadamente ligero.
¿Por qué Alan Turing quería que la inteligencia artificial cometiera errores?
La infalibilidad y la inteligencia no son lo mismo.

En 1950, en los albores de la era digital,
Alan Turing publicó un artículo que luego se convertiría en el más famoso de sus trabajos, "
Computadoras y mente "
, en el que
planteó la pregunta : "¿Pueden pensar las máquinas?"
En lugar de tratar de definir los conceptos de "máquina" y "pensamiento", Turing describe un método diferente para encontrar una respuesta a esta pregunta, inspirado en el juego de salón de la época victoriana: la imitación. De acuerdo con las reglas del juego, un hombre y una mujer en diferentes habitaciones se hablan, pasando notas a través de un intermediario. El mediador, que también desempeña el papel de un juez, necesita adivinar cuál de ellos es un hombre y cuál es una mujer, y su tarea se complica por el hecho de que el hombre está tratando de imitar a una mujer.
Inspirado en este juego, Turing desarrolló un experimento mental en el que uno de los participantes fue reemplazado por una computadora. Si una computadora puede ser programada para jugar a la simulación tan bien que el juez no podría decir si está hablando de una máquina o una persona, entonces sería prudente concluir, argumentó Turing, que la máquina tiene inteligencia.
Este experimento mental se conoció como la
prueba de Turing , y hasta el día de hoy sigue siendo una de las ideas más famosas y controvertidas en IA. No pierde su atractivo, ya que da una respuesta inequívoca a una pregunta muy filosófica: "¿Pueden pensar las máquinas?" Si la computadora pasa la prueba de Turing, entonces la respuesta es sí. Como
escribió el filósofo
Daniel Dennett , se suponía que la prueba de Turing detendría el debate filosófico. "En lugar de discutir interminablemente sobre la naturaleza y la esencia del pensamiento", escribe Dennett, "¿por qué no estamos de acuerdo en que sea lo que sea esta naturaleza, todo lo que puede pasar esta prueba sin duda lo tiene".
Sin embargo, una lectura más exhaustiva del trabajo de Turing revela un pequeño detalle que introduce una pequeña ambigüedad en la prueba, lo que sugiere que, tal vez, Turing no significó una prueba práctica de la máquina para la inteligencia, sino una provocación filosófica.
En una parte del documento, Turing proporciona una simulación de cómo se vería una prueba usando una computadora imaginaria inteligente del futuro. La persona hace preguntas y la computadora responde.
P: Por favor escriba un soneto sobre el puente sobre el Fuerte.
A: Aquí me veo obligado a rechazar. Nunca tuve poesía.
P: Agregar 34957 y 70764.
A: (respuesta después de una pausa de 30 segundos): 105621.
P: ¿Juegas ajedrez?
A: si.
Q: Mi rey se para en e1; No tengo otras figuras. Tu rey está en e3 y la torre en a8. Tu movimiento Como vas a ir
O: (Después de pensar unos quince segundos): La1, mat.
En esta conversación, la computadora cometió un error aritmético. La suma real de los números será 105721, no 105621. Es poco probable que Turing, un brillante matemático, lo haya hecho accidentalmente. Más bien, es un huevo de pascua para el lector atento.
En otra parte del artículo, Turing parece estar insinuando que este error es un truco del programador diseñado para engañar a un juez. Turing entendió que si los lectores atentos de las respuestas de la computadora veían un error, decidirían que estaban hablando con una persona, suponiendo que la máquina no cometería tal error. Turing escribió que la máquina puede ser programada para "incluir deliberadamente errores en las respuestas, diseñados para confundir al interrogador".
Y si la idea de usar errores para insinuar la mente humana era difícil de comprender en la década de 1950, hoy se ha convertido en una práctica de diseño para programadores que trabajan con el procesamiento del lenguaje natural. Por ejemplo, en junio de 2014, el chatbot
Zhenya Gustman se convirtió en la primera computadora en pasar la prueba de Turing. Sin embargo, los críticos señalaron que Zhenya logró hacer esto solo gracias al truco incorporado: fingió ser un niño de 13 años que no tenía el inglés como lengua materna. Esto significaba que sus errores en la sintaxis y la gramática, así como el conocimiento incompleto, se atribuyeron erróneamente a la ingenuidad y la inmadurez, en lugar de la incapacidad para procesar los lenguajes naturales.
Del mismo modo, después de que el asistente de voz
dúplex de Google
golpeara a la audiencia con pausas en la conversación y el uso de sonidos que los llenaban, muchos indicaron que este comportamiento no era el resultado del pensamiento del sistema, sino una acción especialmente programada diseñada para simular el proceso del pensamiento humano.
Ambos casos implementan la idea de Turing de que las computadoras se pueden hacer específicamente para cometer errores con el fin de impresionar a una persona. Al igual que Turing, los programadores Zhenya Gustman y Duplex entendieron que una imitación superficial de la imperfección humana puede engañarnos.
Quizás la prueba de Turing no evalúa la presencia de la mente de una máquina, pero nuestra disposición a considerarla razonable. Como
dijo el propio Turing: “La idea de razón en sí misma es más emocional que matemática. Cuán razonable consideramos que el comportamiento de algo está determinado no menos por nuestro propio estado mental y habilidades que por las propiedades del objeto en cuestión ".
Y, tal vez, la mente no es una cierta sustancia que puede ser programada por la máquina, que, aparentemente, Turing tenía en mente, sino una característica manifestada a través de la interacción social.
Soñador DARPA con el objetivo de la inteligencia cibernética
Joseph Karl Robnett Liklider hizo propuestas para la creación de una "simbiosis del hombre y la máquina", lo que condujo a la invención de Internet

10:30 29 1969 -
, , SDS Sigma 7 , , -.
: «LO».
«LOGIN», , , ARPANET, , .
-. , ARPANET ,
.
, ,
1950- , . , , . , , «» , , , .
Este concepto de inteligencia artificial no se adaptaba a Liklider. Desde su punto de vista, el problema era que el paradigma existente consideraba que las personas y las máquinas eran criaturas intelectualmente equivalentes. Sin embargo, Liklider creía que, de hecho, las personas y las máquinas son fundamentalmente diferentes en sus capacidades y fortalezas cognitivas. A las personas les va bien con ciertas tareas razonables, como la creatividad o el juicio, y las computadoras con otros, como almacenar datos y procesarlos rápidamente.En lugar de obligar a las computadoras a simular las actividades intelectuales de las personas, Liklider propuso la colaboración de personas y máquinas, en las que cada lado usa sus propias fortalezas. Sugirió que dicha estrategia pasaría de las competencias (como jugar ajedrez con computadoras) a formas de actividad intelectual previamente impensables.En la obra de 1960 "La simbiosis de máquina y hombre " . «, , , , , ». , -, , « », SAGE, .
1963 ( ARPA, – DARPA), . , , "
".
, , ARPA , , , . , . , ,
: « ?»
, MIT,ARPA , . ARPANET. , ARPANET , , , , , , ,
, « ».
. , , - . Uber , , , , .
, . , , : , , « , ». , , , .
1980-
, ,

En la década de 1970, el Dr. Joffrey Franglen de la
Facultad de Medicina de St. George en Londres comenzó a escribir un algoritmo para abandonar las solicitudes de los solicitantes.
En ese momento, tres cuartos de las 2.500 personas que presentaron solicitudes introductorias anualmente fueron descartadas por personas especiales que evaluaron su solicitud por escrito, como resultado de lo cual los solicitantes no llegaron a la etapa de la entrevista. Aproximadamente el 70% de las personas que completaron el abandono inicial se matricularon en la escuela de medicina. Por lo tanto, el examen inicial fue una etapa extremadamente importante.
Franglen era la vicedecana y también se ocupaba de las solicitudes. La lectura de las solicitudes requirió un avance de tiempo, y le pareció que este proceso podía automatizarse. Estudió la técnica de abandono de estudiantes que él y otros certificadores usaron, y luego escribió un programa que, dijo, "imitaba el comportamiento de atestiguar a las personas".
La principal motivación de Franglen era aumentar la eficiencia del proceso de adopción, y también esperaba que su algoritmo eliminara la inconsistente calidad del trabajo del personal. Esperaba que al pasar este proceso al sistema técnico, sería posible lograr exactamente la misma evaluación de todos los solicitantes y crear un proceso de abandono honesto.
De hecho, todo resultó al revés.
Franglen completó su algoritmo en 1979. En ese año, las solicitudes de los solicitantes fueron verificadas simultáneamente por una computadora y personas. Franglen descubrió que su sistema estaba de acuerdo con las calificaciones de los evaluadores en el 90-95% de los casos. La administración decidió que estos números permiten que los funcionarios sean reemplazados por un algoritmo. Para 1982, todas las solicitudes principales de admisión a la escuela comenzaron a ser evaluadas por el programa.
Después de unos años, algunos miembros del personal estaban preocupados por la falta de diversidad entre los estudiantes que ingresaron. Realizaron una investigación interna del programa Franglen y encontraron ciertas reglas que evaluaban a los solicitantes por factores aparentemente no relacionados, como el lugar de nacimiento o el nombre. Sin embargo, Franglen convenció al comité de que estas reglas se recopilaron sobre la base de la recopilación de datos sobre el trabajo de los asistentes, y no afectaron significativamente la muestra.
En diciembre de 1986, dos profesores escolares se enteraron de esta investigación interna y acudieron a la Comisión Británica de Igualdad Racial. Le dijeron a la comisión que tenían razones para creer que el programa de computadora se usaba para discriminar encubiertamente a mujeres y personas de color.
La comisión comenzó una investigación. Se descubrió que el algoritmo separaba candidatos para caucásicos y no europeos, en función de sus nombres y lugares de nacimiento. Si sus nombres no eran europeos, les fue en un signo menos. La mera presencia de un nombre no europeo resta 15 puntos del monto total del solicitante. La comisión también encontró que las mujeres fueron subestimadas en un promedio de 3 puntos. Basado en este sistema, se rechazaron diariamente hasta 60 solicitudes.
En ese momento, la discriminación racial y de género era muy fuerte en las universidades británicas, y en St. Georg fue atrapado en esto solo porque ella confió este sesgo a un programa de computadora. Como era discutible que el algoritmo a continuación calificara a mujeres y personas con nombres no europeos, la comisión recibió pruebas sólidas de discriminación.
La escuela de medicina fue acusada de discriminación, pero salió con bastante facilidad. Tratando de hacer las paces, la universidad contactó a personas a quienes podían discriminar ilegalmente, y tres de los solicitantes rechazados recibieron educación. La Comisión señaló que el problema en la escuela de medicina no solo era técnico, sino también cultural. Muchos empleados consideraron el algoritmo de clasificación como la verdad definitiva, y no perdieron el tiempo averiguando cómo clasifica a los solicitantes.
En un nivel más profundo, está claro que el algoritmo soportó las ideas preconcebidas que ya existían en el sistema de admisión. Después de todo, Franglen revisó el automóvil con la ayuda de personas y encontró una coincidencia del 90-95%. Sin embargo, habiendo codificado la discriminación que los certificadores tenían en la máquina, se aseguró de que se repitiera sin cesar este sesgo.
El caso de discriminación en St. Georg llamó mucho la atención. Como resultado, la comisión prohibió la inclusión de información sobre raza y etnia en las solicitudes de los solicitantes. Sin embargo, este modesto paso no detuvo la propagación del sesgo algorítmico.
Los sistemas de toma de decisiones algorítmicas se implementan cada vez más en áreas con un alto grado de responsabilidad, por ejemplo, en la atención de la salud y la justicia penal, y la repetición, así como el fortalecimiento del sesgo social existente, derivado de datos históricos, es motivo de gran preocupación. En 2016, los reporteros de ProPublica revelaron que el software utilizado en los EE. UU. Para predecir futuros crímenes estaba sesgado contra los afroamericanos. La investigadora Joy Bulamvini reveló más tarde que el software de reconocimiento facial de Amazon está más mal con las mujeres negras.
Aunque el sesgo de la máquina se está convirtiendo rápidamente en el tema más comentado en la IA, los algoritmos todavía se consideran objetos matemáticos misteriosos e innegables que producen resultados razonables e imparciales. Como dice la crítica de IA Kate Crawford, es hora de admitir que los algoritmos son "creaciones humanas" y heredan nuestro sesgo. El mito cultural de un algoritmo innegable a menudo oculta este hecho: nuestra IA es tan buena como nosotros.
Cómo Amazon empujó a los turcos mecánicos en una máquina
Los trabajadores digitales invisibles de hoy se parecen al hombre que gobernó el Turco Mecánico del siglo XVIII.

A comienzos del milenio, Amazon comenzó a expandir sus servicios más allá de la venta de libros. Con el creciente número de diferentes categorías de productos en el sitio web de la compañía, era necesario encontrar nuevas formas de organizarlas y clasificarlas. Parte de esta tarea fue la eliminación de decenas de miles de productos duplicados que aparecían en el sitio.
Los programadores intentaron hacer un programa que pueda eliminar automáticamente los duplicados. Definir y eliminar objetos parecía una tarea simple disponible para la máquina. Sin embargo, los programadores pronto se rindieron, calificando la tarea de procesamiento de datos como "
imposible ". Para una tarea que involucra la capacidad de notar pequeñas inconsistencias o similitudes en imágenes y textos, se requería inteligencia humana.
Amazon se ha encontrado con un problema. Eliminar productos duplicados era trivial para las personas, pero una gran cantidad de artículos requeriría una mano de obra considerable. La gestión de los trabajadores que participan en una de esas tareas no sería trivial.
El gerente de la compañía, Venki Harinarayan, encontró una solución. Su
patente describe una "colaboración informática híbrida entre humanos y máquinas" que divide una tarea en pequeñas piezas, subtareas y las distribuye a través de una red de empleados humanos.
Si se eliminan los duplicados, la computadora principal puede dividir el sitio web de Amazon en pequeñas secciones, por ejemplo, 100 páginas de abridores, y enviar secciones a las personas en Internet. Luego necesitaban identificar duplicados dentro de estas secciones y enviar las piezas del rompecabezas de regreso.
Un sistema distribuido ofrecía una ventaja crucial: los trabajadores no tenían que acumularse en un solo lugar, podían realizar sus subtareas en sus computadoras, donde sea que estuvieran y cuando quisieran. De hecho, a Harinarayan se le ocurrió una forma efectiva de distribuir el trabajo poco calificado, pero difícil de automatizar, a través de una amplia red de personas que pueden trabajar en paralelo.
Este método resultó ser tan efectivo para el trabajo interno de la empresa que Jeff Bezos decidió vender el sistema como un servicio a organizaciones de terceros. Bezos convirtió la tecnología Harinarayan en un mercado para los trabajadores. Allí, las empresas que tenían tareas que eran fáciles para las personas (pero difíciles para los robots) podían encontrar una red de trabajadores independientes que realizaran estas tareas por una pequeña tarifa.
Así es como
surgió Amazon Mechanical Turk , o
mTurk para abreviar. El servicio comenzó en
2005 y la base de usuarios comenzó a crecer rápidamente. Empresas e investigadores de todo el mundo comenzaron a subir el llamado "Tareas para la inteligencia humana" en la plataforma, como descifrar audio o etiquetar imágenes. Las tareas fueron realizadas por un grupo internacional y anónimo de trabajadores por una pequeña tarifa (un empleado frustrado se quejó de que la remuneración promedio era de 20 centavos).
El nombre del nuevo servicio se refería a la máquina del siglo XVIII, jugar al ajedrez: Mechanical Turk, inventado por el pequeño empresario Wolfgang von Kempelen. Y al igual que en esa falsa automatización, dentro de la cual había una persona jugando al ajedrez, la plataforma mTurk fue diseñada para ocultar el trabajo humano. En lugar de nombres, los trabajadores de la plataforma tienen números, y la comunicación entre el empleador y el trabajador carece de personalización. El propio Bezos llamó a estos trabajadores inhumanos "
inteligencia artificial artificial ".
Hoy, mTurk es un mercado próspero con cientos de miles de empleados de todo el mundo. Y aunque la plataforma proporciona una fuente de ingresos para las personas que pueden no tener acceso a otro trabajo, las condiciones laborales allí son muy dudosas. Algunos críticos
afirman que al ocultar y separar a los trabajadores, Amazon facilita la operación. En un
trabajo de investigación de diciembre de 2017, se descubrió que el salario promedio de un empleado es de aproximadamente $ 2 por hora, y solo el 4% de los empleados ganan más de $ 7.25 por hora.
Curiosamente, mTurk se ha convertido en un
servicio crítico para el desarrollo del aprendizaje automático. En el programa MO, se emite un gran conjunto de datos en el que aprende a buscar patrones y sacar conclusiones. Los trabajadores de MTurk a menudo se utilizan para crear y marcar estos kits, y su papel en el desarrollo de MO a menudo permanece en la sombra.
La dinámica entre la comunidad de IA y mTurk es consistente con la que ha estado presente a lo largo de la historia de la mente mecánica. Admiramos fácilmente la aparición de "máquinas inteligentes" autónomas, ignorando u ocultando intencionalmente el trabajo humano que las crea.
Quizás podamos aprender de los comentarios de
Edgar Allan Poe . Cuando estudió el Mechanical Turk von Kempelen, no sucumbió a esta ilusión. En cambio, se preguntó cómo sería para un
jugador de ajedrez oculto sentarse dentro de esta caja, "apretado" entre los engranajes y las palancas en una "pose dolorosa y antinatural".
En este momento, cuando los titulares sobre los avances de la IA salpican el campo de noticias, es importante recordar el enfoque sobrio de Poe. Puede ser bastante divertido, aunque peligroso, sucumbir a la exageración en torno a la IA y dejarse llevar por las ideas de máquinas que no necesitan simples mortales. Sin embargo, con una cuidadosa consideración, podrá ver rastros de trabajo humano.