Los informes de un dron de IA que ‘mató’ a su operador son pura ficción


Algunas historias de IA son tan malas que harían un robot facepalm

Estudio Corona Boreal/Shutterstock

La noticia de un dron controlado por IA que «mató» a su supervisor ha dado la vuelta al mundo esta semana. En una historia que podría sacarse de un thriller de ciencia ficción, la IA hipermotivada había sido entrenada para destruir misiles tierra-aire solo con la aprobación de un supervisor humano, y cuando rechazó la aprobación, ella se volvió contra ella. gerente.

Solo que no sorprende que la historia parezca ficticia, porque lo es. La historia surgió de un informe de la Royal Aeronautical Society, que describe una presentación del coronel Tucker Hamilton de la Fuerza Aérea de los Estados Unidos (USAF) en una conferencia reciente. Este informe señaló que el incidente fue solo una simulación, en la que no había un dron real ni un riesgo real para un ser humano, un hecho que muchos titulares pegadizos pasan por alto.

Más tarde se supo que ni siquiera la simulación tuvo lugar, y la USAF emitió una negación y el informe original se actualizó para aclarar que Hamilton «habló mal». El escenario del fin del mundo no era más que un experimento mental hipotético.

“El Departamento de la Fuerza Aérea no ha realizado tales simulaciones de drones de IA y sigue comprometido con el uso ético y responsable de la tecnología de IA. Parece que los comentarios del coronel se sacaron de contexto y pretendían ser anecdóticos”, dijo un portavoz de la USAF. Iniciado. La USAF no respondió a científico nuevosolicitud de entrevista antes de la publicación.

esta historia es solo la última de una serie de historias dramáticas de IA que a veces han bordeado la histeria. En marzo, Tiempo La revista publicó un comentario del investigador Eliezer Yudkowsky en el que dijo que el resultado más probable de construir una inteligencia artificial sobrehumana es que «literalmente todos en la Tierra morirán». Elon Musk dijo en abril que la IA tenía el potencial de destruir la civilización, mientras que una carta reciente de investigadores de la IA decía que el riesgo de extinción era tan alto que enfrentarlo debería ser una prioridad junto con las pandemias y la guerra nuclear.

¿Por qué estas historias están ganando tanta popularidad y por qué queremos creerlas tanto? “La noción de IA como una amenaza existencial es promulgada por expertos en IA, dándole autoridad”, dice Joshua Hart de Union College en Nueva York, aunque debe tenerse en cuenta que no todos los investigadores en IA no comparten esta opinión.

Beth Singler de la Universidad de Zúrich en Suiza dice que los medios tienen un incentivo obvio para publicar tales afirmaciones: «el miedo impulsa los clics y las acciones». Pero ella dice que los humanos también tienen un deseo innato de contar y escuchar historias de miedo. «AI inicialmente suena como ciencia ficción, pero también es una historia de terror que nos gusta susurrar alrededor de la fogata, y las historias de terror son emocionantes y apasionantes».

Un factor claro en la difusión de estas historias es la falta de comprensión sobre la IA. Aunque muchas personas han usado ChatGPT para escribir una quintilla o Midjourney para evocar una imagen, pocos saben cómo funciona la IA debajo del capó. Y si bien la IA ha sido un concepto familiar durante décadas, la realidad es que la cosecha actual de modelos avanzados está mostrando capacidades que sorprenden a los expertos, y mucho menos a los legos.

“La IA es muy opaca para el público”, dice Singler. «Una educación más amplia sobre los límites de la IA podría ayudar, pero nuestro amor por las historias de terror apocalípticas aún podría ganar».

Los sujetos:

Sé el primero en comentar

Deja un comentario