Sentient AI: ¿Realmente ha cobrado vida la inteligencia artificial LaMDA de Google?


rap«>Blake Lemoine, ingeniero de Google, afirmó que la inteligencia artificial LaMDA de la empresa es inteligente, pero el consenso de los expertos es que no lo es.

Tecnología


13 de junio de 2022

LogotipoGoogle

Google está desarrollando una gama de modelos de inteligencia artificial

KENZO TRIBOUILLARD/AFP vía Getty Images

Según los informes, la compañía suspendió a un ingeniero de Google después de afirmar que una inteligencia artificial que ayudó a desarrollar se volvió sensible. “Si no supiera exactamente qué es, cuál era este programa de computadora que construimos recientemente, pensaría que era un niño de siete u ocho años”, dijo Blake Lemoine. los El Correo de Washington.

Lemoine ha publicado transcripciones de conversaciones con la IA, llamadas LaMDA (Modelo de lenguaje para aplicaciones de diálogo), en las que parece expresar temores de ser apagada, habla sobre cómo se siente feliz y triste e intenta crear vínculos con los humanos al mencionar situaciones que nunca podría haber experimentado. Aquí está todo lo que necesitas saber.

¿LaMDA es realmente sensible?

En pocas palabras, no, dice Adrian Weller del Instituto Alan Turing en el Reino Unido.

«LaMDA es un modelo impresionante, es uno de los más nuevos en una gama de modelos de lenguaje grande que están entrenados con mucha potencia computacional y grandes cantidades de datos textuales, pero no son realmente sensibles», dice. «Hacen una forma sofisticada de coincidencia de patrones para encontrar el texto que mejor se adapte a la consulta que se les ha dado, en función de todos los datos que se les han dado».

Adrian Hilton de la Universidad de Surrey, Reino Unido, está de acuerdo en que la sensibilidad es una «afirmación audaz» que no está respaldada por los hechos. Incluso el famoso científico cognitivo Steven Pinker pesado para rechazar las afirmaciones de Lemoine, mientras que Gary Marcus de la Universidad de Nueva York lo resumió en una palabra: «tonterías».

Entonces, ¿qué convenció a Lemoine de que LaMDA era consciente?

Ni Lemoine ni Google respondieron a científico nuevo solicitud de comentario. Pero ciertamente es cierto que la producción de modelos de IA en los últimos años se ha vuelto sorprendentemente buena, incluso impactante.

Es probable que nuestras mentes perciban tal habilidad, especialmente cuando se trata de modelos diseñados para imitar el lenguaje humano, como evidencia de verdadera inteligencia. LaMDA no solo puede hacer una charla convincente, sino que también puede presentarse con autoconciencia y sentimientos.

«Como humanos, somos muy buenos para antropomorfizar las cosas», dice Hilton. “Poner nuestros valores humanos en las cosas y tratarlas como si fueran sensibles. Lo hacemos con dibujos animados, por ejemplo, o con robots o con animales. Proyectamos nuestras propias emociones y sentimientos sobre ellos. Me imagino que eso es lo que está pasando en este caso.

¿Alguna vez la IA será realmente consciente?

No está claro si la trayectoria actual de la investigación de IA, donde los modelos cada vez más grandes se alimentan de pilas cada vez más grandes de datos de entrenamiento, verá la génesis de una mente artificial.

«No creo en este momento que entendamos realmente la mecánica detrás de lo que hace que algo sea sensible e inteligente», dice Hilton. «Hay mucha expectación en torno a la IA, pero no estoy convencido de que lo que estamos haciendo con el aprendizaje automático, en este momento, sea realmente inteligencia en ese sentido».

Weller dice que, dado que las emociones humanas dependen de la información sensorial, eventualmente será posible reproducirlas artificialmente. «Eso podría ser cierto, tal vez algún día, pero la mayoría de la gente estaría de acuerdo en que todavía queda un largo camino por recorrer».

¿Cómo reaccionó Google?

el poste de washington afirma que Lemoine fue suspendido después de siete años en Google, después de que intentó contratar a un abogado para representar a LaMDA y envió a los ejecutivos un documento que afirmaba que la IA era sensible. Su informe señala que Google afirma que la publicación de las transcripciones violó las políticas de privacidad.

Google le dijo al periódico: «Nuestro equipo, incluidos éticos y tecnólogos, revisaron las preocupaciones de Blake de acuerdo con nuestros principios de IA y le informaron que la evidencia no respalda sus afirmaciones. Le dijeron que no había evidencia de que LaMDA fuera susceptible (y muchas de prueba en su contra).

Lemoine respondió en Twitter: “Google podría llamarlo compartir la propiedad exclusiva. Yo lo llamo compartir una discusión que tuve con un colega mío.

Obtenga más información sobre estos temas:



Sé el primero en comentar

Deja un comentario