Entrevista con Beth Singler: Los peligros de tratar a la IA como un dios


Beth soltera

Beth Singler, antropóloga de IA en la Universidad de Cambridge

David Stock

Cada vez estamos más acostumbrados a la idea de que la inteligencia artificial influye en nuestra vida diaria, pero para algunas personas es una tecnología opaca que representa más una amenaza que una oportunidad. La antropóloga de la Universidad de Cambridge, Beth Singler, estudia nuestra relación con la IA y la robótica y sugiere que la falta de transparencia detrás de esto lleva a algunas personas a elevar la IA a una misteriosa figura parecida a una deidad.

«La gente podría hablar de ser bendecida por el algoritmo», dice Singler, pero en realidad, probablemente sea una decisión muy separada tomada a nivel de empresa. En lugar de temer una rebelión de robots o una versión deificada de la IA que nos juzgue, le dice a Emily Bates, debemos identificar y criticar a quienes toman decisiones sobre cómo se usa la IA. «Cuando el miedo se vuelve demasiado abrumador y te distrae de esas preguntas, creo que es una preocupación», dice Singler.

Emily Bates: Usted se describe a sí mismo como alguien que “piensa lo que los humanos pensamos de las máquinas pensantes”. ¿Puedes explicar lo que quieres decir con eso?
Beth Singler: Soy antropóloga de inteligencia artificial, así que estudio a los humanos tratando de descubrir cómo [AI] impacta su vida. Como campo, involucra muchos aspectos diferentes de la tecnología, desde el reconocimiento facial hasta los sistemas de diagnóstico, los sistemas de recomendación y, para el público en general, todos esos tipos de detalles se agrupan bajo ese título de IA. [And] no son solo los usos simples de la IA, sino la forma en que se imagina lo que también refleja lo que vemos como el futuro de la IA en términos de cosas como robots, rebeliones de robots, máquinas inteligentes que toman el control.

¿Hay algo de lo que debamos preocuparnos en la IA? ¿Hay prejuicios arraigados?
Todo lo que creamos como seres humanos refleja nuestros contextos, nuestra cultura, nuestros intereses y, cuando se trata de sistemas algorítmicos de toma de decisiones, los datos que elegimos ingresar en ellos conducen a ciertos resultados. Podemos decir basura adentro, basura afuera. Pero también queremos tener mucho cuidado de no personificar a la IA hasta el punto de decidir que tiene una agencia que en realidad no tiene. Tenemos que tener muy claro que siempre hay humanos en el circuito.

¿Por qué pensamos que si una IA se vuelve poderosa, querrá gobernarnos y ponernos bajo la bota?
La mayoría de las veces, proviene de nuestras suposiciones sobre cómo tratamos a los demás. Cuando [Western civilisations] se han extendido por todo el mundo y se han encontrado con culturas nativas, no necesariamente las hemos tratado bien, y podemos ver que se está desarrollando este mismo tipo de cosas. Si nos consideramos la especie más inteligente del planeta y hemos destruido el medio ambiente y puesto en peligro a los animales, ¿por qué una inteligencia superior a la nuestra no haría lo mismo con nosotros? O si vemos la distancia entre nosotros y las hormigas como equivalente a la distancia entre una superinteligencia y nosotros mismos, entonces tal vez eso tampoco importe. Reaccionará de una manera particular beneficiosa para sí mismo, pero podría no ser tan beneficioso para los humanos.

¿Crees que el miedo a la IA está justificado? ¿Se harán cargo los robots?
Creo que en realidad es más interesante que sigamos haciéndonos esa pregunta, que sigamos volviendo a esa narrativa del miedo, que nos preocupen las cosas que creamos, cómo podrían parecerse a nosotros en términos de inteligencia, pero también cómo pueden ser como nosotros en términos de nuestros malos rasgos, como nuestra rebelión o nuestro egoísmo o nuestra violencia. Creo que la mayoría de las veces proviene de nuestro sentimiento de que solo debería haber espíritus en ciertos lugares. Así que nos preocupamos mucho cuando vemos algo actuando como un ser humano con el mismo nivel de inteligencia o incluso aprensión sintiente en un lugar donde no lo esperábamos.

¿Qué tan lejos estamos y cómo sabremos que hemos hecho una máquina que tiene el mismo nivel de inteligencia que nosotros?
Realmente se reduce a lo que concebimos como inteligencia y cómo describimos el éxito de la IA. Entonces, durante mucho tiempo, desde la concepción misma del término inteligencia artificial, se ha tratado de ser muy bueno para realizar tareas simples, tareas delimitadas en un campo muy simple. Y luego, con el tiempo, estas áreas se vuelven más complicadas, pero aún se trata de tener éxito. Así, toda la historia de los juegos de computadora, por ejemplo, desde simples tres en raya y tableros de ajedrez, hasta Go y starcraft ii es de desarrollo, pero todavía gira en torno al éxito y al fracaso. Y tenemos que preguntarnos, ¿es esto realmente lo que creemos que es la inteligencia? ¿Es buena la inteligencia en juegos de esta naturaleza?

¿Hay algún juego que creas que cuando una computadora puede jugarlo con éxito, podría haber alcanzado el nivel de inteligencia humana?
Soy un geek enorme e impenitente, y me encantan los juegos. Calabozos y Dragones. Y creo que lo realmente valioso de esta forma de juego es que se trata de contar historias en colaboración. Se trata mucho más de la experiencia de jugar juntos que del éxito o el fracaso. Y creo que si pudieras tener una IA que pudiera entender esa colaboración, entonces estarías mucho, mucho más cerca de algo que podríamos considerar como inteligencia incorporada o inteligencia humana común. El problema es que en realidad podría ser el salto a la inteligencia artificial general para poder hacer eso.

Imagen predeterminada de New Scientist

El jugador surcoreano de go Lee Sedol juega AlphaGo de Deepmind

Lee Jin-Man/AP/Shutterstock

¿Qué es la Inteligencia Artificial General?
La idea es que si la IA pudiera lograr una inteligencia a nivel humano, entonces podría superarla en superinteligencia y luego tal vez ingresar a un reino que ni siquiera entendemos completamente, donde su inteligencia está tan lejos de nuestra concepción que sería el equivalente. de una singularidad cosmológica que tienes en un agujero negro o al principio del universo. Realmente no sabemos cómo diseñar o describir esto, [although] la ciencia ficción trata de ir con ideas sobre máquinas sensibles e inteligentes que reaccionan de maneras particulares a los humanos, a veces de manera bastante negativa. O puede ser que nosotros mismos seamos atraídos de alguna manera hacia esta inteligencia y se convierta en una especie de momento de éxtasis secular.

Hablas de esta singularidad tecnológica que se convierte en una figura casi deificada. ¿Qué quieres decir con eso?
Para algunas personas puede ser una transformación literal, que es lo más cercano posible a la existencia de un dios, y para otras es más una relación metafórica entre nuestra idea de lo que debería ser un dios y el poder de este potencial. singularidad AI sería. Hemos tenido formas de caracterizar a las deidades monoteístas como omnipresentes, omniscientes y, con suerte, también omnibenevolentes. Y cuando empiezas a hablar de esta singularidad muy poderosa, parece tener algunos de esos atributos, al menos en esta teorización al respecto.

¿Cuáles podrían ser las consecuencias?
Para algunos grupos generalmente descritos como transhumanistas, esto podría ser un resultado muy positivo. Piensan que esto podría ser un camino hacia alguna forma de inmortalidad, que podríamos escapar de nuestros cuerpos físicos y convertirnos en mentes cargadas en el espacio de la singularidad y, por lo tanto, vivir para siempre, poder explorar el universo y experimentar todo lo que se puede experimentar. Otros temen que una singularidad tecnológica lleve a consecuencias negativas, una versión exponencial de la rebelión robótica donde esta versión de la IA de la deidad nos juzga, nos desagrada, se deshace de nosotros por varias razones. Así que hay dos tipos de interpretaciones.

¿Existe entonces el peligro de que empecemos a tratar a la IA con demasiado respeto, casi como un dios?
Parte de mi investigación analiza específicamente dónde no solo personificamos la IA, sino que en realidad la deificamos de alguna manera y comenzamos a pensar en los algoritmos detrás de escena que toman decisiones que nos bendicen de una forma u otra. Si vas a Spotify y escuchas una canción particularmente útil o relevante, o si eres un productor de contenido y pones algo en YouTube y lo hace muy bien porque el algoritmo lo destaca de una manera particular, por la falta de transparencia. sobre cómo se usa la IA y qué tipo de valores importan las empresas a la IA, parece estar actuando de manera misteriosa. Y luego recurrimos a nuestro lenguaje existente, narrativas y tropos de contextos culturales existentes como ideas religiosas. Y como resultado, empezamos a hablar de la IA como una especie de dios que nos vigila.

¿Cuáles son las posibilidades de que seamos creaciones de algo con un nivel de inteligencia que hemos superado?
Nuevamente, cae en estos patrones teológicos teístas de ideas sobre un dios creador, una entidad superior que nos creó. También se basa en algunas ideas sobre si vivimos en un universo simulado, más o menos al estilo de La matriz, porque el argumento es que si podemos crear juegos de cierta sofisticación, ¿qué quiere decir que una entidad más grande no haya creado fundamentalmente esta simulación en la que vivimos? Y ese tipo de preguntas mantienen a algunas personas despiertas hasta tarde en la noche. Pero creo que a veces puede actuar como una distracción y, de hecho, algunas de las personas que defienden este tipo de narrativas también están usando la IA de formas prácticas muy limitadas que ya están afectando nuestras vidas. Entonces, la simulación en la que vivimos ya es la simulación de algunas empresas y algunos multimillonarios con los que en realidad tenemos que ser muy críticos. La gente podría hablar de ser bendecida por el algoritmo. Pero, de hecho, es una decisión muy separada tomada a nivel de empresa que ciertas historias se adelantan a otras.

¿Crees que le tenemos demasiado miedo a la IA?
Creo que hay un cierto nivel de miedo cuando se trata de aplicaciones de IA que pueden conducir a comprender lo que está pasando, criticarlo, tratar de combatir esa falta de transparencia, identificar quién está detrás de escena y tomar decisiones sobre cómo se usa la IA. Creo que cuando el miedo se vuelve demasiado abrumador y te distrae de esas preguntas, creo que eso es una preocupación.

¿Cuál es su esperanza para el futuro de la IA?
Me gustaría ver que la tecnología se use de manera adecuada, justa y responsable, y creo que ese es un deseo bastante común y estamos viendo cada vez más presión para hacerlo. Mis preocupaciones son más sobre la participación humana en la toma de decisiones sobre cómo se usa la IA que la IA que se escapa y se convierte en esta cosa desastrosa en sí misma.

científico nuevo video
Mire el video que acompaña a esta función y muchos otros artículos en youtube.com/newscientist

Obtenga más información sobre estos temas:

Sé el primero en comentar

Deja un comentario