El torbellino actual de interés en la inteligencia artificial se debe en gran parte a la llegada repentina de una nueva generación de chatbots impulsados por IA capaces de mantener conversaciones basadas en texto sorprendentemente similares a las humanas. El gran cambio se produjo el año pasado cuando OpenAI lanzó ChatGPT. De la noche a la mañana, millones de personas obtuvieron acceso a una IA que producía respuestas tan inquietantemente fluidas que era difícil no preguntarse si esto presagiaba un punto de inflexión.
El hype no falló. Los investigadores de Microsoft que recibieron acceso temprano a GPT4, la última versión del sistema detrás de ChatGPT, argumentaron que ya había demostrado «chispas» de la versión de máquina de la capacidad intelectual humana investigada durante mucho tiempo conocida como inteligencia general artificial (AGI). Un ingeniero de Google incluso llegó a afirmar que una de las IA de la empresa, conocida como LaMDA, era sensible. Mientras tanto, los opositores insisten en que estas IA no son tan impresionantes como parecen.
Todo esto puede dificultar saber exactamente qué debe pensar sobre los nuevos chatbots de IA. Afortunadamente, las cosas se vuelven más claras rápidamente cuando te das cuenta de cómo funcionan y, con eso en mente, cuánto «piensan» como nosotros.
En el corazón de todos estos chatbots se encuentra un modelo de lenguaje grande (LLM): un modelo estadístico, o representación matemática de datos, diseñado para hacer predicciones sobre qué palabras es probable que aparezcan juntas.
Los LLM se crean alimentando cantidades masivas de texto a una clase de algoritmos llamados redes neuronales profundas, que se inspiran libremente en el cerebro. Los modelos aprenden patrones de lenguaje complejos jugando un juego simple: …
Deja un comentario