La Inteligencia Artificial Generativa es un tipo de inteligencia artificial que puede generar diferentes tipos de contenidos.

IA Generativa: qué es la Inteligencia Artificial Generativa – Es un tipo de inteligencia artificial que puede generar diferentes tipos de contenidos. Si bien el debate actual se centra en los sistemas de IA que pueden generar texto (por ejemplo, ChatGPT de OpenAI o Bard de Google), también están los que generan imágenes (por ejemplo, Midjourney), vídeos o sonido, por ejemplo.

IA Generativa: qué es la Inteligencia Artificial Generativa

Cuando la inteligencia artificial (IA) crea contenido nuevo, se denomina Inteligencia Artificial Generativa (IA Generativa). Pueden ser textos e imágenes, pero también vídeos, música o voces. Ejemplos de IA generativa incluyen chatbots de IA como ChatGPT y Google Bard, y generadores de texto a imagen como Midhjourney, Dall-E y Stable Diffusion.

Modelos de lenguaje grande (Large Language Model, LLM)

Los sistemas de inteligencia artificial como ChatGPT se basan en modelos generativos, a menudo llamados modelos de lenguaje grande (Large Language Model, LLM), que pueden generar contenido nuevo en función de los datos con los que fueron entrenados. Después del entrenamiento, un LLM como GPT-4 tiene información estadística sobre los datos subyacentes, en este caso, el lenguaje natural.

Entrenamiento de LLM

A partir de este conocimiento, el modelo puede completar textos (los llamados modelos de texto a texto). Un LLM “sabe” que es más probable que la oración “El cielo es…” termine en “azul” que en “amarillo”. Debido a la enorme cantidad de datos de entrenamiento, esta capacidad esencialmente muy reducida significa que los modelos de lenguaje pueden resolver incluso tareas complejas con una competencia asombrosa.

Es importante señalar que los modelos de lenguaje no son modelos de conocimiento (explícitos), sino que sólo complementan probabilísticamente los textos. Aunque un modelo de lenguaje ha “aprendido” mucha información no lingüística, está optimizado para completar un texto de manera lingüísticamente correcta, pero no necesariamente de manera objetiva.

En la práctica, estos modelos se someten a un paso de entrenamiento adicional, el llamado alineamiento. Este paso de entrenamiento consiste en aplicar un LLM a tareas específicas como, por ejemplo, seguir instrucciones, así como, por ejemplo, formar con respecto a determinados valores y normas. Por ejemplo, cuando usamos ChatGPT, interactuamos con modelos generativos que están entrenados (alineados) para mantener diálogos y no abordar ciertos temas que se perciben como problemáticos.

Sesgos

La calidad de los modelos y su salida está fundamentalmente relacionada con la calidad de los datos de entrenamiento, tanto en el primer paso como durante la alineación. Los sesgos en los datos subyacentes son de particular importancia aquí. Un modelo generativo genera contenido nuevo basado en los patrones probabilísticos de los datos de entrenamiento. Si los datos de entrenamiento como, por ejemplo, si hay un sesgo de género, esto también se reflejará en los productos del modelo.

Prompts o indicaciones

Los sistemas de IA generativa actuales operan con lenguaje natural, tanto en términos de entrada como de salida (en el caso de los modelos de texto a texto). Como entrada para el modelo, sirve un denominado prompt o indicación, una especie de orden de trabajo escrita para el modelo. Luego, el LLM completa esta indicación en el caso de modelos de texto a texto. Por lo tanto, la calidad del mensaje también tiene una gran influencia en la calidad del resultado.

El mensaje puede proporcionar a los modelos de lenguaje importantes conocimientos contextuales o ejemplos. Esto se puede ilustrar claramente con el ejemplo de una respuesta a un correo electrónico. Si se solicita al modelo de lenguaje “Escribir una respuesta a un correo electrónico”, recibiremos un texto que corresponde al correo electrónico más “promedio” posible y probablemente no tenga nada que ver con su contexto. El modelo no puede saber a qué responder.

Sin embargo, si “mostramos” el correo electrónico saliente al modelo en el mensaje, puede generar una respuesta adecuada. Según este principio, también se pueden utilizar modelos de lenguaje como, por ejemplo, estructurar datos no estructurados o reformatear textos automáticamente.

Complementos y agentes

Por último, cabe hacer referencia a los llamados complementos (plugins) y agentes. Un modelo de lenguaje solo tiene el conocimiento que se puede encontrar en los datos de entrenamiento. Por ejemplo, el GPT-4 de OpenAI no se entrenó con datos posteriores a septiembre de 2021. Por tanto, el modelo no cuenta con información de los últimos años.

Los complementos y agentes permiten reunir modelos de lenguaje y otras aplicaciones. Con un “complemento de navegador”, por ejemplo, un modelo de lenguaje puede buscar información en Internet y así superar sus propias limitaciones. Para ChatGPT, por ejemplo, actualmente existe toda una serie de complementos que permiten, por ejemplo, realizar cálculos con WolframAlpha o reservar viajes.