¿Te imaginas que las respuestas de Chat GPT fueran falsas? O incluso peor, ¿te imaginas que no pudieras saber si las respuestas de Chat GPT son ciertas o falsas?
¿Qué es el GPT?
La Inteligencia Artificial generativa básicamente es un ejercicio de probabilidad estadística, es decir, está diseñada para que a partir de una pregunta y en base a todos los datos que se han usado para entrenarla, genere una respuesta en la que las palabras que usa se determinan a partir de una probabilidad estadística.
GPT significa Generated Pre-trained Transformer y básicamente implica un sistema entrenado previamente con datos y que crea las respuestas centrándose en cual es la palabra que tiene más probabilidades de dar respuesta a tu pregunta. El objetivo es crear respuestas que sean plausibles a partir de una pregunta, pero que no tienen por qué ser ni correctas ni verdaderas. Si a partir de los datos con los que ha sido entrenada no puede completar esta respuesta, porque le faltan datos, se pone en modo creativo, porque su objetivo, repito, es generar una respuesta plausible, aunque no sea correcta. Técnicamente a este fenómeno se le llama Alucinación.
Podemos, de esta forma, afirmar que GPT no tiene contacto con el mundo real, con lo que está sucediendo en el mismo momento en el que le planteamos una pregunta.
Algunos defienden que más que alucinación deberíamos hablar de “bullshit” (que podríamos traducir, de forma generosa por “disparate”). Y el argumento es que no se trata de una alucinación sino de una indiferencia por la verdad.
Por ejemplo, si le pregunto a Chat GPT:
“Un tren sale de Madrid hacia Barcelona a las 3:00 p.m. a 100 km/h.
Al mismo tiempo, otro tren sale de Barcelona hacia Madrid a 120 km/h.
La distancia entre las dos ciudades es de 620 km.
¿A qué hora se cruzan?”
La respuesta que me dará es:
“Se cruzan a las 5:30 p.m”
La respuesta puede ser correcta, pero al no tener más explicación, y sin conocimientos para resolverlo, no sabré si es cierta o falsa.
Quizás pueda parecer que esto no es tan importante, pero piensa que eres Google, y que tu modelo de negocio se basa en ofrecer los mejores contenidos cuando un usuario te pregunta (y claro, monetizar la respuesta colocando anuncios) y quieres usar la IA generativa para añadir respuestas en el buscador. ¿Crees que puedes arriesgarte a ofrecer respuestas que sean plausibles pero que quizás son falsas o incorrectas?
Para poder solventar este problema, actualmente se usa una técnica llamada RAG, Retrieval-Augmented Generation (en español: Generación Aumentada por Recuperación).
¿Cómo funciona?
Cuando interactúas con la IA generativa, en el caso de Google con Gemini, se activa un doble proceso:
Recuperador (Retriever):
Busca información relevante en una base de datos, documentos, artículos, páginas web, etc., usando una consulta relacionada con la pregunta del usuario.Generador (Generator):
Toma los textos recuperados y los usa como contexto para generar una respuesta coherente y fundamentada.
¿Por qué es útil?
Permite a los modelos generar respuestas basadas en datos reales, no solo en su conocimiento entrenado.
Mejora la precisión en temas especializados o actualizados.
En teoría, si no tiene datos sobre los que poder consultar, te responde diciendo que no puede ofrecerte la respuesta.
A la pregunta anterior:
“Un tren sale de Madrid hacia Barcelona a las 3:00 p.m. a 100 km/h.
Al mismo tiempo, otro tren sale de Barcelona hacia Madrid a 120 km/h.
La distancia entre las dos ciudades es de 620 km.
¿A qué hora se cruzan?”
La respuesta usando RAG sería:
(El modelo recupera un documento con fórmulas para movimiento relativo y ejemplos similares).
Usando la fórmula:
Velocidad relativa = 100 + 120 = 220 km/h
Tiempo = 620 / 220 ≈ 2.82 horas
2.82 horas ≈ 2 horas y 49 minutos
Entonces, 3:00 p.m. + 2:49 ≈ 5:49 p.m.
En este caso la respuesta es más precisa porque se basa en información que consulta relacionada con el caso, pero podría ser que necesitara hacer algún razonamiento aplicando la fórmula y aquí también aparecen limitaciones dado que este modelo está pensado para buscar información, no para razonar con ella.
Esto nos lleva a una nueva mejora para la IA, el uso de Chain of Thought (CoT). Se trata de una técnica usada en modelos de lenguaje como ChatGPT para mejorar su capacidad de razonamiento, haciendo que explique sus pasos antes de dar una respuesta final.
¿Qué es exactamente?
Chain of Thought (Cadena de Pensamiento) consiste en hacer que el modelo razone paso a paso, en lugar de ir directo a la respuesta. Esto imita cómo los humanos resolvemos problemas complejos: primero analizamos, hacemos cálculos, inferencias… y luego llegamos a una conclusión.
¿Por qué es útil?
Mejora el rendimiento en tareas de lógica, matemáticas, programación, y preguntas de varios pasos.
Hace que el modelo sea más transparente: puedes ver por qué llegó a una respuesta.
Reduce errores que ocurren cuando el modelo "salta" directamente al final sin razonar.
A la pregunta anterior:
“Un tren sale de Madrid hacia Barcelona a las 3:00 p.m. a 100 km/h.
Al mismo tiempo, otro tren sale de Barcelona hacia Madrid a 120 km/h.
La distancia entre las dos ciudades es de 620 km.
¿A qué hora se cruzan?”
La respuesta usando CoT sería:
Paso 1: La distancia entre las ciudades es 620 km.
Paso 2: Ambos trenes se mueven uno hacia el otro, así que sumamos sus velocidades: 100 + 120 = 220 km/h.
Paso 3: Tiempo hasta que se crucen = 620 ÷ 220 ≈ 2.82 horas
Paso 4: 0.82 horas ≈ 49 minutos
Paso 5: 3:00 p.m. + 2 horas y 49 minutos = 5:49 p.m
En un artículo anterior hablaba del concepto de Profesional aumentado, compartiendo mi idea que a día de hoy saber usar la IA aumenta las capacidades de los profesionales generando una ventaja competitiva en su desarrollo en el mercado.
Añado a ese pensamiento el contenido de este artículo, en el sentido que cuando uno se enfrenta a la IA generativa (chat GPT, Gemini, perplexity, copilot…) debe conocer como reducir el % de errores en sus respuestas asegurando el uso de técnicas como RAG o CoT.
Y, como siempre, Seguimos!
Buen repaso, Marc. Justo ahora el foco está en cómo combinar estas técnicas con memoria contextual, planificación multietapa o verificación de hechos en tiempo real para mejorar la confianza y adaptabilidad de los modelos en entornos más complejos. Mucho camino interesante por delante.