Mónica Zlotogorski
Consideremos dos breves ejemplos. En un PRIMER caso, necesitaba información rápidamente antes de dirigirme a una tienda de artículos de arte. Le pedí a una IA generativa que enumerara los colores de pintura que no estaban en mi existencia actual y solicité específicamente que no fueran tóxicos y tuvieran una excelente resistencia a la luz. Después de plantear la pregunta de diferentes maneras y en diferentes sesiones, todas las respuestas fueron inconsistentes y contenían errores.
Tuve que guiar a la IA varias veces para corregir sus errores, pero a veces, un error solucionado reaparecía en la misma sesión. Intentar que la IA correlacione tres categorías de datos (no tóxico, resistente a la luz y colores que no están en la existencia) fue una causa perdida, pero ese es un tema para otro artículo. Mientras trabajaba con la IA en una ventana, realizaba la misma tarea manualmente en otra y terminé mi propia investigación mucho más rápido.
En el SEGUNDO ejemplo, que estaba relacionado con el trabajo y antes de una reunión, pedí a tres asistentes que se prepararan para la discusión utilizando IA generativa. Acordamos tres preguntas en las que elaborarían exactamente las mismas consultas y tres preguntas en las que utilizarían consultas diferentes para los mismos temas. En ambos casos, se les ordenó continuar el ejercicio como mejor les pareciera y “seguir el flujo de la IA”, por así decirlo.
Todos llegaron a la reunión con conjuntos de datos ligeramente diferentes o muy diferentes.
¿Alguna vez le has hecho a una IA la misma pregunta dos veces y has recibido dos respuestas diferentes?
Lo que podría parecer un defecto menor es en realidad una característica central de cómo se construyen los modelos de lenguaje grandes (LLM). Mientras que un programa de computadora tradicional siempre producirá el mismo resultado para la misma entrada, una IA opera de una manera más probabilística y menos determinista. Para tareas creativas, esta variabilidad puede ser un beneficio. Pero en lo que respecta a la exactitud de los hechos, la coherencia y la confiabilidad profesional, presenta un problema grave y generalizado.
La IA es inherentemente inconsistente, ¿por qué?
Una IA no es una base de datos. No busca un hecho y lo dispara. En cambio, genera texto prediciendo la siguiente palabra más probable en una secuencia basada en grandes cantidades de datos de entrenamiento. Este proceso probabilístico es lo que le da a la IA sus habilidades creativas y conversacionales, pero también es la causa fundamental de su imprevisibilidad. La IA realmente no puede “saber” ni predecir, ni ahora ni en el corto plazo.
Varios factores técnicos contribuyen a esto:
• Generación probabilística: una IA opera de una manera más probabilística y menos determinista. Este comportamiento de “caja negra” significa que incluso sus creadores no siempre pueden identificar el motivo exacto de un resultado específico, ya que las decisiones del modelo se basan en patrones complejos aprendidos de sus vastos datos de entrenamiento. Para tareas creativas, esta variabilidad puede ser un beneficio. Pero en lo que respecta a la exactitud de los hechos, la coherencia y la confiabilidad profesional, presenta un problema grave y generalizado.
• Sesiones nuevas, contexto nuevo: cada vez que inicias un chat nuevo, le estás dando a la IA un contexto nuevo. El modelo no recuerda tu conversación anterior, lo que significa que comienza desde cero, lo que puede llevar a una línea de pensamiento diferente.
• Ajuste y aleatoriedad: los desarrolladores de IA utilizan parámetros como “temperatura” para controlar la aleatoriedad de la salida del modelo. Incluso con indicaciones idénticas, estas configuraciones garantizan un cierto grado de variación natural en las respuestas.
EL COSTO EN EL MUNDO REAL DEL CAMBIO DE MENTE DE LA IA
Tanto para los usuarios como para las empresas, esta inconsistencia inherente no es sólo una molestia; es un factor de riesgo importante.
• Erosión de la confianza: si un asistente de IA proporciona información diferente en diferentes ocasiones, los usuarios rápidamente pierden confianza en su confiabilidad. Esto es particularmente perjudicial en contextos de servicio al cliente, legales o médicos, donde la exactitud de los hechos es absolutamente no negociable.
• Las alucinaciones persisten: incluso con las indicaciones más cuidadosamente elaboradas, la IA sigue siendo propensa a “alucinar”, generar información falsa o afirmar que la información no existe cuando existe. Esto se debe a que el modelo está diseñado para producir una respuesta que suene plausible incluso cuando carece de un alto nivel de confianza. La ingeniería inmediata y la experiencia en la materia pueden ayudar, pero no pueden eliminar este comportamiento por completo.
• Pesadillas de depuración: para los ingenieros que construyen sistemas de IA, los resultados inconsistentes hacen que sea casi imposible depurar o verificar la calidad del modelo de manera efectiva. Sin una línea de base predecible, es difícil saber qué está causando un error o si el modelo realmente está mejorando. Los ingenieros pueden ser sobresalientes, pero no tienen forma de saber si los datos son precisos (o por qué), porque no son expertos en la materia. E incluso los expertos en la materia pueden estar en desacuerdo, algo que los ingenieros no pueden discernir. En última instancia, esto lo convierte en un producto defectuoso.
• Riesgos legales y financieros: en campos de alto riesgo como las finanzas y el derecho, basar decisiones en una IA inconsistente puede tener consecuencias desastrosas. Un consejo que un día es válido pero que al día siguiente se contradice podría provocar pérdidas económicas o responsabilidad legal y médica.
¿QUÉ PUEDES HACER AL RESPECTO?
Mitigar la imprevisibilidad inherente a la IA es un objetivo importante para los desarrolladores. Si bien es posible que una IA perfectamente determinista no sea posible para todas las tareas, estas son algunas de las estrategias que se emplean:
• Ingeniería de indicaciones avanzada: técnicas como las indicaciones de “cadena de pensamiento”, en las que se le pide a la IA que “piense paso a paso”, pueden forzar una línea de razonamiento más estructurada y consistente. Sin embargo, sigue siendo muy contextual y requiere mucha personalización, lo que podría llevar a escenarios en los que “mi IA” sea mejor o diferente que “tu IA”.
• Parámetros controlados: para tareas que requieren alta confiabilidad, los desarrolladores pueden bajar la “temperatura” del modelo para reducir sus tendencias creativas e impredecibles. Pero al igual que con las indicaciones avanzadas, esto puede introducir inconsistencias entre las diferentes configuraciones del modelo.
• Sistemas de validación: muchas herramientas de inteligencia artificial ahora incorporan capas de validación automatizada para verificar la coherencia y el formato del resultado. Pero las preguntas cruciales persisten: ¿quién valida al validador y qué nivel de confianza se le puede asignar?
• Generación de recuperación aumentada (RAG): para tareas factuales, se puede instruir explícitamente a las IA para que recuperen información de un documento fuente específico y confiable, fundamentando efectivamente su respuesta y previniendo alucinaciones. Así es como lo uso normalmente, pero la realidad es que no soluciona el problema central; simplemente reduce su alcance.
• El ser humano en el circuito: en aplicaciones críticas, no hay sustituto para la supervisión humana. Una revisión de expertos suele ser la red de seguridad definitiva y más confiable para detectar errores e inconsistencias. Es una realidad fundamental que la IA no sustituye a la experiencia humana.
¿AHORA QUÉ?
La variabilidad de la IA es a la vez su fortaleza y su debilidad. Nos brinda resultados creativos y dinámicos, pero también introduce una falta de confiabilidad fundamental que debe abordarse para que la tecnología madure. Comprender esta inconsistencia inherente es el primer paso hacia la construcción de sistemas de IA que no sólo sean poderosos sino también confiables y predecibles. Más allá de ser conscientes, los usuarios y las empresas deben adquirir “alfabetización en IA”. La próxima vez que una IA le dé una respuesta diferente, sabrá que no está “cambiando de opinión”, es solo un recordatorio de la naturaleza compleja y probabilística de la tecnología detrás de la cortina. En última instancia, este cambio nos impone la responsabilidad de exigir sistemas de inteligencia artificial más responsables y reconocer que la supervisión humana y la experiencia en la materia son más valiosas que nunca.


Mónica Zlotogorski













