Monica Zlotogorski
En un artículo anterior, hablé del hecho de que la IA generativa nunca da la misma respuesta dos veces (incluso cuando usa el mismo mensaje). Pero los problemas con la IA no terminan ahí. A pesar de los avances muy publicitados en el poder computacional, la IA se está degradando en lugar de mejorar. Hemos llegado al punto en el que el único validador confiable de los resultados de la IA no es la propia IA, sino el experto en el dominio (el ser humano).
¿Qué quiero decir con eso?
Si utiliza la IA para buscar algo que ya conoce, podrá detectar claramente sus (muchos) errores. Pero cuando no sabes la respuesta (que es precisamente cuando más buscas la ayuda de la IA) eres 100% vulnerable a aceptar “malas respuestas” como válidas o verdaderas, sin ninguna (o poca) capacidad para detectar el error. Ahí es precisamente cuando la IA Generativa parece inteligente, pero en realidad no lo es (o no tanto).
La IA se está volviendo menos confiable, más uniforme en sus resultados y cada vez más divorciada de la realidad fundamentada del mundo real. Entonces, si gradualmente descubres que los resultados que obtienes de la IA están empeorando, relájate, estás perfectamente cuerdo. Si no notó la degradación, es simplemente porque está buscando ayuda de la IA fuera de su área de especialización, por lo que simplemente no tiene forma de saber si es malo (o qué tan malo es). Eso es todo.
Pero, seamos claros, no estamos pasando por un momento de “puede pasar, pero podemos arreglarlo”; porque el problema es 100% fundamental: la IA utiliza datos malos o deficientes, pero no sabe que lo hace, y ya está mostrando fuertes señales de un “colapso del modelo” fundamental, que es la degradación que ocurre cuando las IA se entrenan cada vez más con sus propios datos sintéticos (creados por la propia IA).
Algunas predicciones de expertos sugirieron que, para mediados de 2025, el 90% de todo el contenido de Internet podría generarse mediante IA (“La crisis de calidad de Internet: cuando todo está generado por IA, nada tiene valor”, citado por Digital Literacy Licence). Bueno, ya estamos en 2026. Pero digamos simplemente que el número es enorme.
El hecho es que la IA generativa se ha creado para priorizar la fluidez y la probabilidad estadística sobre la verdad objetiva, del mundo real y fundamentada. Este proceso genera información que suena plausible (aparentemente objetiva) que bien puede ser (y a menudo es) inventada.
¿Son útiles las herramientas de detección de datos sintéticos?
No, a menudo están atrapados en una “carrera armamentista” con los generadores, luchan por mantener el ritmo y el factor humano sigue siendo el filtro más confiable (o quizás el único). Un experto puede detectar los defectos, pero un novato está en riesgo (a veces no, pero siempre). Hasta que la IA pueda lograr un recuerdo perfecto de los hechos (no sucederá pronto), debe ser tratada no como una fuente definitiva de verdad, sino como un asistente de investigación cuyas afirmaciones requieren una verificación humana crítica.
Si alguien intenta venderle, digamos, una “herramienta de IA cerrada” patentada bajo la presunción de que es mucho más confiable (digamos, una herramienta de investigación basada en IA), bueno, no lo es. Tienen los mismos problemas intrínsecos. La única diferencia es que la entrada proviene de “conversaciones” (interacciones) del cliente o usuario. Es posible que dichas conversaciones no se realicen en Internet, pero esa es la única diferencia y ciertamente no mejora la herramienta ni justifica el costo.
¿Por qué?
Porque intentar detectar y eliminar datos sintéticos es, en última instancia, un esfuerzo inútil. También utilizan los mismos modelos, y las cuestiones fundamentales de la calidad y la confianza de los datos siguen sin abordarse. También significa que cada vez que hablas con esa IA, tú (ya sea anónimo o no) te conviertes en una fuente de datos (por lo que consumes tus propios datos autogenerados, así como los datos generados por tus propios compañeros de trabajo y otros pares de la industria, las mismas personas que están pasando por tus mismos problemas para resolverlos y resolverlos).
Luego viene la otra cuestión, ¿quién interpreta los datos? ¿Tienen competencia real en el mundo real o van a amplificar el problema porque los datos que usarían son los que provienen de la IA? Recordemos que toda la premisa sobre las implementaciones de IA se basa en el mito de que una empresa puede reducir costos (incluido el personal) porque “la IA puede hacerlo todo bien”, ¿verdad?
Antes de concluir:
• Un estudio del Instituto Metr encontró que los desarrolladores experimentados de código abierto que utilizan herramientas de codificación de IA 2025 para completar tareas específicas en realidad tardaron un 19% más que aquellos que no usaron IA, pero se percibieron erróneamente como entre un 20 y un 24% más rápidos, lo que resalta una brecha entre el rendimiento percibido y el real.
• Una encuesta realizada por la empresa de observabilidad de datos Monte Carlo encontró que, si bien el 91% de los profesionales están creando aplicaciones de IA, dos de cada tres (67%) no confían completamente en los datos sobre los que se basan esas aplicaciones.
¿Has tenido los mismos sentimientos últimamente? ¿Dónde está la productividad que nos prometieron? ¿Por qué, de repente, la IA generativa se está degradando hasta el punto de que las cosas tardan más? ¿Podemos confiar en los resultados de la IA o deberíamos empezar a verificarlo todo?
¿Soné un poco negativa? Bueno, en realidad soy extremadamente positiva:
Los seres humanos con conocimientos sólidos basados (y adquiridos) en el mundo real a través del trabajo duro y la dedicación (en lugar de “algún mundo sintético”) volverán y serán valorados nuevamente pronto.
Ahí lo tienes. Súper positiva.


Monica Zlotogorski













