Leo S. Lo*

La inteligencia artificial se puede utilizar de innumerables maneras, y los dolores de cabeza éticos que plantea también son incontables.

Considera a los “creadores de contenido para adultos”, que no son necesariamente el primer campo que te viene a la mente. En 2024, hubo un aumento de los influencers generados por IA en Instagram: modelos falsos con rostros hechos por IA, adjuntos a fotos y videos robados de cuerpos de modelos reales. Los creadores de contenido original no solo no dieron su consentimiento para que se usaran sus imágenes, sino que no fueron compensados.

En todas las industrias, los trabajadores se enfrentan a preguntas éticas más inmediatas sobre si usar la IA todos los días. En un juicio realizado por el bufete de abogados Ashurst, con sede en el Reino Unido, tres sistemas de IA aceleraron drásticamente la revisión de documentos, pero pasaron por alto sutiles matices legales que los abogados experimentados captarían. Del mismo modo, los periodistas deben equilibrar la eficiencia de la IA para resumir la investigación de antecedentes con el rigor requerido por los estándares de verificación de hechos.

Estos ejemplos ponen de manifiesto la creciente tensión entre innovación y ética. ¿Qué deben los usuarios de IA a los creadores cuyo trabajo constituye la columna vertebral de esas tecnologías? ¿Cómo navegamos en un mundo en el que la IA desafía el significado de la creatividad y el papel de los humanos en ella?

Como decano que supervisa las bibliotecas universitarias, los programas académicos y la prensa universitaria, soy testigo a diario de cómo los estudiantes, el personal y el profesorado se enfrentan a la IA generativa. Observar tres escuelas diferentes de ética puede ayudarnos a ir más allá de las reacciones viscerales para abordar preguntas centrales sobre cómo usar las herramientas de IA con honestidad e integridad.

Derechos y deberes

En esencia, la ética deontológica se pregunta cuáles son los deberes fundamentales que las personas tienen entre sí: lo que está bien o mal, independientemente de las consecuencias.

Aplicado a la IA, este enfoque se centra en los derechos y obligaciones básicos. A través de esta lente, debemos examinar no solo lo que la IA nos permite hacer, sino también qué responsabilidades tenemos hacia otras personas en nuestras comunidades profesionales.

Por ejemplo, los sistemas de IA a menudo aprenden analizando vastas colecciones de obras creadas por humanos, lo que desafía las nociones tradicionales de los derechos creativos. Un fotógrafo cuyo trabajo se utilizó para entrenar un modelo de IA podría cuestionar si su trabajo ha sido apropiado sin una compensación justa, si se ha violado su propiedad básica de su propio trabajo.

Por otro lado, la ética deontológica también enfatiza los deberes positivos de las personas hacia los demás, responsabilidades que ciertos programas de IA pueden ayudar a cumplir. La organización sin fines de lucro Tarjimly tiene como objetivo utilizar una plataforma impulsada por IA para conectar a los refugiados con traductores voluntarios. La herramienta de IA de la organización también proporciona traducción en tiempo real, que los voluntarios humanos pueden revisar para verificar su precisión.


El cofundador de Tarjimly, Atif Javed, presenta su aplicación en la Cumbre de Impacto de Google el 4 de septiembre de 2024 en Sunnyvale, California. AP Photo/Juliana Yamada

Este doble enfoque en el respeto de los derechos de los creadores y el cumplimiento de los deberes para con otras personas ilustra cómo la ética deontológica puede guiar el uso ético de la IA.

Implicaciones de la IA

Otro enfoque proviene del consecuencialismo, una filosofía que evalúa las acciones por sus resultados. Esta perspectiva cambia el enfoque de los derechos y responsabilidades de las personas a los efectos más amplios de la IA. ¿Justifican las posibles ventajas de la IA generativa el impacto económico y cultural? ¿La IA está promoviendo la innovación a expensas de los medios de vida creativos?

Esta tensión ética de sopesar los beneficios y los daños impulsa los debates y las demandas actuales. Organizaciones como Getty Images han emprendido acciones legales para proteger el trabajo de los colaboradores humanos de la formación no autorizada en IA. Algunas plataformas que utilizan la IA para crear imágenes, como DeviantArt y Shutterstock, están ofreciendo a los artistas opciones para optar por no participar o recibir una compensación, un cambio hacia el reconocimiento de los derechos creativos en la era de la IA.

Las implicaciones de la adopción de la IA van mucho más allá de los derechos de los creadores individuales y podrían remodelar fundamentalmente las industrias creativas. Los sectores de la edición, el entretenimiento y el diseño se enfrentan a una automatización sin precedentes, que podría afectar a los trabajadores a lo largo de todo el proceso de producción, desde la conceptualización hasta la distribución.

Estas interrupciones han provocado una resistencia significativa. En 2023, por ejemplo, los sindicatos de guionistas y actores iniciaron huelgas que paralizaron las producciones de Hollywood.
Sin embargo, un enfoque consecuencialista nos obliga a mirar más allá de las amenazas económicas inmediatas, o de los derechos y responsabilidades de las personas, para examinar el impacto social más amplio de la IA. Desde esta perspectiva más amplia, el consecuencialismo sugiere que las preocupaciones sobre los daños sociales deben equilibrarse con los posibles beneficios sociales.


La atención médica y el desarrollo de fármacos se beneficiarán de la IA, pero no sin problemas. cofotoisme/E+ vía Getty Images

Las sofisticadas herramientas de IA ya están transformando campos como la investigación científica, acelerando el descubrimiento de fármacos y las soluciones al cambio climático. En la educación, la IA apoya el aprendizaje personalizado para los estudiantes con dificultades. Las pequeñas empresas y los empresarios de las regiones en desarrollo ahora pueden competir a nivel mundial accediendo a capacidades de nivel profesional que antes estaban reservadas para las empresas más grandes.

Incluso los artistas deben sopesar los pros y los contras del impacto de la IA: no es solo negativo. La IA ha dado lugar a nuevas formas de expresar la creatividad, como la música y las artes visuales generadas por la IA. Estas tecnologías permiten composiciones complejas y visuales que pueden ser difíciles de producir a mano, lo que lo convierte en un colaborador especialmente valioso para los artistas con discapacidades.

Personaje para la era de la IA

La ética de la virtud, el tercer enfoque, se pregunta cómo el uso de la IA da forma a quiénes se convierten los usuarios como profesionales y personas. A diferencia de los enfoques que se centran en las reglas o las consecuencias, este marco se centra en el carácter y el juicio.

Casos recientes ilustran lo que está en juego. La confianza de un abogado en las citas legales generadas por la IA dio lugar a sanciones judiciales, lo que pone de manifiesto cómo la automatización puede erosionar la diligencia profesional. En el sector de la salud, el descubrimiento de prejuicios raciales en los chatbots de IA médica obligó a los proveedores a enfrentarse a cómo la automatización podría comprometer su compromiso con la atención equitativa.

Estos fracasos revelan una verdad más profunda: dominar la IA requiere cultivar el buen juicio. La integridad profesional de los abogados exige que verifiquen las afirmaciones generadas por la IA. El compromiso de los médicos con el bienestar del paciente requiere cuestionar las recomendaciones de la IA que podrían perpetuar el sesgo. Cada decisión de usar o rechazar herramientas de IA da forma no solo a los resultados inmediatos, sino también al carácter profesional.

Los trabajadores individuales a menudo tienen un control limitado sobre cómo sus lugares de trabajo implementan la IA, por lo que es aún más importante que las organizaciones profesionales desarrollen pautas claras. Además, las personas necesitan espacio para mantener la integridad profesional dentro de las reglas de sus empleadores para ejercer su propio buen juicio.

Más allá de preguntarse “¿Puede la IA realizar esta tarea?”, las organizaciones deben considerar cómo su implementación podría afectar el juicio y la práctica profesional de los trabajadores. En este momento, la tecnología está evolucionando más rápido que la sabiduría colectiva en su uso, lo que hace que la reflexión deliberada y la práctica impulsada por la virtud sean más esenciales que nunca.

Trazando un camino a seguir

Cada uno de estos tres marcos éticos ilumina diferentes aspectos del dilema de la IA en nuestra sociedad.

El pensamiento basado en los derechos pone de relieve nuestras obligaciones para con los creadores cuyo trabajo entrena sistemas de IA. El consecuencialismo revela tanto los beneficios más amplios de la democratización de la IA como sus posibles amenazas, incluso para los medios de vida creativos. La ética de la virtud muestra cómo las decisiones individuales sobre la IA dan forma no solo a los resultados, sino también al carácter profesional.

En conjunto, estas perspectivas sugieren que el uso ético de la IA requiere algo más que nuevas directrices. Requiere repensar cómo se valora el trabajo creativo.

El debate sobre la IA a menudo se siente como una batalla entre la innovación y la tradición. Pero este encuadre pasa por alto el verdadero desafío: desarrollar enfoques que honren tanto la creatividad humana como el progreso tecnológico y les permitan mejorarse mutuamente. En esencia, ese equilibrio depende de los valores.

*Decano y Profesor de la Facultad de Bibliotecas Universitarias y Ciencias del Aprendizaje de la Universidad de Nuevo México

Declaración de divulgación

Leo S. Lo está afiliado a la Asociación de Bibliotecas Universitarias y de Investigación (ACRL).