Sobre la legalidad, la moralidad y la equidad de la IA generativa

 


Sobre la legalidad, la moralidad y la equidad de la IA generativa

 

por: Shahriar Shahrabi



12 minutos de lectura

·

Agosto 2025 en Medium.com


Fuente: https://shahriyarshahrabi.medium.com/on-legality-morality-and-fairness-of-generative-ai-b631b734f954


Traducido con ayuda de Google translate



A medida que los modelos de IA generativa siguen mejorando, cada uno de nosotros, tanto creadores como consumidores de contenido, se enfrenta a una decisión: ¿Deberíamos usarlos? ¿Deberíamos consumir el contenido que ellos crean?


 


Mucha gente ya ha tomado una decisión por diversas razones (algunas de las cuales exploraremos aquí). Pero sea cual sea su postura, he observado que gran parte del discurso tiende a confundir justicia, legalidad y moralidad, a menudo usándolos indistintamente. Personalmente, me ha resultado útil establecer distinciones claras entre ellos, porque uno no implica necesariamente al otro. Algo moral puede ser ilegal, los resultados justos pueden ser inmorales y lo inmoral puede seguir siendo legal. Dado que estos tres son independientes entre sí, se puede imaginar prácticamente cualquier combinación.


Analizar la IA generativa desde la perspectiva de la moralidad, la legalidad y la justicia puede ayudarnos a pensar con más claridad, a debatirla con mayor eficacia y a comprender mejor las decisiones de quienes nos rodean. Si bien esta publicación no pretende posicionarme, sino compartir algunas de las reflexiones que me han ayudado a tomar mi propia decisión, me gustaría mencionar brevemente mi postura, en aras de la transparencia.


Llevo pintando unos 13 años. Durante ese tiempo, he dedicado miles de horas a crear cientos de pinturas, estudiando y practicando los fundamentos, desde la anatomía y la perspectiva hasta la iluminación y la texturización. He recopilado más de 200 libros de arte que abarcan teoría del arte, producción cinematográfica y de animación, y el repertorio de diversos artistas, desde maestros fallecidos hace mucho tiempo hasta creadores independientes vivos. También he dedicado un número similar de horas a aprender por mi cuenta modelado, escultura, texturizado y animación 3D.


En cuanto a la programación, mi trayectoria ha sido igualmente compleja: ha abarcado desde la programación de juegos y gráficos hasta la escritura de mi propio motor de juego personalizado en C++.


Todo esto quiere decir: no tengo nada que ganar económicamente con la IA generativa. Hasta ahora, lo único que ha hecho es reducir mi valor de mercado como trabajador. No tengo acciones de Nvidia, no trabajo en una startup de IA y no voy a "ir a la luna".


Dicho esto, uso IA generativa a diario, alojada en mi PC local, con diversos modelos y flujos de trabajo de código abierto. También he empezado a desarrollar herramientas y flujos de trabajo de código abierto enfocados en resolver problemas específicos de desarrollo de videojuegos. Desde la programación hasta el texturizado y el modelado, utilizo la IA como herramienta para apoyar mi proceso creativo.


Comencemos con la equidad, ya que —esperemos— es el concepto más fácil de aceptar.


– Sobre la equidad


La IA generativa requiere cantidades masivas de datos para su entrenamiento. Estos datos se obtienen de un amplio grupo de personas sin su consentimiento y sin ningún tipo de compensación. Mientras los propietarios de laboratorios y empresas de IA se lucran con esto, muchos de los artistas cuyo trabajo se utilizó para entrenar estos modelos ven reducidos sus salarios. Esto amenaza su estabilidad laboral y su capacidad para pagar hipotecas y mantenerse a sí mismos y a sus familias. Esperemos que todos tengan claro que esto es fundamentalmente injusto.


Si entrenáramos modelos solo con el trabajo de los voluntarios y de los que murieron hace mucho tiempo, aún tendríamos IA generativa, pero la amplitud y profundidad de sus resultados no se acercarían a lo que vemos hoy.


Por otro lado, la equidad es un concepto muy subjetivo, especialmente en situaciones de suma cero, donde la ganancia de una persona se produce a expensas de otra. Los mismos datos extraídos que impulsan algoritmos generativos y grandes modelos de lenguaje se integran ahora en una amplia gama de casos de uso: desde el autodiagnóstico de enfermedades que podrían haber pasado desapercibidas, hasta los coches autónomos, el plegamiento de proteínas, la categorización de pepinos y, por supuesto, el entretenimiento. Para quienes se benefician de estos avances, la situación puede parecer perfectamente justa.


Curiosamente, la conversación suele estancarse en este preciso punto: en torno a la justicia. Quienes se benefician con frecuencia no reconocen que, para quienes han pasado décadas dominando una habilidad, esto puede parecer un juego de suma cero donde corren el riesgo de perder mucho. Mientras tanto, quienes se sienten perjudicados a menudo no reconocen en qué medida sus emociones influyen en sus opiniones sobre la IA generativa, incluyendo su funcionamiento, sus capacidades y qué es o no legal o moral.


Le pregunté a un amigo —alguien que detesta profundamente la IA generativa— si , en principio, le parecería bien que alguien desarrollara un modelo que pudiera hacer todo lo que hacen los modelos actuales, pero sin usar datos de entrenamiento de terceros. Su respuesta fue negativa: seguiría siendo un insulto a la humanidad.


Aunque estaba planteando un argumento más filosófico, a mí me sonó más bien a: “No, todavía tengo mucho que perder por eso”.


– Sobre la legalidad


La legalidad es una cuestión política. Lo que se convierte en ley tiene más que ver con los sistemas políticos y sus incentivos que con cualquier sentido objetivo de lo correcto o lo incorrecto. Contrariamente a lo que algunos creen, nuestros marcos legales actuales no están bien preparados para gestionar la IA, porque no se diseñaron con ella en mente.


Si nuestros sistemas políticos deciden que la IA generativa no sirve, entonces se vuelve ilegal. La verdadera pregunta es: ¿ lo harán?


Para nuestros propósitos, podemos dividir el panorama actual en sistemas colectivistas y democracias liberales.


Los sistemas colectivistas buscan centralizar la toma de decisiones para lograr una mayor eficiencia en una dirección específica. Desde el socialismo y el comunismo hasta el fascismo, todos los sistemas centralizados se han enfrentado históricamente a dos problemas clave especialmente relevantes en este contexto: la sobrecarga de información y el control. Estos desafíos a menudo los han hecho menos eficaces en comparación con las democracias liberales.


Vale la pena señalar que al agrupar ideologías tan diferentes como el comunismo y el fascismo, me refiero específicamente a estructuras de autoridad centralizadas, independientemente de su alineación ideológica.


En la toma de decisiones centralizada, un organismo central tiene la autoridad para decidir cómo deben hacerse las cosas. El problema es que este organismo a menudo carece de la información necesaria para tomar decisiones bien fundamentadas. Por eso, los sistemas centralizados invierten mucho esfuerzo en llevar la información a donde reside la autoridad.


El reverso de este proceso es el problema del control. Una vez tomadas las decisiones, es necesario comunicarlas a todos los componentes del sistema y luego supervisarlas para garantizar que se ejecuten según lo previsto. Huelga decir que ambos procesos son extremadamente costosos y, hasta el momento de la historia de la humanidad, en gran medida ineficaces.


La IA generativa y el aprendizaje automático son una bendición para ambos problemas. Estos modelos actúan como sistemas de control generalizados y como tablas de búsqueda sofisticadas que pueden resumir grandes cantidades de información y presentarla de forma diferente según las necesidades específicas del problema.


Hasta donde sé, es improbable que los sistemas políticos colectivistas rechacen esta tecnología. De hecho, uno de los principales motores del crecimiento de la IA actualmente es China. Se espera que se establezcan mecanismos de control y censura, pero no una oposición abierta. China ya ha comenzado este proceso, creando identificaciones digitales para los ciudadanos como parte de un plan más amplio para mapear todas las actividades en línea e industriales a individuos y roles¹.


Por otro lado, las democracias se presentan en dos variantes. Algunas tienen sus raíces en las tradiciones jurídicas francesa y germánica, con un fuerte énfasis en el legalismo, conocido como derecho civil. Otras derivan de las tradiciones británicas, conocidas como derecho consuetudinario.


En ninguno de estos sistemas las leyes actuales son suficientes para que los tribunales sepan exactamente cómo manejar la IA. En los países con sistemas de derecho civil, la legislación es muy necesaria para tomar decisiones claras, pero esto tardará mucho en llegar. Por ejemplo, volé drones durante una década sobre sitios de patrimonio cultural sensibles antes de que la UE finalmente se pusiera al día con la tecnología y aprobara las regulaciones adecuadas.


Por otro lado, los países de derecho consuetudinario pueden interpretar las leyes existentes para abordar nuevas cuestiones. Esto significa que la legalidad o ilegalidad de la IA en una jurisdicción determinada suele depender de la opinión de unos pocos jueces. Hasta la fecha, se han dictado sentencias de gran repercusión, como el caso Meta vs. Authors group, con resultados confusos, como decidir que entrenar a la IA no era ilegal, pero conservar los datos sí lo era.


En cualquier caso, para cuando gremios, sindicatos, empresas y grupos de presión hayan agotado el proceso de apelación —recurrir la apelación de la apelación— y hayan escalado el asunto hasta la Corte Suprema, podría tardar una década o más. Es mucho más probable que, para entonces, los órganos legislativos hayan aprobado nuevas leyes dirigidas específicamente a la IA. La pregunta sigue siendo: ¿la apoyarán o la restringirán?


Hay buenas razones para creer que los políticos podrían estar en contra de la IA. Esta tecnología es extremadamente impopular entre ciertos grupos de interés, como los creadores y los trabajadores del conocimiento, lo cual es un argumento clásico para los populistas que buscan apoyo. Pero, por lo que sé, hay aún más razones por las que nuestros sistemas finalmente apoyarán la IA.


La primera razón, y quizás la más sencilla, es la geopolítica. Si China no prohíbe la IA para proteger a ciertos grupos de interés, sus rivales políticos tampoco podrán hacerlo. La carrera por la IA ya es cosa del pasado al momento de escribir este artículo, y una de las pocas políticas consistentes que se han mantenido durante las presidencias de Trump, Biden y ahora Trump ha sido el control de los chips de IA. Además, la gran cantidad de modelos generativos que pueden ejecutarse en GPU de consumo locales dificulta la aplicación de cualquier prohibición.


En segundo lugar, está uno de los mayores problemas que enfrenta el mundo desarrollado: el envejecimiento de la población. Hay tres soluciones principales para este problema, y la automatización y la optimización son una de ellas. Si cree que la IA es políticamente impopular, debería considerar las otras dos.


El primero es aumentar la edad de jubilación. Cada vez que alguien menciona esa idea, se incendian cubos de basura en París y alguien acaba siendo golpeado con una baguette.


La segunda es la inmigración. El único lugar que puede cubrir la escasez de mano de obra en las próximas décadas es África, donde vivirán unos 600 millones de personas que buscan trabajo y que sus economías locales no pueden proporcionar.³ Para adaptarse a esto, las democracias liberales deben empezar ya con programas de formación, procesos de integración y la desregulación de las políticas migratorias. Pero dado el auge del sentimiento antiextranjero y la extrema derecha en todas partes, es más probable que esta mano de obra necesaria reciba el cierre de fronteras, no folletos sobre cómo empezar a trabajar.


Para los administradores y burócratas profundamente preocupados por el aumento constante de vacantes, el incremento del gasto público y la reducción de la fuerza laboral, nada suena más dulce que "¡esta tecnología me dejará sin trabajo"!


Por último, pero no menos importante, está la rentabilidad. En las democracias liberales, el lucro es sagrado, y nada ha prometido semejantes beneficios desde… prácticamente desde siempre.


¿Significa eso que la UE no intentará frenar la IA? No tengo ni idea, pero apuesto a que no lo harán. Y si lo hacen, las consecuencias secundarias de tal acción podrían ser mucho peores para los trabajadores de estas economías de lo que cabría esperar.


– Sobre la moral


Hay diferentes maneras de ver la moral. Mis tres favoritas son la psicología/biología kantiana, la utilitarista y la evolutiva. La ética kantiana se basa en principios universales: si todos actuaran de la misma manera, ¿tendría sentido moral la acción? El utilitarismo es un juego de números: lo moral es el mayor bien para el mayor número de personas. Las perspectivas evolutivas consideran que la moral se basa en comportamientos que históricamente mejoraron la cohesión, la supervivencia y el éxito reproductivo del grupo.


Si bien estos tres ofrecen diferentes maneras de definir lo moral, comparten algo importante: la moral se trata del largo plazo: de lo desconocido. Mentir podría no causarte daño inmediato ni a ti ni a quienes te rodean, pero si todos mintieran, la sociedad dejaría de funcionar. Si haces algo bueno por ti mismo y entiendes por qué y cómo, no estás siendo moral; pero si no lo haces, podrías estar actuando insensatamente. Si haces algo bueno por los demás a tu costa y puedes ver inmediatamente por qué y cómo, eso podría ser simplemente una acción amoral. Esto significa que, dentro de tu sistema de valores, algo tiene mayor importancia que tu propio bienestar.


La moralidad se trata de una visión global: cuando te alejas de ti y de mí, más allá de nuestras limitadas vidas, necesidades y deseos. Se adentra en territorio no solo desconocido, sino incognoscible. Hasta ahora, el registro a largo plazo de nuestro pasado ha sido un buen predictor de los efectos secundarios que ciertas acciones podrían tener. Pero la razón por la que la moral y la fe están tan estrechamente vinculadas es que, en el mejor de los casos, especulamos sobre lo que podría ser en lugar de razonar con precisión lo que será . Incluso nuestro registro del pasado ofrece poca ayuda en este sentido. ¡El panorama de lo que significa ser humano está cambiando a un ritmo vertiginoso!


No sé si ya hemos llegado a un punto en el que ciertas ideas ya no son válidas, pero sí sé que llegará ese momento. Al fin y al cabo, para cuando el sol se extinga, si seguimos evolucionando genéticamente, nuestros descendientes serán tan biológicamente diferentes de nosotros como nosotros de las bacterias. Dudo mucho que compartan nuestra opinión sobre los derechos de autor, por ejemplo.


Así que, en algún momento, debo haberme perdido un memorando o una reunión. Al ver el discurso en línea, todos parecen estar muy seguros de qué es moral y qué no. Yo no lo estoy. Pero aquí hay algunos argumentos sólidos que se aplican en ambos sentidos.


La IA generativa y el contenido generado por IA están transformando internet en algo completamente nuevo. Ya no se sabe qué es verdad, quién es real, y cosas que parecen y suenan plausibles podrían ser exactamente lo opuesto a la realidad. ¿Qué efecto tendrá esto en nuestra sociedad: en el conocimiento, los valores y el discurso?


¿Qué tal entretenimiento sin límites, diseñado especialmente para ti? Tan estimulante que el TikTok de hoy parece aburrido en comparación. ¿Qué le sucede a nuestra sociedad en un mundo más allá de la cultura pop, donde hay tanta información pero ya nada se comparte realmente?


Si el costo de oportunidad de no disfrutar del entretenimiento que viene es perderse una dosis fácil de dopamina, ¿qué podría competir? ¿Quién tendrá la autodisciplina suficiente para seguir haciendo las cosas que se ha demostrado durante siglos como esenciales para la condición humana: el aburrimiento, la perseverancia, la incomodidad y el dolor?


¿Y qué hay de la razón por la que tenemos derechos de autor? Valoramos lo que la gente crea; es un incentivo para crear. Pero ¿seguirá alguien creando en un mundo donde nadie vea ni aprecie su trabajo? ¿De qué se alimentarán entonces estos modelos? ¿De un ciclo interminable de compresión con pérdida?


Todos estos son argumentos razonables, aunque no necesariamente ciertos ni inevitables. Porque, por otro lado, es fácil ver cómo esta tecnología podría beneficiarnos colectivamente. La IA generativa puede ayudar a mejorar nuestra calidad de vida, curar más enfermedades, automatizar tareas tediosas y fomentar la autoformación.


Hablo cuatro idiomas, y aprender un quinto con ChatGPT será mucho más fácil que el proceso al que estoy acostumbrado. Leer un trabajo de investigación me llevaba dos semanas de trabajo duro con jerga técnica, comparando otros artículos y separando las citas innecesarias de las cruciales. Ahora puedo hacerlo en dos días. Tareas que antes me llevaban días codificar, ahora puedo terminarlas en horas.


El hecho de que estos aumentos de productividad puedan ayudarnos como especie es al menos tan probable como el desastre moral que describí antes.



– Reflexiones finales


La IA generativa es una tecnología profundamente injusta para quienes crean profesionalmente. En mi opinión, es más probable que no se considere ilegal, y no sé si esto significa nuestra ruina moral o un futuro prometedor.


En base a esto, me parece que el futuro del entretenimiento está profundamente ligado a la IA generativa.Esa es la razón principal por la que trato de usarlo tanto como puedo: para comprender sus limitaciones y determinar dónde todavía puedo aportar valor, si es que todavía queda algún valor por aportar.Si quieres leer más sobre esto, no dudes en consultar una de mis publicaciones anteriores . Para cuando me jubile, ¿le importará algo de esto a alguien que nunca ha conocido un internet sin IA?


O tal vez no. Quizás estemos a una factura gigantesca de que Bruselas considere todo esto una pésima idea, y podamos guardar este capítulo en favoritos y ver cómo lo aborda el resto del mundo.


Como siempre, gracias por leer. Puedes seguirme en mis redes sociales: https://ircss.github.io/


Recursos

Actualización Biométrica (25 de julio de 2025). Los planes de identificación en línea de China podrían inspirar regímenes autoritarios, según organizaciones de derechos humanos . https://www.biometricupdate.com/202502/chinas-online-id-plans-could-inspire-authoritarian-regimes-say-human-rights-groups

. Business Standard (25 de julio de 2025). Identificación digital, vigilancia y censura en China: Control estatal bajo Xi Jinping . https://www.business-standard.com/world-news/china-digital-id-surveillance-censorship-state-control-xi-jinping-125072500926_1.html

The Guardian. (26 de junio de 2025). Meta gana una demanda por derechos de autor de IA tras fallo de un juez estadounidense en contra de los autores . https://www.theguardian.com/technology/2025/jun/26/meta-wins-ai-copyright-lawsuit-as-us-judge-rules-against-authors

FMI. (Marzo de 2016). Historia de dos demografías . Finanzas y Desarrollo, Fondo Monetario Internacional. https://www.imf.org/external/pubs/ft/fandd/2016/03/thakoor.htm

Herramientas de IA generativa


Desarrollo de juegos

Diseño

Programación

Tecnología





Shahriar Shahrabi

Escrito por Shahriar Shahrabi


Líder creativo en Realities io, Artista técnico


Comentarios

Entradas más populares de este blog

La Serie 'Adolescencia': Un Llamado a la Reflexión en el Proceso de Aprendizaje

¡Curipod IA: Transforma tus clases en experiencias interactivas y memorables!

¿Qué es la Educación en un Mundo con Inteligencia Artificial? - Por Dan Fitzpatrick, traducido y adaptado para NTPAMX con la IA de Deepseek.