La IA debe ser regulada pero es viable?

Un exejecutivo de Meta dijo lo que muchas empresas piensan en voz baja: si se respetan los derechos de autor, la IA colapsa. Mientras tanto, en Argentina circulan deepfakes políticos sin ley que los frene. ¿Hasta dónde puede avanzar la tecnología sin regulación?
• La inteligencia artificial se nutre de contenido sin permiso.
• En América Latina, el vacío legal favorece la desinformación.
The New York Times contra OpenAI: ¿el juicio que cambiará todo?
En Estados Unidos, The New York Times demandó a OpenAI y Microsoft por usar su contenido periodístico para entrenar inteligencia artificial sin autorización.
El caso fue aceptado por la justicia y se convirtió en un precedente legal clave. Si se comprueba que hubo violación de derechos, las big tech podrían enfrentar multas millonarias y una reestructuración del modelo de entrenamiento de IA.
Como ya analizamos en esta nota sobre ética y medios en la era digital, los modelos algorítmicos no son neutrales: también moldean el acceso a la verdad.
Un modelo que se alimenta de obras ajenas
“Respetar los derechos de autor sería inverosímil”. La frase, pronunciada por Nick Clegg, exjefe de asuntos globales de Meta, no fue un error. Refleja el pensamiento dominante en las grandes tecnológicas: sin acceso libre al contenido ajeno, no hay IA posible.

Los modelos actuales se entrenan con millones de obras culturales: textos, canciones, imágenes y videos creados por otras personas. Pero esa ingesta masiva ocurre sin autorización, sin reconocimiento y sin retribución. «No sé cómo se puede ir preguntando a todos primero. No veo cómo funcionaría»,
dijo Clegg en su participación en el Festival de Charleston, Clegg abordó la cuestión de si los artistas deberían poder excluir su trabajo del entrenamiento de IA, un tema que ha provocado
un acalorado debate en el Parlamento británico en las últimas semanas.
Cuando innovar se parece a apropiarse
Las big tech argumentan que consultar a cada creador sería inviable. Pero artistas, periodistas, escritores y académicos replican que no hacerlo es lisa y llanamente una forma de saqueo digital.
La ética y la legalidad colisionan en este modelo. ¿Cómo construir tecnología verdaderamente humana si su origen es la desposesión? El conflicto no es técnico, es político.
Reino Unido rechazó proteger a los creadores
Una propuesta que buscaba mayor transparencia en el uso de obras protegidas fue recientemente rechazada por el Parlamento británico, pese al apoyo de referentes como Paul McCartney, Elton John y Dua Lipa.
El argumento fue que regular frenaría la innovación. Pero la pregunta que incomoda es otra: ¿quién se beneficia del crecimiento cuando no hay reglas? El modelo actual favorece a quienes tienen capacidad tecnológica, no a quienes crean valor cultural.
Cuando la desregulación impacta en democracia: el caso Macri
En Argentina, el vacío legal ya mostró su cara. Durante la campaña electoral 2023, se viralizó un video deepfake de Mauricio Macri, que el sitio Chequeado expresó como resguardar a la población de la desinformación que había sido manipulado con IA para simular una declaración pública.
El video fue falso, pero circuló por redes durante días y obligó a la Justicia Electoral a intervenir.
La desinformación digital es ya una herramienta electoral. Y la falta de regulación la convierte en una estrategia impune.
Regular no es frenar: es decidir qué futuro queremos
Las declaraciones de Clegg, lejos de ser una excepción, ponen en palabras lo que muchas empresas practican silenciosamente: avanzar sin reglas, hasta que alguien las imponga.
Pero regular no significa frenar el desarrollo. Significa definir los límites de lo posible, lo justo y lo humano en un mundo digital.
La IA puede ser una herramienta extraordinaria si está al servicio del bien común. Pero para eso, necesita un marco legal claro, instituciones que la controlen y una ciudadanía que no renuncie a sus derechos.