(11 de diciembre, 2023). La UE finalmente acordó un borrador para la Ley de IA, la primera gran legislación sobre inteligencia artificial. El boletín Neuron Daily reporta que esencialmente es una lista de lo que se debe y no se debe hacer, con la idea general de asegurar que las empresas de IA de «alto riesgo» no exploten a los consumidores o, peor aún, destruyan su mundo.

Un enfoque clave de la Ley es prohibir usos de IA como el raspado facial («face scrapping» o uso no autorizado de retratos de personas) en internet, la puntuación social o la categorización biométrica, algo así como escenarios al estilo de Black Mirror (una serie de TV que presenta un futuro distópico).

Sin embargo, la parte más jugosa es que hay nuevas regulaciones para los grandes modelos fundamentales de IA. Hasta ahora, el funcionamiento interno de modelos mayores como GPT-4 ha sido una caja negra completa. Bajo las nuevas regulaciones de la UE, estos grandes modelos fundamentales necesitarán:

  • Revelar documentación técnica.
  • Ofrecer resúmenes detallados de sus datos de entrenamiento.
  • Cumplir con la ley de derechos de autor de la UE, que algunos argumentan es un completo punto muerto.

El incumplimiento podría resultar en sanciones severas: hasta 35 millones de euros o el 7% del volumen de negocios global… PSA: Estas reglas apuntan principalmente a «modelos de código cerrado».

Los modelos de código abierto, o sea, IA que está disponible gratuitamente para construir, recibieron «exenciones amplias», una victoria para empresas como Meta y startups europeas como Mistral y Aleph Alpha.

Por qué es importante: Silicon Valley a menudo no reacciona bien a la regulación, y la visión predominante es que la Ley de IA es, en el mejor de los casos, excesivamente amplia y vaga y, en el peor, un abuso de autoridad que matará la innovación en IA en Europa y la trasladará por completo a EE. UU.

Una pregunta que surge: ¿Las empresas como OpenAI realmente actuarán sobre amenazas anteriores de cesar operaciones en la UE por completo con la aprobación de la Ley de IA?

Extractos de National Geographic

De un artículo de Sergio Parra:

Este acuerdo, alcanzado antes de las elecciones europeas de 2024, revela la importancia y la urgencia de regular un campo tan expansivo y potencialmente disruptivo como la IA.

(…) El camino hacia este acuerdo no ha sido fácil, marcado por negociaciones extensas y debates intensos, culminando en dos sesiones maratonianas de 22 y 14 horas respectivamente. Este esfuerzo mancomunado entre el Parlamento Europeo y el Consejo de la UE, aunque aún provisional, subraya un avance crucial en la legislación sobre IA, aunque su implementación plena no se espera hasta finales de 2026.

La Ley de Inteligencia Artificial, conocida como IA Act, se presentó por primera vez en abril de 2021. La presidenta de la Comisión Europea, Ursula von der Leyen, ha enfatizado el valor y las posibilidades que abre esta nueva ley. Centrándose en los «riesgos identificables», la normativa busca equilibrar la seguridad y los derechos humanos con el impulso a la innovación. La clasificación de la IA según el riesgo que representa es una de sus claves, con categorías que van desde «riesgo mínimo» hasta «riesgo inaceptable».

Uno de los aspectos más controvertidos ha sido el uso de sistemas de identificación biométrica, dadas sus implicaciones en el control gubernamental y los derechos ciudadanos. Tras intensas negociaciones, se han establecido límites y condiciones estrictas para su uso, especialmente en contextos de vigilancia policial.

La ley también incide en los modelos generativos de IA, como ChatGPT, introduciendo reglas específicas para garantizar la transparencia y la gestión de riesgos. El Parlamento Europeo ha logrado imponer obligaciones más estrictas para los modelos de «alto impacto», que incluyen evaluaciones de riesgos, informes de incidentes y garantías de ciberseguridad.

__________________________________________________
Imagen: MM con DALL-E.

Verified by MonsterInsights