Corte Suprema del Reino Unido: la IA no puede ser acreditada como inventor

Corte Suprema del Reino Unido: la IA no puede ser acreditada como inventor

(24 de diciembre, 2023).Actualmente, la legislación de patentes de Estados Unidos no permite que los sistemas de Inteligencia Artificial (IA) sean reconocidos como inventores en las patentes. Las normativas vigentes establecen que solo los seres humanos pueden ser considerados inventores.

Un caso destacado en la jurisprudencia reciente es el de Thaler v. Vidal (PDF), donde se ratificó que la IA no puede ser listada como «inventor» a efectos de obtener una patente. Aquí los razonamientos:

  1. Evolución de la IA en Patentes: La historia de la IA ha sido documentada a través de las patentes, reflejando su evolución y el creciente interés en esta tecnologí​a.

  2. IA Mejorando la Eficiencia de las Oficinas de Patentes: La IA ha demostrado ser efectiva para aumentar la eficiencia en la gestión de solicitudes de patentes, reduciendo retrasos y mejorando la calidad del proceso de revisión​.

  3. IA en Análisis de Patentes: La utilización de IA en el análisis de patentes ha revolucionado las estrategias de propiedad intelectual, ofreciendo nuevas maneras de interpretar y manejar grandes cantidades de datos de patente​.

  4. Protección de Sistemas de IA a través de Patentes: Existe un interés creciente en proteger los sistemas de IA mediante patentes de invención, lo cual plantea desafíos únicos y oportunidades para la legislación de propiedad intelectua​l.

  5. Desafíos en Propiedad Intelectual Debido a la IA: Con el auge de la IA, surgen desafíos en cuanto a la propiedad intelectual, especialmente en términos de definir la autoría y la invención en contextos donde las máquinas pueden imitar o competir en actividades intelectual.

  6. IA en Análisis de Competidores y Patentes: La IA también se utiliza para analizar patentes y competidores, proporcionando una ventaja significativa en el mercado al mantenerse actualizado con las tendencias y desarrollos en diversos campo​.

Este análisis refleja la interacción dinámica entre la IA y el campo de las patentes, mostrando tanto su impacto en la eficiencia operativa como los desafíos emergentes en la propiedad intelectual.

___________________________________________
Imagen: MM con insumos de Pixabay.

Europa produce la primera regulación de IA en el mundo: Démosle un vistazo

Europa produce la primera regulación de IA en el mundo: Démosle un vistazo

(11 de diciembre, 2023). La UE finalmente acordó un borrador para la Ley de IA, la primera gran legislación sobre inteligencia artificial. El boletín Neuron Daily reporta que esencialmente es una lista de lo que se debe y no se debe hacer, con la idea general de asegurar que las empresas de IA de «alto riesgo» no exploten a los consumidores o, peor aún, destruyan su mundo.

Un enfoque clave de la Ley es prohibir usos de IA como el raspado facial («face scrapping» o uso no autorizado de retratos de personas) en internet, la puntuación social o la categorización biométrica, algo así como escenarios al estilo de Black Mirror (una serie de TV que presenta un futuro distópico).

Sin embargo, la parte más jugosa es que hay nuevas regulaciones para los grandes modelos fundamentales de IA. Hasta ahora, el funcionamiento interno de modelos mayores como GPT-4 ha sido una caja negra completa. Bajo las nuevas regulaciones de la UE, estos grandes modelos fundamentales necesitarán:

  • Revelar documentación técnica.
  • Ofrecer resúmenes detallados de sus datos de entrenamiento.
  • Cumplir con la ley de derechos de autor de la UE, que algunos argumentan es un completo punto muerto.

El incumplimiento podría resultar en sanciones severas: hasta 35 millones de euros o el 7% del volumen de negocios global… PSA: Estas reglas apuntan principalmente a «modelos de código cerrado».

Los modelos de código abierto, o sea, IA que está disponible gratuitamente para construir, recibieron «exenciones amplias», una victoria para empresas como Meta y startups europeas como Mistral y Aleph Alpha.

Por qué es importante: Silicon Valley a menudo no reacciona bien a la regulación, y la visión predominante es que la Ley de IA es, en el mejor de los casos, excesivamente amplia y vaga y, en el peor, un abuso de autoridad que matará la innovación en IA en Europa y la trasladará por completo a EE. UU.

Una pregunta que surge: ¿Las empresas como OpenAI realmente actuarán sobre amenazas anteriores de cesar operaciones en la UE por completo con la aprobación de la Ley de IA?

Extractos de National Geographic

De un artículo de Sergio Parra:

Este acuerdo, alcanzado antes de las elecciones europeas de 2024, revela la importancia y la urgencia de regular un campo tan expansivo y potencialmente disruptivo como la IA.

(…) El camino hacia este acuerdo no ha sido fácil, marcado por negociaciones extensas y debates intensos, culminando en dos sesiones maratonianas de 22 y 14 horas respectivamente. Este esfuerzo mancomunado entre el Parlamento Europeo y el Consejo de la UE, aunque aún provisional, subraya un avance crucial en la legislación sobre IA, aunque su implementación plena no se espera hasta finales de 2026.

La Ley de Inteligencia Artificial, conocida como IA Act, se presentó por primera vez en abril de 2021. La presidenta de la Comisión Europea, Ursula von der Leyen, ha enfatizado el valor y las posibilidades que abre esta nueva ley. Centrándose en los «riesgos identificables», la normativa busca equilibrar la seguridad y los derechos humanos con el impulso a la innovación. La clasificación de la IA según el riesgo que representa es una de sus claves, con categorías que van desde «riesgo mínimo» hasta «riesgo inaceptable».

Uno de los aspectos más controvertidos ha sido el uso de sistemas de identificación biométrica, dadas sus implicaciones en el control gubernamental y los derechos ciudadanos. Tras intensas negociaciones, se han establecido límites y condiciones estrictas para su uso, especialmente en contextos de vigilancia policial.

La ley también incide en los modelos generativos de IA, como ChatGPT, introduciendo reglas específicas para garantizar la transparencia y la gestión de riesgos. El Parlamento Europeo ha logrado imponer obligaciones más estrictas para los modelos de «alto impacto», que incluyen evaluaciones de riesgos, informes de incidentes y garantías de ciberseguridad.

__________________________________________________
Imagen: MM con DALL-E.

Verified by MonsterInsights