Corte Suprema del Reino Unido: la IA no puede ser acreditada como inventor

Corte Suprema del Reino Unido: la IA no puede ser acreditada como inventor

(24 de diciembre, 2023).Actualmente, la legislación de patentes de Estados Unidos no permite que los sistemas de Inteligencia Artificial (IA) sean reconocidos como inventores en las patentes. Las normativas vigentes establecen que solo los seres humanos pueden ser considerados inventores.

Un caso destacado en la jurisprudencia reciente es el de Thaler v. Vidal (PDF), donde se ratificó que la IA no puede ser listada como «inventor» a efectos de obtener una patente. Aquí los razonamientos:

  1. Evolución de la IA en Patentes: La historia de la IA ha sido documentada a través de las patentes, reflejando su evolución y el creciente interés en esta tecnologí​a.

  2. IA Mejorando la Eficiencia de las Oficinas de Patentes: La IA ha demostrado ser efectiva para aumentar la eficiencia en la gestión de solicitudes de patentes, reduciendo retrasos y mejorando la calidad del proceso de revisión​.

  3. IA en Análisis de Patentes: La utilización de IA en el análisis de patentes ha revolucionado las estrategias de propiedad intelectual, ofreciendo nuevas maneras de interpretar y manejar grandes cantidades de datos de patente​.

  4. Protección de Sistemas de IA a través de Patentes: Existe un interés creciente en proteger los sistemas de IA mediante patentes de invención, lo cual plantea desafíos únicos y oportunidades para la legislación de propiedad intelectua​l.

  5. Desafíos en Propiedad Intelectual Debido a la IA: Con el auge de la IA, surgen desafíos en cuanto a la propiedad intelectual, especialmente en términos de definir la autoría y la invención en contextos donde las máquinas pueden imitar o competir en actividades intelectual.

  6. IA en Análisis de Competidores y Patentes: La IA también se utiliza para analizar patentes y competidores, proporcionando una ventaja significativa en el mercado al mantenerse actualizado con las tendencias y desarrollos en diversos campo​.

Este análisis refleja la interacción dinámica entre la IA y el campo de las patentes, mostrando tanto su impacto en la eficiencia operativa como los desafíos emergentes en la propiedad intelectual.

___________________________________________
Imagen: MM con insumos de Pixabay.

Examinemos la realidad de trabajadores humanos vs IA en EE. UU.

Examinemos la realidad de trabajadores humanos vs IA en EE. UU.

(17 de diciembre, 2023). ¿Qué porcentaje de compañías en EE. UU. sustituirán empleados de carne y hueso con IA? Una investigación de campo de Career Builder ubica el porcentaje en al menos 1 de cada 3, es decir, un sólido 33%. Estamos hablando de un tercio de empleos que pasarían a sistemas computacionales y, por tanto, un equivalente a buscar empleos en otra parte (si los encuentran).

¿Cambiará la IA el futuro del trabajo? Sí, aunque no sepamos aún el cómo y, sobre todo, el impacto en el status quo. Continúan las conversaciones sobre cómo la inteligencia artificial (IA) cambiará el futuro del trabajo. Para saber cómo los líderes empresariales creen que la tecnología afectará a sus empresas, en noviembre ResumeBuilder encuestó a 750 líderes empresariales de empresas que actualmente o planean utilizar IA en 2024.

Resultados clave:

  • El 53% de las empresas utiliza IA y el 24% planea comenzar en 2024.
  • El 37% de las empresas que utilizan IA dicen que la tecnología reemplazó a los trabajadores este año.
  • El 44% de las empresas encuestadas dice que la IA provocará despidos en 2024.
  • El 96% de las empresas que contratan en 2024 dicen que los candidatos se beneficiarán de tener habilidades en IA.
  • El 83% dice que las habilidades de IA ayudarán a los empleados actuales a conservar sus puestos de trabajo.
  • 4 de cada 10 empresas dicen que es probable que la IA reemplace a los empleados en 2024
  • Un 53% de las empresas utilizan actualmente IA y el 24% planea comenzar en 2024.

De las empresas que actualmente utilizan IA, el 37% dice que los trabajadores fueron despedidos en 2023 porque ya no eran necesarios debido al uso de IA por parte de la empresa.

En 2024, el 44% de las empresas que utilizan la IA o planean hacerlo el próximo año dicen que los empleados definitivamente (21%) o probablemente (23%) serán despedidos debido al uso de la IA.

 Los empleadores toman nota

Muchos gerentes avalan estos resultados porque han observado y sopesado las tendencias, además la IA ya ha convencido a un porcentaje de gerentes y tomadores de decisiones, y parece que la cantidad no me sorprenden en absoluto y creo que este artículo creará conciencia entre quienes se oponen a la IA en su campo o profesión», dice ResumeBuilder, estratega profesional Julie Toothacre. Sugeriría que nuestro personal considere todos los aspectos de su empleo y lo que puede ser asumido por la IA.

A la pregunta «¿El uso de la IA por parte de su empresa provocará el despido de trabajadores en 2024?»:

21% Definitivamente
23% Probablemente
29% Probablemente no
20% Definitivamente no
9% No está seguro

Pero lo que parece ser definitivo es que 96% de las empresas buscarán trabajadores con habilidades en IA. Dice el reporte:

El noventa y uno por ciento de las empresas que utilizan o planean comenzar a utilizar la IA en 2024 contratarán nuevos empleados el próximo año, y el 96% dice que será muy beneficioso (65%) o algo beneficioso (31%) que los candidatos tengan experiencia con la IA.

Además, el 83% de este mismo grupo dice que los empleados que tienen habilidades en IA definitivamente (45%) o probablemente (38%) tendrán más seguridad laboral en su empresa que aquellos que no las tienen.

El reporte completo, en inglés, puede verse en:
https://www.resumebuilder.com/1-in-3-companies-will-replace-employees-with-ai-in-2024

_____________________________________________
Imagen: MM con insumos de Pixabay.

En el Medio Oriente la IA llega con Israel

En el Medio Oriente la IA llega con Israel

(12 de diciembre, 2023). Las Fuerzas de Defensa de Israel (IDF) han utilizado la tecnología de inteligencia artificial (IA) en sus operaciones contra Hamas. Según The Times of Israel, la Dirección de Inteligencia Militar de las IDF utilizó la IA para identificar nuevos objetivos dentro de la Franja de Gaza. Este centro multidisciplinario produjo cientos de objetivos relevantes que correspondían con los desarrollos en el combate, permitiendo al ejército mantener un combate prolongado con un número creciente de nuevos objetivos.

El Jerusalem Post detalló cómo el uso de IA y supercomputación por parte de las IDF tuvo un impacto significativo en sus operaciones. Ayudó a acortar la duración del conflicto al habilitar una recopilación de objetivos rápida y efectiva. Las IDF ejecutaron numerosos ataques contra Hamas y la Yihad Islámica Palestina (PIJ), apuntando a elementos variados como lanzadores de cohetes, oficinas de inteligencia militar y residencias de comandantes.

La IA también jugó un papel crucial en la detección de cambios en el terreno en tiempo real, ayudando en la identificación de posiciones de lanzamiento. Esta tecnología fue fundamental para que las IDF mapearan y posteriormente dañaran la red de túneles subterráneos de Hamas, un componente central de su estrategia de combate.

Al Jazeera discutió las implicaciones del uso reportado de IA por parte de Israel en la guerra de Gaza, resaltando preocupaciones sobre el impacto potencial en las poblaciones civiles en Gaza. Hubo discusiones sobre cómo esta tecnología podría expandir la lista de posibles objetivos y si podría llevar a un aumento de bajas.

Un artículo de Yahoo News proporcionó perspectivas sobre cómo la IA, si se ejecuta correctamente, podría ayudar a minimizar el daño colateral. Las IDF supuestamente usaron la IA para mejorar el apuntamiento de operadores y facilidades de Hamas, buscando hacer el proceso de apuntamiento más ágil y ejecutable. Esta utilización de IA y herramientas de aprendizaje automático se vio como una forma de acelerar la identificación y revisión de objetivos, con la supervisión humana permaneciendo como una parte crítica del proceso.

Estas fuentes juntas proporcionan una visión integral de cómo la tecnología de IA ha sido integrada en las operaciones militares por las IDF, resaltando tanto las ventajas estratégicas como las consideraciones éticas involucradas.

_____________________________________________
Imagen: MM con DALL-E.

Europa produce la primera regulación de IA en el mundo: Démosle un vistazo

Europa produce la primera regulación de IA en el mundo: Démosle un vistazo

(11 de diciembre, 2023). La UE finalmente acordó un borrador para la Ley de IA, la primera gran legislación sobre inteligencia artificial. El boletín Neuron Daily reporta que esencialmente es una lista de lo que se debe y no se debe hacer, con la idea general de asegurar que las empresas de IA de «alto riesgo» no exploten a los consumidores o, peor aún, destruyan su mundo.

Un enfoque clave de la Ley es prohibir usos de IA como el raspado facial («face scrapping» o uso no autorizado de retratos de personas) en internet, la puntuación social o la categorización biométrica, algo así como escenarios al estilo de Black Mirror (una serie de TV que presenta un futuro distópico).

Sin embargo, la parte más jugosa es que hay nuevas regulaciones para los grandes modelos fundamentales de IA. Hasta ahora, el funcionamiento interno de modelos mayores como GPT-4 ha sido una caja negra completa. Bajo las nuevas regulaciones de la UE, estos grandes modelos fundamentales necesitarán:

  • Revelar documentación técnica.
  • Ofrecer resúmenes detallados de sus datos de entrenamiento.
  • Cumplir con la ley de derechos de autor de la UE, que algunos argumentan es un completo punto muerto.

El incumplimiento podría resultar en sanciones severas: hasta 35 millones de euros o el 7% del volumen de negocios global… PSA: Estas reglas apuntan principalmente a «modelos de código cerrado».

Los modelos de código abierto, o sea, IA que está disponible gratuitamente para construir, recibieron «exenciones amplias», una victoria para empresas como Meta y startups europeas como Mistral y Aleph Alpha.

Por qué es importante: Silicon Valley a menudo no reacciona bien a la regulación, y la visión predominante es que la Ley de IA es, en el mejor de los casos, excesivamente amplia y vaga y, en el peor, un abuso de autoridad que matará la innovación en IA en Europa y la trasladará por completo a EE. UU.

Una pregunta que surge: ¿Las empresas como OpenAI realmente actuarán sobre amenazas anteriores de cesar operaciones en la UE por completo con la aprobación de la Ley de IA?

Extractos de National Geographic

De un artículo de Sergio Parra:

Este acuerdo, alcanzado antes de las elecciones europeas de 2024, revela la importancia y la urgencia de regular un campo tan expansivo y potencialmente disruptivo como la IA.

(…) El camino hacia este acuerdo no ha sido fácil, marcado por negociaciones extensas y debates intensos, culminando en dos sesiones maratonianas de 22 y 14 horas respectivamente. Este esfuerzo mancomunado entre el Parlamento Europeo y el Consejo de la UE, aunque aún provisional, subraya un avance crucial en la legislación sobre IA, aunque su implementación plena no se espera hasta finales de 2026.

La Ley de Inteligencia Artificial, conocida como IA Act, se presentó por primera vez en abril de 2021. La presidenta de la Comisión Europea, Ursula von der Leyen, ha enfatizado el valor y las posibilidades que abre esta nueva ley. Centrándose en los «riesgos identificables», la normativa busca equilibrar la seguridad y los derechos humanos con el impulso a la innovación. La clasificación de la IA según el riesgo que representa es una de sus claves, con categorías que van desde «riesgo mínimo» hasta «riesgo inaceptable».

Uno de los aspectos más controvertidos ha sido el uso de sistemas de identificación biométrica, dadas sus implicaciones en el control gubernamental y los derechos ciudadanos. Tras intensas negociaciones, se han establecido límites y condiciones estrictas para su uso, especialmente en contextos de vigilancia policial.

La ley también incide en los modelos generativos de IA, como ChatGPT, introduciendo reglas específicas para garantizar la transparencia y la gestión de riesgos. El Parlamento Europeo ha logrado imponer obligaciones más estrictas para los modelos de «alto impacto», que incluyen evaluaciones de riesgos, informes de incidentes y garantías de ciberseguridad.

__________________________________________________
Imagen: MM con DALL-E.

Pregunta seria: ¿Puede la IA crear seres digitales que tengan su propia conciencia y agenda?

Pregunta seria: ¿Puede la IA crear seres digitales que tengan su propia conciencia y agenda?

(27 de noviembre, 2023, con información de GeekWire). ¿La inteligencia artificial va a estar al servicio de la humanidad o va a dar paso a nuevas especies de seres digitales conscientes con su propia movida?

Es una pregunta que ha inspirado un montón de historias de ciencia ficción, desde “Colossus: The Forbin Project” en 1970, hasta “The Matrix” en 1999, y la peli de este año donde la IA se enfrenta a los humanos, “The Creator”.

La misma pregunta también estaba rondando en el lío de liderazgo de OpenAI — donde el CEO Sam Altman se impuso sobre los miembros del consejo sin fines de lucro que lo habían despedido una semana antes.

Si tuvieras que dividir a la comunidad de IA entre los que quieren acelerar y los que prefieren ir más despacio, esos miembros del consejo estarían en el grupo del “vamos con calma”, mientras que Altman sería de los que dicen “a todo gas”. Y ha habido rumores sobre la posibilidad de un “descubrimiento” en OpenAI que aceleraría el campo de la IA a toda máquina — tal vez demasiado rápido para nuestro propio bien.

¿Debería preocuparnos la idea de que la IA se vuelva consciente y tome cartas en el asunto? Esa es solo una de las preguntas que aborda el veterano escritor de ciencia George Musser en un libro recién publicado titulado “Poniéndonos de nuevo en la ecuación”.

Musser entrevistó a investigadores de IA, neurocientíficos, físicos cuánticos y filósofos para entender la búsqueda de uno de los misterios más profundos de la vida: ¿Cuál es la naturaleza de la conciencia? ¿Y es un fenómeno exclusivamente humano?

¿Su conclusión? No hay razón para que la IA adecuada no pueda ser tan consciente como nosotros. “Casi todos los que piensan en esto, en todos estos campos diferentes, dicen que si replicáramos una neurona en silicio — si creáramos una computadora neuromórfica que fuera muy, pero que muy fiel a la biología — sí, sería consciente”, dice Musser en el último episodio del podcast Fiction Science.

Pero, ¿deberíamos preocuparnos por permitir el ascenso de futuros señores de la IA? En esa pregunta existencial, la opinión de Musser va contra el guion típico de ciencia ficción.

“Creo que las máquinas tontas, las máquinas no conscientes, como se ha demostrado en el mundo actual, son extremadamente peligrosas y bastante capaces de aniquilar a la humanidad. Las máquinas conscientes no añaden ninguna capacidad particular que, al menos en mi opinión, aumente su peligro para la humanidad”, dice.

“Si acaso, creo que probablemente el peligro sea al contrario: que nosotros las maltratemos”, dice Musser. “Eso también es parte, por desgracia, de la historia de los seres humanos. Tendemos a maltratar, hasta que superamos eso, a seres que claramente son conscientes.”

Las capacidades de herramientas de IA generativa como el ChatGPT de OpenAI no son una gran sorpresa para aquellos que investigan en el campo — pero Musser dice que los investigadores se han sorprendido de lo rápido que se están desarrollando.

Compara el progreso en IA con el progreso en la fusión nuclear. “Es una de esas cosas que siempre parece estar en el futuro, ¿verdad?” dice. Pero en el caso de la IA, el futuro parece estar menos lejos.

“Adelanta el cronograma en la mente de muchas personas para lo que se conoce como AGI”, dice Musser. “Eso es inteligencia general artificial, y es un sistema que es capaz de una amplia gama de funciones, de aprender sobre la marcha. Básicamente un sustituto más cercano de un animal, o incluso de un cerebro humano, o incluso superhumano. Así que creo que ha acelerado las cosas, pero ha sido un cambio cuantitativo, no cualitativo para la gente.”

__________________________________________________
Imágenes: MM con imágenes de Pixabay.

EE. UU. regula la Inteligencia Artificial

EE. UU. regula la Inteligencia Artificial

Texto completo del decreto que EE. UU. ha emitido respecto a la Inteligencia Artificial:

HOJA INFORMATIVA: El presidente Biden emite una orden ejecutiva sobre inteligencia artificial segura y confiable

Hoy, el presidente Biden emite una Orden Ejecutiva histórica para garantizar que Estados Unidos lidere el camino a la hora de hacer realidad la promesa y gestionar los riesgos de la inteligencia artificial (IA). La Orden Ejecutiva establece nuevos estándares para la seguridad de la IA, protege la privacidad de los estadounidenses, promueve la equidad y los derechos civiles, defiende a los consumidores y trabajadores, promueve la innovación y la competencia, promueve el liderazgo estadounidense en todo el mundo y más.

Como parte de la estrategia integral de la Administración Biden-Harris para la innovación responsable, la Orden Ejecutiva se basa en acciones anteriores que el Presidente ha tomado, incluido el trabajo que condujo a compromisos voluntarios de 15 empresas líderes para impulsar el desarrollo seguro y confiable de la IA.

La Orden Ejecutiva dirige las siguientes acciones:

Nuevos estándares para la seguridad de la IA

A medida que crecen las capacidades de la IA, también crecen sus implicaciones para la seguridad de los estadounidenses. Con esta Orden Ejecutiva, el Presidente dirige las acciones más radicales jamás tomadas para proteger a los estadounidenses de los riesgos potenciales de los sistemas de IA:

Exigir que los desarrolladores de los sistemas de inteligencia artificial más potentes compartan los resultados de sus pruebas de seguridad y otra información crítica con el gobierno de EE. UU. De acuerdo con la Ley de Producción de Defensa, la Orden requerirá que las empresas que desarrollen cualquier modelo de base que represente un riesgo grave para la seguridad nacional, la seguridad económica nacional o la salud y seguridad públicas nacionales notifiquen al gobierno federal cuando entrenen el modelo, y deben compartir los resultados de todas las pruebas de seguridad del equipo rojo. Estas medidas garantizarán que los sistemas de IA sean seguros y confiables antes de que las empresas los hagan públicos.

Desarrollar estándares, herramientas y pruebas para ayudar a garantizar que los sistemas de IA sean seguros y confiables. El Instituto Nacional de Estándares y Tecnología establecerá estándares rigurosos para pruebas exhaustivas del equipo rojo para garantizar la seguridad antes de su divulgación al público. El Departamento de Seguridad Nacional aplicará esos estándares a sectores de infraestructura críticos y establecerá la Junta de Seguridad de IA. Los Departamentos de Energía y Seguridad Nacional también abordarán las amenazas de los sistemas de inteligencia artificial a la infraestructura crítica, así como los riesgos químicos, biológicos, radiológicos, nucleares y de ciberseguridad. En conjunto, estas son las acciones más importantes jamás tomadas por cualquier gobierno para avanzar en el campo de la seguridad de la IA.

Proteger contra los riesgos del uso de IA para diseñar materiales biológicos peligrosos mediante el desarrollo de nuevos estándares sólidos para la detección de síntesis biológica. Las agencias que financian proyectos de ciencias biológicas establecerán estos estándares como condición para la financiación federal, creando poderosos incentivos para garantizar una detección adecuada y gestionar los riesgos potencialmente empeorados por la IA.

Proteger a los estadounidenses del fraude y el engaño habilitados por la IA estableciendo estándares y mejores prácticas para detectar contenido generado por IA y autenticar el contenido oficial. El Departamento de Comercio desarrollará una guía para la autenticación de contenido y la creación de marcas de agua para etiquetar claramente el contenido generado por IA. Las agencias federales utilizarán estas herramientas para que los estadounidenses sepan fácilmente que las comunicaciones que reciben de su gobierno son auténticas y darán ejemplo al sector privado y a los gobiernos de todo el mundo.

Establecer un programa de ciberseguridad avanzado para desarrollar herramientas de inteligencia artificial para encontrar y corregir vulnerabilidades en software crítico, basándose en el actual desafío cibernético de inteligencia artificial de la administración Biden-Harris. En conjunto, estos esfuerzos aprovecharán las capacidades cibernéticas potencialmente revolucionarias de la IA para hacer que el software y las redes sean más seguros.

Ordenar el desarrollo de un Memorando de Seguridad Nacional que dirija acciones adicionales sobre IA y seguridad, que será desarrollado por el Consejo de Seguridad Nacional y el Jefe de Gabinete de la Casa Blanca. Este documento garantizará que la comunidad militar y de inteligencia de los Estados Unidos utilice la IA de forma segura, ética y eficaz en sus misiones, y dirigirá acciones para contrarrestar el uso militar de la IA por parte de los adversarios.

Proteger la privacidad de los estadounidenses

  • Sin salvaguardias, la IA puede poner aún más en riesgo la privacidad de los estadounidenses. La IA no sólo facilita la extracción, identificación y explotación de datos personales, sino que también aumenta los incentivos para hacerlo porque las empresas utilizan datos para entrenar sistemas de IA. Para proteger mejor la privacidad de los estadounidenses, incluso frente a los riesgos que plantea la IA, el Presidente pide al Congreso que apruebe una legislación bipartidista sobre privacidad de datos para proteger a todos los estadounidenses, especialmente a los niños, y dirige las siguientes acciones:
  • Proteger la privacidad de los estadounidenses priorizando el apoyo federal para acelerar el desarrollo y el uso de técnicas que preserven la privacidad, incluidas aquellas que utilizan IA de vanguardia y que permiten entrenar sistemas de IA preservando al mismo tiempo la privacidad de los datos de entrenamiento.
  • Fortalecer la investigación y las tecnologías que preservan la privacidad, como las herramientas criptográficas que preservan la privacidad de las personas, financiando una Red de Coordinación de Investigación para avanzar en avances y desarrollo rápidos. La National Science Foundation también trabajará con esta red para promover la adopción de tecnologías de vanguardia para preservar la privacidad por parte de las agencias federales.
  • Evaluar cómo las agencias recopilan y utilizan la información disponible comercialmente (incluida la información que obtienen de los intermediarios de datos) y fortalecer la orientación sobre privacidad para que las agencias federales tengan en cuenta los riesgos de la IA. Este trabajo se centrará en particular en la información disponible comercialmente que contenga datos de identificación personal.
  • Desarrollar directrices para que las agencias federales evalúen la eficacia de las técnicas de preservación de la privacidad, incluidas las utilizadas en los sistemas de inteligencia artificial. Estas directrices impulsarán los esfuerzos de la agencia para proteger los datos de los estadounidenses.
  • Proteger la privacidad de los estadounidenses priorizando el apoyo federal para acelerar el desarrollo y el uso de técnicas— que preserven la privacidad, incluidas aquellas que utilizan IA de vanguardia y que permiten entrenar sistemas de IA preservando al mismo tiempo la privacidad de los datos de entrenamiento.

     

  • Fortalecer la investigación y las tecnologías que preservan la privacidad, como las herramientas criptográficas que preservan la privacidad de las personas, financiando una Red de Coordinación de Investigación para avanzar en avances y desarrollo rápidos. La National Science Foundation también trabajará con esta red para promover la adopción de tecnologías de vanguardia para preservar la privacidad por parte de las agencias federales.

     

  • Evaluar cómo las agencias recopilan y utilizan la información disponible comercialmente (incluida la información que obtienen de los intermediarios de datos) y fortalecer la orientación sobre privacidad para que las agencias federales tengan en cuenta los riesgos de la IA. Este trabajo se centrará en particular en la información disponible comercialmente que contenga datos de identificación personal.

     

  • Desarrollar directrices para que las agencias federales evalúen la eficacia de las técnicas de preservación de la privacidad, incluidas las utilizadas en los sistemas de inteligencia artificial. Estas directrices impulsarán los esfuerzos de la agencia para proteger los datos de los estadounidenses.

Promoción de la equidad y los derechos civiles

Los usos irresponsables de la IA pueden provocar y profundizar la discriminación, los prejuicios y otros abusos en la justicia, la atención sanitaria y la vivienda. La Administración Biden-Harris ya ha tomado medidas al publicar el Plan para una Declaración de Derechos de la IA y emitir una Orden Ejecutiva que ordena a las agencias combatir la discriminación algorítmica, al tiempo que hace cumplir las autoridades existentes para proteger los derechos y la seguridad de las personas. Para garantizar que AI promueva la equidad y los derechos civiles, el Presidente ordena las siguientes acciones adicionales:

  • Proporcionar orientación clara a los propietarios, los programas de beneficios federales y los contratistas federales para evitar que los algoritmos de IA se utilicen para exacerbar la discriminación.

     

  • Abordar la discriminación algorítmica mediante capacitación, asistencia técnica y coordinación entre el Departamento de Justicia y las oficinas federales de derechos civiles sobre las mejores prácticas para investigar y procesar violaciones de derechos civiles relacionadas con la IA.

     

  • Garantizar la equidad en todo el sistema de justicia penal mediante el desarrollo de mejores prácticas sobre el uso de la IA en la sentencia, la libertad condicional y la libertad vigilada, la libertad y detención preventivas, las evaluaciones de riesgos, la vigilancia, la previsión de delitos y la vigilancia policial predictiva, y el análisis forense.

Defender a los consumidores, pacientes y estudiantes

La IA puede aportar beneficios reales a los consumidores, por ejemplo, haciendo que los productos sean mejores, más baratos y más ampliamente disponibles. Pero la IA también aumenta el riesgo de herir, engañar o dañar de otro modo a los estadounidenses. Para proteger a los consumidores y al mismo tiempo garantizar que la IA pueda mejorar la situación de los estadounidenses, el Presidente dirige las siguientes acciones:

  • Impulsar el uso responsable de la IA en la atención sanitaria y el desarrollo de medicamentos asequibles y que salven vidas. El Departamento de Salud y Servicios Humanos también establecerá un programa de seguridad para recibir informes de daños o prácticas de atención médica inseguras que involucren IA y actuar para remediarlos.

  • Dar forma al potencial de la IA para transformar la educación mediante la creación de recursos para ayudar a los educadores a implementar herramientas educativas basadas en IA, como tutorías personalizadas en las escuelas.

Trabajadores de apoyo

La IA está cambiando los empleos y los lugares de trabajo en Estados Unidos, ofreciendo tanto la promesa de una mayor productividad como los peligros de una mayor vigilancia, prejuicios y desplazamiento laboral en el lugar de trabajo. Para mitigar estos riesgos, apoyar la capacidad de los trabajadores para negociar colectivamente e invertir en capacitación y desarrollo de la fuerza laboral que sea accesible para todos, el Presidente dirige las siguientes acciones:

  • Desarrollar principios y mejores prácticas para mitigar los daños y maximizar los beneficios de la IA para los trabajadores abordando el desplazamiento laboral; normas laborales; equidad, salud y seguridad en el lugar de trabajo; y recopilación de datos. Estos principios y mejores prácticas beneficiarán a los trabajadores al brindarles orientación para evitar que los empleadores compensen insuficientemente a los trabajadores, evalúen las solicitudes de empleo de manera injusta o afecten la capacidad de los trabajadores para organizarse.

     

  • Producir un informe sobre los posibles impactos de la IA en el mercado laboral y estudiar e identificar opciones para fortalecer el apoyo federal a los trabajadores que enfrentan interrupciones laborales, incluidas las provocadas por la IA.

Promoción de la innovación y la competencia

Estados Unidos ya es líder en innovación en IA: más empresas emergentes de IA recaudaron capital por primera vez en Estados Unidos el año pasado que en los siete países siguientes juntos. La Orden Ejecutiva garantiza que sigamos liderando el camino en innovación y competencia a través de las siguientes acciones:

  • Catalizar la investigación de IA en todo Estados Unidos a través de una prueba piloto del National AI Research Resource, una herramienta que brindará a los investigadores y estudiantes de IA acceso a recursos y datos clave de IA, y subvenciones ampliadas para la investigación de IA en áreas vitales como la atención médica y el cambio climático.

     

  • Promover un ecosistema de IA justo, abierto y competitivo brindando a los pequeños desarrolladores y empresarios acceso a asistencia técnica y recursos, ayudando a las pequeñas empresas a comercializar avances en IA y alentando a la Comisión Federal de Comercio a ejercer sus autoridades.

     

  • Utilizar las autoridades existentes para ampliar la capacidad de inmigrantes y no inmigrantes altamente calificados con experiencia en áreas críticas para estudiar, permanecer y trabajar en los Estados Unidos modernizando y simplificando los criterios de visa, entrevistas y revisiones.

Impulsando el liderazgo estadounidense en el extranjero

Los desafíos y oportunidades de la IA son globales. La Administración Biden-Harris seguirá trabajando con otras naciones para apoyar el despliegue y el uso seguro y confiable de la IA en todo el mundo. Para tal efecto, el Presidente dirige las siguientes acciones:

  • Ampliar los compromisos bilaterales, multilaterales y de múltiples partes interesadas para colaborar en la IA. El Departamento de Estado, en colaboración con el Departamento de Comercio, liderará un esfuerzo para establecer marcos internacionales sólidos para aprovechar los beneficios de la IA, gestionar sus riesgos y garantizar la seguridad. Además, esta semana, el vicepresidente Harris hablará en la Cumbre del Reino Unido sobre seguridad de la IA, organizada por el primer ministro Rishi Sunak.

     

  • Acelerar el desarrollo y la implementación de estándares vitales de IA con socios internacionales y organizaciones de estándares, garantizando que la tecnología sea segura, confiable e interoperable.

     

  • Promover el desarrollo y el despliegue seguro, responsable y que afirme los derechos de la IA en el extranjero para resolver desafíos globales, como promover el desarrollo sostenible y mitigar los peligros para la infraestructura crítica.

Garantizar el uso gubernamental responsable y eficaz de la IA

La IA puede ayudar al gobierno a ofrecer mejores resultados para el pueblo estadounidense. Puede ampliar la capacidad de las agencias para regular, gobernar y desembolsar beneficios, y puede reducir costos y mejorar la seguridad de los sistemas gubernamentales. Sin embargo, el uso de la IA puede plantear riesgos, como discriminación y decisiones inseguras. Para garantizar el despliegue gubernamental responsable de la IA y modernizar la infraestructura federal de IA, el Presidente dirige las siguientes acciones:

  • Emitir orientación para el uso de la IA por parte de las agencias, incluidos estándares claros para proteger los derechos y la seguridad, mejorar la adquisición de IA y fortalecer la implementación de la IA.
  • Ayude a las agencias a adquirir productos y servicios de IA específicos de forma más rápida, económica y eficaz mediante una contratación más rápida y eficiente.

  • Acelerar la contratación rápida de profesionales de IA como parte de un aumento de talento en IA en todo el gobierno liderado por la Oficina de Gestión de Personal, el Servicio Digital de EE. UU., el Cuerpo Digital de EE. UU. y la Beca Presidencial de Innovación. Las agencias brindarán capacitación en IA a los empleados de todos los niveles en campos relevantes.

A medida que avancemos en esta agenda a nivel nacional, la Administración trabajará con aliados y socios en el extranjero en un marco internacional sólido para gobernar el desarrollo y el uso de la IA. La Administración ya ha consultado ampliamente sobre los marcos de gobernanza de la IA durante los últimos meses, colaborando con Australia, Brasil, Canadá, Chile, la Unión Europea, Francia, Alemania, India, Israel, Italia, Japón, Kenia, México, Países Bajos, Nueva Zelanda. Zelanda, Nigeria, Filipinas, Singapur, Corea del Sur, los Emiratos Árabes Unidos y el Reino Unido. Las acciones tomadas hoy apoyan y complementan el liderazgo de Japón en el Proceso de Hiroshima del G-7, la Cumbre del Reino Unido sobre Seguridad de la IA, el liderazgo de la India como Presidente de la Asociación Global sobre IA y los debates en curso en las Naciones Unidas.

Las acciones que el presidente Biden dirigió hoy son pasos vitales hacia adelante en el enfoque de Estados Unidos sobre una IA segura y confiable. Se necesitarán más acciones y la Administración seguirá trabajando con el Congreso para impulsar una legislación bipartidista que ayude a Estados Unidos a liderar el camino en innovación responsable.

Para obtener más información sobre el trabajo de la Administración Biden-Harris para promover la IA y oportunidades para unirse a la fuerza laboral federal de IA, visite AI.gov

___________________________________________
Imagen: MM.

Verified by MonsterInsights