Corte Suprema del Reino Unido: la IA no puede ser acreditada como inventor
|
___________________________________________
Imagen: MM con insumos de Pixabay.
|
___________________________________________
Imagen: MM con insumos de Pixabay.
|
_____________________________________________
Imagen: MM con insumos de Pixabay.
(12 de diciembre, 2023). Las Fuerzas de Defensa de Israel (IDF) han utilizado la tecnología de inteligencia artificial (IA) en sus operaciones contra Hamas. Según The Times of Israel, la Dirección de Inteligencia Militar de las IDF utilizó la IA para identificar nuevos objetivos dentro de la Franja de Gaza. Este centro multidisciplinario produjo cientos de objetivos relevantes que correspondían con los desarrollos en el combate, permitiendo al ejército mantener un combate prolongado con un número creciente de nuevos objetivos. El Jerusalem Post detalló cómo el uso de IA y supercomputación por parte de las IDF tuvo un impacto significativo en sus operaciones. Ayudó a acortar la duración del conflicto al habilitar una recopilación de objetivos rápida y efectiva. Las IDF ejecutaron numerosos ataques contra Hamas y la Yihad Islámica Palestina (PIJ), apuntando a elementos variados como lanzadores de cohetes, oficinas de inteligencia militar y residencias de comandantes. La IA también jugó un papel crucial en la detección de cambios en el terreno en tiempo real, ayudando en la identificación de posiciones de lanzamiento. Esta tecnología fue fundamental para que las IDF mapearan y posteriormente dañaran la red de túneles subterráneos de Hamas, un componente central de su estrategia de combate. Al Jazeera discutió las implicaciones del uso reportado de IA por parte de Israel en la guerra de Gaza, resaltando preocupaciones sobre el impacto potencial en las poblaciones civiles en Gaza. Hubo discusiones sobre cómo esta tecnología podría expandir la lista de posibles objetivos y si podría llevar a un aumento de bajas. Un artículo de Yahoo News proporcionó perspectivas sobre cómo la IA, si se ejecuta correctamente, podría ayudar a minimizar el daño colateral. Las IDF supuestamente usaron la IA para mejorar el apuntamiento de operadores y facilidades de Hamas, buscando hacer el proceso de apuntamiento más ágil y ejecutable. Esta utilización de IA y herramientas de aprendizaje automático se vio como una forma de acelerar la identificación y revisión de objetivos, con la supervisión humana permaneciendo como una parte crítica del proceso. Estas fuentes juntas proporcionan una visión integral de cómo la tecnología de IA ha sido integrada en las operaciones militares por las IDF, resaltando tanto las ventajas estratégicas como las consideraciones éticas involucradas.
|
_____________________________________________
Imagen: MM con DALL-E.
(11 de diciembre, 2023). La UE finalmente acordó un borrador para la Ley de IA, la primera gran legislación sobre inteligencia artificial. El boletín Neuron Daily reporta que esencialmente es una lista de lo que se debe y no se debe hacer, con la idea general de asegurar que las empresas de IA de «alto riesgo» no exploten a los consumidores o, peor aún, destruyan su mundo. Un enfoque clave de la Ley es prohibir usos de IA como el raspado facial («face scrapping» o uso no autorizado de retratos de personas) en internet, la puntuación social o la categorización biométrica, algo así como escenarios al estilo de Black Mirror (una serie de TV que presenta un futuro distópico). Sin embargo, la parte más jugosa es que hay nuevas regulaciones para los grandes modelos fundamentales de IA. Hasta ahora, el funcionamiento interno de modelos mayores como GPT-4 ha sido una caja negra completa. Bajo las nuevas regulaciones de la UE, estos grandes modelos fundamentales necesitarán:
El incumplimiento podría resultar en sanciones severas: hasta 35 millones de euros o el 7% del volumen de negocios global… PSA: Estas reglas apuntan principalmente a «modelos de código cerrado». Los modelos de código abierto, o sea, IA que está disponible gratuitamente para construir, recibieron «exenciones amplias», una victoria para empresas como Meta y startups europeas como Mistral y Aleph Alpha. Por qué es importante: Silicon Valley a menudo no reacciona bien a la regulación, y la visión predominante es que la Ley de IA es, en el mejor de los casos, excesivamente amplia y vaga y, en el peor, un abuso de autoridad que matará la innovación en IA en Europa y la trasladará por completo a EE. UU. Una pregunta que surge: ¿Las empresas como OpenAI realmente actuarán sobre amenazas anteriores de cesar operaciones en la UE por completo con la aprobación de la Ley de IA? Extractos de National GeographicDe un artículo de Sergio Parra:
|
__________________________________________________
Imagen: MM con DALL-E.
(27 de noviembre, 2023, con información de GeekWire). ¿La inteligencia artificial va a estar al servicio de la humanidad o va a dar paso a nuevas especies de seres digitales conscientes con su propia movida?
Es una pregunta que ha inspirado un montón de historias de ciencia ficción, desde “Colossus: The Forbin Project” en 1970, hasta “The Matrix” en 1999, y la peli de este año donde la IA se enfrenta a los humanos, “The Creator”.
La misma pregunta también estaba rondando en el lío de liderazgo de OpenAI — donde el CEO Sam Altman se impuso sobre los miembros del consejo sin fines de lucro que lo habían despedido una semana antes.
Si tuvieras que dividir a la comunidad de IA entre los que quieren acelerar y los que prefieren ir más despacio, esos miembros del consejo estarían en el grupo del “vamos con calma”, mientras que Altman sería de los que dicen “a todo gas”. Y ha habido rumores sobre la posibilidad de un “descubrimiento” en OpenAI que aceleraría el campo de la IA a toda máquina — tal vez demasiado rápido para nuestro propio bien.
¿Debería preocuparnos la idea de que la IA se vuelva consciente y tome cartas en el asunto? Esa es solo una de las preguntas que aborda el veterano escritor de ciencia George Musser en un libro recién publicado titulado “Poniéndonos de nuevo en la ecuación”.
Musser entrevistó a investigadores de IA, neurocientíficos, físicos cuánticos y filósofos para entender la búsqueda de uno de los misterios más profundos de la vida: ¿Cuál es la naturaleza de la conciencia? ¿Y es un fenómeno exclusivamente humano?
¿Su conclusión? No hay razón para que la IA adecuada no pueda ser tan consciente como nosotros. “Casi todos los que piensan en esto, en todos estos campos diferentes, dicen que si replicáramos una neurona en silicio — si creáramos una computadora neuromórfica que fuera muy, pero que muy fiel a la biología — sí, sería consciente”, dice Musser en el último episodio del podcast Fiction Science.
Pero, ¿deberíamos preocuparnos por permitir el ascenso de futuros señores de la IA? En esa pregunta existencial, la opinión de Musser va contra el guion típico de ciencia ficción.
“Creo que las máquinas tontas, las máquinas no conscientes, como se ha demostrado en el mundo actual, son extremadamente peligrosas y bastante capaces de aniquilar a la humanidad. Las máquinas conscientes no añaden ninguna capacidad particular que, al menos en mi opinión, aumente su peligro para la humanidad”, dice.
“Si acaso, creo que probablemente el peligro sea al contrario: que nosotros las maltratemos”, dice Musser. “Eso también es parte, por desgracia, de la historia de los seres humanos. Tendemos a maltratar, hasta que superamos eso, a seres que claramente son conscientes.”
Las capacidades de herramientas de IA generativa como el ChatGPT de OpenAI no son una gran sorpresa para aquellos que investigan en el campo — pero Musser dice que los investigadores se han sorprendido de lo rápido que se están desarrollando.
Compara el progreso en IA con el progreso en la fusión nuclear. “Es una de esas cosas que siempre parece estar en el futuro, ¿verdad?” dice. Pero en el caso de la IA, el futuro parece estar menos lejos.
“Adelanta el cronograma en la mente de muchas personas para lo que se conoce como AGI”, dice Musser. “Eso es inteligencia general artificial, y es un sistema que es capaz de una amplia gama de funciones, de aprender sobre la marcha. Básicamente un sustituto más cercano de un animal, o incluso de un cerebro humano, o incluso superhumano. Así que creo que ha acelerado las cosas, pero ha sido un cambio cuantitativo, no cualitativo para la gente.”
__________________________________________________
Imágenes: MM con imágenes de Pixabay.
Texto completo del decreto que EE. UU. ha emitido respecto a la Inteligencia Artificial:
Hoy, el presidente Biden emite una Orden Ejecutiva histórica para garantizar que Estados Unidos lidere el camino a la hora de hacer realidad la promesa y gestionar los riesgos de la inteligencia artificial (IA). La Orden Ejecutiva establece nuevos estándares para la seguridad de la IA, protege la privacidad de los estadounidenses, promueve la equidad y los derechos civiles, defiende a los consumidores y trabajadores, promueve la innovación y la competencia, promueve el liderazgo estadounidense en todo el mundo y más.
Como parte de la estrategia integral de la Administración Biden-Harris para la innovación responsable, la Orden Ejecutiva se basa en acciones anteriores que el Presidente ha tomado, incluido el trabajo que condujo a compromisos voluntarios de 15 empresas líderes para impulsar el desarrollo seguro y confiable de la IA.
La Orden Ejecutiva dirige las siguientes acciones:
A medida que crecen las capacidades de la IA, también crecen sus implicaciones para la seguridad de los estadounidenses. Con esta Orden Ejecutiva, el Presidente dirige las acciones más radicales jamás tomadas para proteger a los estadounidenses de los riesgos potenciales de los sistemas de IA:
Exigir que los desarrolladores de los sistemas de inteligencia artificial más potentes compartan los resultados de sus pruebas de seguridad y otra información crítica con el gobierno de EE. UU. De acuerdo con la Ley de Producción de Defensa, la Orden requerirá que las empresas que desarrollen cualquier modelo de base que represente un riesgo grave para la seguridad nacional, la seguridad económica nacional o la salud y seguridad públicas nacionales notifiquen al gobierno federal cuando entrenen el modelo, y deben compartir los resultados de todas las pruebas de seguridad del equipo rojo. Estas medidas garantizarán que los sistemas de IA sean seguros y confiables antes de que las empresas los hagan públicos.
Desarrollar estándares, herramientas y pruebas para ayudar a garantizar que los sistemas de IA sean seguros y confiables. El Instituto Nacional de Estándares y Tecnología establecerá estándares rigurosos para pruebas exhaustivas del equipo rojo para garantizar la seguridad antes de su divulgación al público. El Departamento de Seguridad Nacional aplicará esos estándares a sectores de infraestructura críticos y establecerá la Junta de Seguridad de IA. Los Departamentos de Energía y Seguridad Nacional también abordarán las amenazas de los sistemas de inteligencia artificial a la infraestructura crítica, así como los riesgos químicos, biológicos, radiológicos, nucleares y de ciberseguridad. En conjunto, estas son las acciones más importantes jamás tomadas por cualquier gobierno para avanzar en el campo de la seguridad de la IA.
Proteger contra los riesgos del uso de IA para diseñar materiales biológicos peligrosos mediante el desarrollo de nuevos estándares sólidos para la detección de síntesis biológica. Las agencias que financian proyectos de ciencias biológicas establecerán estos estándares como condición para la financiación federal, creando poderosos incentivos para garantizar una detección adecuada y gestionar los riesgos potencialmente empeorados por la IA.
Proteger a los estadounidenses del fraude y el engaño habilitados por la IA estableciendo estándares y mejores prácticas para detectar contenido generado por IA y autenticar el contenido oficial. El Departamento de Comercio desarrollará una guía para la autenticación de contenido y la creación de marcas de agua para etiquetar claramente el contenido generado por IA. Las agencias federales utilizarán estas herramientas para que los estadounidenses sepan fácilmente que las comunicaciones que reciben de su gobierno son auténticas y darán ejemplo al sector privado y a los gobiernos de todo el mundo.
Establecer un programa de ciberseguridad avanzado para desarrollar herramientas de inteligencia artificial para encontrar y corregir vulnerabilidades en software crítico, basándose en el actual desafío cibernético de inteligencia artificial de la administración Biden-Harris. En conjunto, estos esfuerzos aprovecharán las capacidades cibernéticas potencialmente revolucionarias de la IA para hacer que el software y las redes sean más seguros.
Ordenar el desarrollo de un Memorando de Seguridad Nacional que dirija acciones adicionales sobre IA y seguridad, que será desarrollado por el Consejo de Seguridad Nacional y el Jefe de Gabinete de la Casa Blanca. Este documento garantizará que la comunidad militar y de inteligencia de los Estados Unidos utilice la IA de forma segura, ética y eficaz en sus misiones, y dirigirá acciones para contrarrestar el uso militar de la IA por parte de los adversarios.
Los usos irresponsables de la IA pueden provocar y profundizar la discriminación, los prejuicios y otros abusos en la justicia, la atención sanitaria y la vivienda. La Administración Biden-Harris ya ha tomado medidas al publicar el Plan para una Declaración de Derechos de la IA y emitir una Orden Ejecutiva que ordena a las agencias combatir la discriminación algorítmica, al tiempo que hace cumplir las autoridades existentes para proteger los derechos y la seguridad de las personas. Para garantizar que AI promueva la equidad y los derechos civiles, el Presidente ordena las siguientes acciones adicionales:
La IA puede aportar beneficios reales a los consumidores, por ejemplo, haciendo que los productos sean mejores, más baratos y más ampliamente disponibles. Pero la IA también aumenta el riesgo de herir, engañar o dañar de otro modo a los estadounidenses. Para proteger a los consumidores y al mismo tiempo garantizar que la IA pueda mejorar la situación de los estadounidenses, el Presidente dirige las siguientes acciones:
La IA está cambiando los empleos y los lugares de trabajo en Estados Unidos, ofreciendo tanto la promesa de una mayor productividad como los peligros de una mayor vigilancia, prejuicios y desplazamiento laboral en el lugar de trabajo. Para mitigar estos riesgos, apoyar la capacidad de los trabajadores para negociar colectivamente e invertir en capacitación y desarrollo de la fuerza laboral que sea accesible para todos, el Presidente dirige las siguientes acciones:
Estados Unidos ya es líder en innovación en IA: más empresas emergentes de IA recaudaron capital por primera vez en Estados Unidos el año pasado que en los siete países siguientes juntos. La Orden Ejecutiva garantiza que sigamos liderando el camino en innovación y competencia a través de las siguientes acciones:
Los desafíos y oportunidades de la IA son globales. La Administración Biden-Harris seguirá trabajando con otras naciones para apoyar el despliegue y el uso seguro y confiable de la IA en todo el mundo. Para tal efecto, el Presidente dirige las siguientes acciones:
La IA puede ayudar al gobierno a ofrecer mejores resultados para el pueblo estadounidense. Puede ampliar la capacidad de las agencias para regular, gobernar y desembolsar beneficios, y puede reducir costos y mejorar la seguridad de los sistemas gubernamentales. Sin embargo, el uso de la IA puede plantear riesgos, como discriminación y decisiones inseguras. Para garantizar el despliegue gubernamental responsable de la IA y modernizar la infraestructura federal de IA, el Presidente dirige las siguientes acciones:
A medida que avancemos en esta agenda a nivel nacional, la Administración trabajará con aliados y socios en el extranjero en un marco internacional sólido para gobernar el desarrollo y el uso de la IA. La Administración ya ha consultado ampliamente sobre los marcos de gobernanza de la IA durante los últimos meses, colaborando con Australia, Brasil, Canadá, Chile, la Unión Europea, Francia, Alemania, India, Israel, Italia, Japón, Kenia, México, Países Bajos, Nueva Zelanda. Zelanda, Nigeria, Filipinas, Singapur, Corea del Sur, los Emiratos Árabes Unidos y el Reino Unido. Las acciones tomadas hoy apoyan y complementan el liderazgo de Japón en el Proceso de Hiroshima del G-7, la Cumbre del Reino Unido sobre Seguridad de la IA, el liderazgo de la India como Presidente de la Asociación Global sobre IA y los debates en curso en las Naciones Unidas.
Las acciones que el presidente Biden dirigió hoy son pasos vitales hacia adelante en el enfoque de Estados Unidos sobre una IA segura y confiable. Se necesitarán más acciones y la Administración seguirá trabajando con el Congreso para impulsar una legislación bipartidista que ayude a Estados Unidos a liderar el camino en innovación responsable.
Para obtener más información sobre el trabajo de la Administración Biden-Harris para promover la IA y oportunidades para unirse a la fuerza laboral federal de IA, visite AI.gov
___________________________________________
Imagen: MM.