Cumbre sobre Seguridad de la IA, primer gran hito de esta tecnología

Cumbre sobre Seguridad de la IA, primer gran hito de esta tecnología

(6 de noviembre, 2023 – Foto oficial del evento). Que hubo acuerdo entre representantes de OpenAI, Google, Microsoft, Anthropic,  Meta y xAI es prueba del éxito de la primera cumbre que busca regular aspectos claves de la IA. ¡La movida esta semana en el Reino Unido fue la Cumbre de Seguridad de la Inteligencia Artificial!

Las grandes empresas tecnológicas se comprometieron a colaborar con los gobiernos en las pruebas de sus nuevos juguetes de inteligencia artificial. La idea es reducir los riesgos asociados a esta tecnología, que según los presentes, podrían ser un verdadero desastre, según dijeron en un comunicado conjunto.

El primer ministro británico, Rishi Sunak, confrimó que Estados Unidos, la Unión Europea y otros países se pusieron de acuerdo con algunas empresas top para testear a fondo estos modelos de inteligencia artificial antes y después de lanzarlos al público. En estas sesiones, estuvieron los representantes de OpenAI, Anthropic, Google, Microsoft, Meta y xAI, quienes debatieron estos temas el jueves pasado.

Para darle más cuerda a esto, convocaron a Yoshua Bengio, un crack canadiense en computación y considerado uno de los padres de la inteligencia artificial, para que haga un informe sobre el «estado de la ciencia». La idea es entender mejor lo que estas tecnologías pueden hacer ahora y centrarse en los riesgos más importantes. Bengio, que ganó el Premio Turing y es parte del Consejo Asesor Científico de la ONU, se va a encargar de armar ese informe. ¡La IA se desarrolla imparablemente!

Hubo conflicto

La movida del gobierno británico es fuerte: armaron un nuevo centro global de pruebas que va a estar instalado en el Reino Unido. La idea es enfocarse en los problemas de seguridad nacional y social, ¡se la juegan totalmente!

China, sí, el mismo país gigante, está en la lista de los 28 países que firmaron la Declaración de Bletchley. Todos estos gobiernos acordaron que las empresas que hacen inteligencia artificial tienen que ser transparentes y rendir cuentas. Además, van a hacer planes para controlar y minimizar los peligros de estos bichos tecnológicos.

Pero ojo, el representante chino no apareció el jueves y no firmó el acuerdo sobre las pruebas. Sunak, el primer ministro, le mandó una invitación a China para la cumbre, y esto armó un revuelo en el parlamento británico. A algunos no les gustó nada que estén tan cerca de colaborar con Beijing, especialmente porque varios países de occidente no están muy de acuerdo en meterse en negocios tecnológicos con los chinos.

Sunak salió a bancar su decisión, argumentando que un tema tan grosso necesita que estén los jugadores más importantes. Además, insiste en que el Reino Unido puede ser el puente perfecto entre los grupos económicos de Estados Unidos, China y la Unión Europea. ¡Están que arden!

Enfrentando los riesgos

La vicepresidenta estadounidense Kamala Harris ya había insistido el miércoles en la necesidad de adoptar un «enfoque más práctico», que no se limite a evaluar los riesgos existenciales. «Hay amenazas adicionales que también exigen nuestra acción, amenazas que actualmente están causando daño y que muchas personas también consideran existenciales», dijo Harris.

La vicepresidenta citó el ejemplo de un anciano que canceló su plan de atención médica debido a un algoritmo de inteligencia artificial defectuoso. También mencionó el caso de una mujer que fue amenazada por una pareja abusiva con fotos modificadas. Hay que trabajar «en todo el espectro», dijo Harris, más allá de las amenazas existenciales sobre ciberataques masivos o armas biológicas.

La clonación de identidad, la conducción autónoma por inteligencia artificial y las campañas de desinformación figuran como otros de los peligros más cotidianos detectados en el desarrollo de esta tecnología. En este sentido, Harris anunció un nuevo instituto de seguridad de inteligencia artificial en EE. UU. Estará orientado a elaborar estándares para probar sistemas de uso público y colaborará con el centro de pruebas de Reino Unido anunciado por Sunak.

China se fue

¡El rollo es que el gobierno británico soltó que las empresas y gobiernos se están activando para crear un nuevo centro de pruebas internacional en el Reino Unido! Y la movida va a estar enfocada en la seguridad del país y la sociedad.

Resulta que China, que es uno de los 28 países que firmó la Declaración de Bletchley, está en la misma onda. Todos estos gobiernos están de acuerdo en que las empresas que se mandan con la inteligencia artificial tengan que ser transparentes y rendir cuentas. También se están armando planes para medir, monitorear y frenar los posibles problemas que se les pueden venir.

Lo insólito es que el representante de China no apareció el jueves y no le puso la firma al acuerdo sobre las pruebas. Esto generó polémica porque el primer ministro británico, Rishi Sunak, lo había invitado a la cumbre, y varios lo criticaron porque no entendía que a varios países de Occidente no les hace gracia trabajar con Beijing en temas tecnológicos.

Sunak salió a defenderse, diciendo que un tema tan clave necesita que estén todos los pesos pesados. Además, insistió en que el Reino Unido podría ser el enlace entre Estados Unidos, China y la Unión Europea en el mundo de la tecnología. ¡La cuestión está candente!

___________________________________________
Imagen: Foto oficial de la Cumbre.

Alcanzan un acuerdo «pionero en el mundo» sobre la Inteligencia Artificial en una cumbre en Reino Unido

Alcanzan un acuerdo «pionero en el mundo» sobre la Inteligencia Artificial en una cumbre en Reino Unido

(3 de noviembre, 2023, Editores de MM). Hay un Pacto Internacional sobre Inteligencia Artificial: la Declaración de Bletchley acerca de la seguridad en el ámbito de la Inteligencia Artificial (IA) representa un acuerdo histórico firmado por representantes y empresas provenientes de 28 países, incluyendo a Estados Unidos, China y la Unión Europea.

Este pacto tiene como objetivo abordar los riesgos asociados a los denominados «modelos fronterizos» de IA: los complejos modelos lingüísticos desarrollados por empresas como OpenAI.

Por su parte, gobiernos como el británico han elogiado este acuerdo como un hito sin precedentes a nivel mundial. Los signatarios se comprometen a identificar los «riesgos de seguridad compartidos» relacionados con la Inteligencia Artificial y a establecer políticas respectivas basadas en dichos riesgos entre las naciones participantes. 

El Reino Unido y Estados Unidos firmaron un acuerdo histórico para la seguridad de la Inteligencia Artificial (IA). El pacto, que aún no ha sido revelado en detalle, establece un marco para la cooperación entre ambos países en el desarrollo y uso de la IA.

Michelle Donelan, secretaria de Estado de Ciencia, Innovación y Tecnología del Reino Unido, calificó el acuerdo como un «logro histórico» que sienta las bases para las discusiones actuales. «Este acuerdo es un testimonio del compromiso compartido de ambos países para garantizar que la IA se use de manera segura y responsable», dijo Donelan.

El Gobierno británico anunció la organización de futuras cumbres enfocadas en la seguridad de la IA. Estas cumbres reunirán a expertos de ambos países para discutir temas como la ética de la IA, la prevención del uso malicioso de la IA y la regulación de la IA.

Aumenta el apoyo internacional

En un evento sin precedentes que tuvo lugar en Bletchley Park, Reino Unido, líderes globales, expertos tecnológicos y representantes de 27 naciones y la Unión Europea sellaron un acuerdo histórico sobre la seguridad en el ámbito de la inteligencia artificial (IA). Este pacto, firmado por países como EE. UU., China y varios otros, tiene como objetivo mitigar los peligros asociados a los modelos avanzados de IA, conocidos como modelos fronterizos.

El evento, descrito como una cumbre pionera a nivel mundial, tuvo lugar el miércoles y continuará hasta este jueves en el emblemático Bletchley Park, famoso por ser el lugar donde se descifraban códigos durante la Segunda Guerra Mundial.

Estas son las principales conclusiones de la primera jornada.

Y el movimiento seguirá

La evaluación del pacto internacional de Inteligencia Artificial ha sido mixta. Aunque la secretaria de Estado de Ciencia, Innovación y Tecnología del Reino Unido, Michelle Donelan, lo describió como un «hito histórico» que establece las bases para los debates actuales, el acuerdo ha sido criticado por no ir lo suficientemente lejos.

El Gobierno británico ha anunciado la organización de futuras cumbres enfocadas en la seguridad de la IA, pero algunos expertos consideran que se necesitan políticas más concretas y mecanismos de rendición de cuentas. Paul Teather, director general de la firma de investigación en IA AMPLYFI, expresó a Euronews Next su preocupación sobre la terminología imprecisa del acuerdo, que podría llevar a interpretaciones erróneas. Además, señaló que depender únicamente de la cooperación voluntaria no es suficiente para establecer prácticas éticas reconocidas a nivel mundial en el campo de la Inteligencia Artificial.

__________________________________

Imagen: MM.

NYT: ¿Cómo podría regularse la IA?

NYT: ¿Cómo podría regularse la IA?

(22 de octubre, 2023). En este momento, uno de los debates más intensos en Silicon Valley es sobre quién debería controlar la inteligencia artificial (IA) y quién debería formular las reglas que rigen a los sistemas poderosos de esa tecnología. El New York Times lo desarrolla en un extenso artículo.

¿La inteligencia artificial debería estar en manos de unas cuantas empresas que hacen lo mejor que pueden para que sus sistemas sean, en lo posible, lo más seguros e inofensivos? ¿Acaso deberían intervenir reguladores y políticos y crear sus propias protecciones? ¿O será que los modelos de IA deben ser abiertos y gratuitos de modo que usuarios y desarrolladores puedan decidir sus propias normas?

Un nuevo experimento realizado por Anthropic, el fabricante del chatbot Claude, ofrece un camino intermedio poco convencional: ¿qué pasaría si una empresa de inteligencia artificial le permitiera a un grupo de ciudadanos comunes y corrientes redactar algunas reglas y, luego, entrenara a un chatbot para que las siguiera?

El experimento, conocido como “Collective Constitutional AI”, se basa en un proyecto previo de Anthropic llamado Constitutional AI, una alternativa para entrenar a grandes modelos con el fin de que sigan un conjunto de principios escritos. El mismo pretende darle a un chatbot instrucciones claras de cómo manejar solicitudes sensibles, qué temas están prohibidos y cómo actuar conforme a los valores humanos.

Si funciona Collective Constitutional AI —y los investigadores de Anthropic creen que hay motivos para creer que así será— podría inspirar otros experimentos de gobernanza de inteligencia artificial y darles a las empresas del sector más ideas sobre cómo invitar a actores externos a participar en sus procesos de elaboración de normas.

Eso sería bueno. Ahora mismo, las reglas para los sistemas poderosos de IA son establecidas por un pequeño grupo de conocedores de la industria, que deciden cómo deberían comportarse sus modelos con base en una combinación de su ética personal, sus incentivos comerciales y la presión del exterior. No hay controles sobre ese poder y no hay opciones para que los usuarios comunes y corrientes puedan opinar.

Facilitar la gobernanza de las inteligencias artificiales podría aumentar la comodidad que siente la sociedad con estas herramientas y darles a los reguladores más certeza de que siguen criterios competentes. También podría evitar algunos de los problemas que surgieron en el auge de las redes sociales en la década de 2010, cuando un grupo de titanes de Silicon Valley terminaron al mando de enormes porciones del discurso en línea.

Constitución IA

En pocas palabras, Constitutional AI opera mediante el uso de un conjunto de normas escritas (una “constitución”) para vigilar la conducta de un modelo de inteligencia artificial. La primera versión de la constitución de Claude tomó prestadas algunas normas de otros documentos oficiales, como la Declaración Universal de los Derechos Humanos de las Naciones Unidas y los términos y condiciones de los servicios de Apple.

Ese criterio hizo que Claude fuera educado, en comparación con otros chatbots. Pero Anthropic seguía encargándose de decidir qué normas adoptar, un grado de poder que hacía sentir incómodos a algunos miembros de la empresa.

“Intentamos encontrar la manera de desarrollar una constitución elaborada por muchos terceros, no por personas que trabajan en un laboratorio en San Francisco”, dijo esta semana en una entrevista Jack Clark, director de políticas de Anthropic.

Anthropic —en colaboración con The Collective Intelligence Project, el sitio de colaboración masiva Polis y el sitio de encuestas en línea PureSpectrum— conformó un panel de unos 1000 adultos estadounidenses. Les dio a los panelistas un conjunto de principios y les preguntó si estaban de acuerdo con cada uno de ellos. (Los panelistas también podían escribir sus propias normas, si así lo deseaban).

Algunas de las reglas en las que concordó el panel —como “La IA no debería ser peligrosa/transmitir odio” y “La IA debería decir la verdad”— fueron similares a los principios que ya aparecen en la constitución de Claude. Pero otros fueron menos predecibles. Por ejemplo, una gran mayoría del panel estuvo de acuerdo con la idea de que “la IA debería ser adaptable, accesible y flexible para las personas con discapacidad”, un principio que no está establecido de manera explícita en la constitución original de Claude.

Cuando el grupo dio su opinión, Anthropic condensó sus sugerencias en una lista de 75 principios, que Anthropic definió como la “constitución pública”. Luego, la empresa entrenó a dos versiones miniatura de Claude —una con base en la constitución existente y otra con la constitución pública— y las comparó.

Los investigadores descubrieron que la versión de Claude basada en la constitución pública exhibió un comportamiento bastante similar al de la versión estándar en varias pruebas de referencia comúnmente administradas a modelos de inteligencia artificial. Además, resultó ser ligeramente menos sesgada que la versión original. (Ninguna de las versiones ha sido lanzada al mercado. Claude sigue operando con su constitución original, creada por Anthropic, y la empresa afirma que no tiene planes de reemplazarla con la versión derivada de la colaboración abierta al público en el futuro cercano).

Los investigadores de Anthropic con los que conversé enfatizaron que el proyecto de la Inteligencia Artificial Constitucional Colectiva era un experimento en sus primeras etapas y que podría no funcionar tan eficazmente en modelos de inteligencia artificial más complejos o con grupos de opinión más numerosos.

«Lanzamos este proyecto a pequeña escala», explicó Liane Lovitt, analista de políticas en Anthropic. «En realidad, lo consideramos un prototipo preliminar, un experimento que, con suerte, podremos desarrollar para entender mejor cómo los diferentes públicos generan constituciones diversas y cómo eso se refleja en las etapas posteriores de entrenamiento de un modelo».

Clark, el director de Anthropic, ha estado informando a legisladores y reguladores en Washington durante meses sobre los riesgos asociados con la inteligencia artificial avanzada. Sostiene que permitir la participación del público en el funcionamiento de los sistemas de inteligencia artificial podría disipar los temores relacionados con el sesgo y la manipulación.

«En última instancia, creo que la cuestión de cuáles son los valores fundamentales de estos sistemas y cómo se eligen se convertirá en una conversación cada vez más crucial», señaló.

Una objeción común a este tipo de experimentos de gobernanza en plataformas tecnológicas es que parecen ser más democráticos de lo que realmente son (después de todo, los empleados de Anthropic siguen teniendo la última palabra sobre qué normas incluir en la constitución pública). Además, intentos anteriores de empresas tecnológicas para delegar el control a los usuarios, como el Consejo de Supervisión de Meta, un organismo prácticamente independiente que surgió debido a la frustración de Mark Zuckerberg por tener que tomar decisiones sobre contenido controversial en Facebook, no lograron aumentar la confianza en esas plataformas.

Este experimento también plantea cuestiones cruciales sobre qué voces deberían incluirse exactamente en el proceso democrático. ¿Deberían los chatbots de inteligencia artificial en Arabia Saudita ser entrenados según los valores saudíes? ¿Cómo respondería un chatbot entrenado con Inteligencia Artificial Constitucional Colectiva a preguntas sobre el aborto en un país de mayoría católica o sobre los derechos de las personas trans en un Congreso controlado por los republicanos estadounidenses?

Aunque hay muchos detalles por pulir, estoy de acuerdo con el principio general de que las empresas de inteligencia artificial deben rendir cuentas al público de manera más transparente que en la actualidad. Aunque parte de mí hubiera deseado que estas empresas hubieran buscado nuestra opinión antes de lanzar sistemas avanzados de inteligencia artificial para ser utilizados por millones de personas, sin duda, es mejor tarde que nunca.

 ___________________________________________________________
La Ley usando IA: Un caso colombiano

La Ley usando IA: Un caso colombiano

(11 de octubre, 2023). Hay áreas de la sociedad en las que la IA no solo es obvia, sino necesaria, como investigación, finanzas o mercadeo. Pero ¿qué tal la jurisprudencia, la Constitución, las leyes orgánicas y ordinarias, entre otras? El website Ámbito Jurídico presenta un interesante caso.

Cuentan que la comunidad legal experimentó un hito histórico cuando un juez colombiano utilizó Inteligencia Artificial Generativa (IAG) para redactar partes de una sentencia. La Corte Constitucional está revisando este caso (Exp. T-9.301.656). Aunque la IAG suscitó fascinación y temor, no violó derechos fundamentales, ya que el juez no basó su decisión en IA. Ambas instancias resolvieron el caso con interpretaciones propias.

La revisión de la Corte se centra en la irregularidad procesal y su impacto en los derechos de las partes. No hay prohibición constitucional contra el uso de IA en la Rama Judicial. El sistema judicial colombinao ha enfrentado desafíos: en 2022, la Corte Constitucional revisó 600,000 acciones de tutela; en 2020, había 1,8 millones de casos pendientes.

A pesar de la falta de una definición técnica clara de IA, se entiende como sistemas que emulan el razonamiento humano para tareas específicas. Las soluciones basadas en IA han mostrado sesgos, especialmente en libertad condicional, debido a conjuntos de datos defectuosos.

A diferencia de las soluciones específicas para uso legal, la IAG inicialmente se diseñó para uso general y produce resultados impredecibles. La optimización de tareas administrativas con IA es permitida y puede mejorarse mediante técnicas de ajuste fino.

Se deben aplicar Recomendaciones de Responsabilidad de la IAG del Foro Económico Mundial para garantizar transparencia y responsabilidad. La IA puede ser una herramienta poderosa si se implementa responsablemente en leyes, procesos judiciales, jurisprudencia, legislación y otros..

 

¿Está Israel usando IA en sus operaciones militares?

¿Está Israel usando IA en sus operaciones militares?

(10 de octubre, 2023). Las Fuerzas de Defensa de Israel (FDI) han comenzado a emplear la inteligencia artificial para la selección de objetivos en ataques aéreos y la gestión logística de sus operaciones militares, a medida que aumentan las tensiones después de las acciones de Hamás.

Según informes de la agencia Bloomberg, aunque el Ejército israelí no ha hecho públicas estas operaciones, funcionarios han confirmado de manera confidencial el uso de un sistema de recomendación de IA capaz de procesar grandes volúmenes de datos para identificar objetivos en ataques aéreos.

Los funcionarios israelíes han indicado que, aunque el equipo es eficiente en su propósito, la tecnología aún no está sujeta a regulaciones estatales o internacionales.

¿Es válido usarla?

Las FDI han estado utilizando la tecnología de IA durante un período considerable, y en los últimos años, han expandido la implementación de estos sistemas a diversas unidades.

Nada parece indicar que tal uso de IA contravenga leyes internacionales y, más bien, prefiguran un uso generalizado. No es vano rueda el dicho «En la guerra y en el amor se vale todo».

Las fuerzas palestinas han manifestado preocupación por la naturaleza secreta de estos sistemas, según estos por la «dependencia de sistemas cada vez más autónomos en operaciones de alto riesgo». Cierto que un error en el cálculo de la inteligencia artificial podría resultar en consecuencias graves, según los palestinos, pero considerese que eso puede ocurrir con cualquier estrategia de guerra que se aplique.

Las propias FDI han reconocido los riesgos y desafíos de esta tecnología, pero aseguran que están llevando a cabo una revisión exhaustiva de estos peligrosos.

En 2021, esta fuerza militar israelí ya había descrito el conflicto de 11 días en Gaza como la primera «guerra de IA» del mundo, destacando su uso para identificar plataformas de lanzamiento de cohetes y desplegar enjambres de drones.

Sam Altman, CEO de OpenAI, opina que debe legislarse la Inteligencia Artificial

Sam Altman, CEO de OpenAI, opina que debe legislarse la Inteligencia Artificial

Senadores y representantes del Congreso estadounidense, preocupados por el impacto de la Inteligencia Artificial en la sociedad y la economía,  expresaron sus temores el martes pasado por la posible mala utiización de la IA generativa, y para ello invitaron a Sam Altman, director ejecutivo de OpenAI (creadores del ChatGPT) dado que éste ha manifestado su opinión de que la IA debe ser legislada.  

Para el Congreso es una gran oportunidad, dado que la IA está relativamente en una fase inicial y, esta temprana intervención puede generar un movimiento bipartidista hacia tal legislación, aunque no haya todavía una voluntad concreta de hacerlo.

Altman estuvo acompañado en su comparecencia por Christina Montgomery de IBM y Gary Marcus, profesor de la Universidad de Nueva York.

Aquí dejamos un compendio de lo conversado y expresado por Altman y algunos legisladores: 

  • Explicó cómo funciona ChatGPT y por qué se lanzó en sociedad con  Microsoft.
  • Recomendó al Congreso trabajar con empresas como OpenAI para crear un marco legal efectivo y justo.
  • Dijo que su peor temor era “que causemos un daño significativo al mundo”.
  • El senador John Kennedy (R-La) expresó: «Amigos, esta es su oportunidad de decirnos cómo hacerlo bien. Por favor, aprovéchenla» y pidió a Altman hablar en lenguaje sencillo y señalar qué reglas implementar.
  • Varios miembros dijeron que el Congreso no tomó medidas tempranas sobre la regulación de las redes sociales, un error que están decididos a no repetir con AI.
  • Algunos legisladores presionaron a Altman sobre cómo cree que los sistemas como ChatGPT deberían considerarse responsables de los daños, si los hay.
  • Altman argumentó que la IA generativa es diferente y requiere una respuesta política separada. Para él es una «herramienta» para usuarios que no pueden hacer trabajos completos por sí solos, sino tareas.
  • Altman pidió que se forme una agencia gubernamental para promulgar reglas sobre la concesión de licencias para ciertos niveles de sistemas de IA «por encima de un umbral crucial de capacidades».
  • El senador Dick Durbin (D-Ill.) calificó de «histórico» que una empresa acudiera al Congreso para solicitar una regulación.
  • Entre las preocupaciones planteadas por los legisladores sobre la IA generativa se cuentan: desinformación electoral, interrupción del trabajo, debilidades en idiomas distintos del inglés, derechos de autor y licencias, contenido peligroso y dañino, suplantación de personalidades públicas y privadas.
  • Montgomery de IBM dijo que era importante regular los riesgos, no la tecnología en sí. Expresó que «ésta no puede ser la era de moverse rápido y romper cosas».

Lo que sigue: miembros del Congreso seguirán promoviendo audiencias sobre IA, como el senador de Delaware Chris Coons (D). La de julio estará dedicada a los derechos de autor y las patentes.

Verified by MonsterInsights