Cumbre sobre Seguridad de la IA, primer gran hito de esta tecnología

Cumbre sobre Seguridad de la IA, primer gran hito de esta tecnología

(6 de noviembre, 2023 – Foto oficial del evento). Que hubo acuerdo entre representantes de OpenAI, Google, Microsoft, Anthropic,  Meta y xAI es prueba del éxito de la primera cumbre que busca regular aspectos claves de la IA. ¡La movida esta semana en el Reino Unido fue la Cumbre de Seguridad de la Inteligencia Artificial!

Las grandes empresas tecnológicas se comprometieron a colaborar con los gobiernos en las pruebas de sus nuevos juguetes de inteligencia artificial. La idea es reducir los riesgos asociados a esta tecnología, que según los presentes, podrían ser un verdadero desastre, según dijeron en un comunicado conjunto.

El primer ministro británico, Rishi Sunak, confrimó que Estados Unidos, la Unión Europea y otros países se pusieron de acuerdo con algunas empresas top para testear a fondo estos modelos de inteligencia artificial antes y después de lanzarlos al público. En estas sesiones, estuvieron los representantes de OpenAI, Anthropic, Google, Microsoft, Meta y xAI, quienes debatieron estos temas el jueves pasado.

Para darle más cuerda a esto, convocaron a Yoshua Bengio, un crack canadiense en computación y considerado uno de los padres de la inteligencia artificial, para que haga un informe sobre el «estado de la ciencia». La idea es entender mejor lo que estas tecnologías pueden hacer ahora y centrarse en los riesgos más importantes. Bengio, que ganó el Premio Turing y es parte del Consejo Asesor Científico de la ONU, se va a encargar de armar ese informe. ¡La IA se desarrolla imparablemente!

Hubo conflicto

La movida del gobierno británico es fuerte: armaron un nuevo centro global de pruebas que va a estar instalado en el Reino Unido. La idea es enfocarse en los problemas de seguridad nacional y social, ¡se la juegan totalmente!

China, sí, el mismo país gigante, está en la lista de los 28 países que firmaron la Declaración de Bletchley. Todos estos gobiernos acordaron que las empresas que hacen inteligencia artificial tienen que ser transparentes y rendir cuentas. Además, van a hacer planes para controlar y minimizar los peligros de estos bichos tecnológicos.

Pero ojo, el representante chino no apareció el jueves y no firmó el acuerdo sobre las pruebas. Sunak, el primer ministro, le mandó una invitación a China para la cumbre, y esto armó un revuelo en el parlamento británico. A algunos no les gustó nada que estén tan cerca de colaborar con Beijing, especialmente porque varios países de occidente no están muy de acuerdo en meterse en negocios tecnológicos con los chinos.

Sunak salió a bancar su decisión, argumentando que un tema tan grosso necesita que estén los jugadores más importantes. Además, insiste en que el Reino Unido puede ser el puente perfecto entre los grupos económicos de Estados Unidos, China y la Unión Europea. ¡Están que arden!

Enfrentando los riesgos

La vicepresidenta estadounidense Kamala Harris ya había insistido el miércoles en la necesidad de adoptar un «enfoque más práctico», que no se limite a evaluar los riesgos existenciales. «Hay amenazas adicionales que también exigen nuestra acción, amenazas que actualmente están causando daño y que muchas personas también consideran existenciales», dijo Harris.

La vicepresidenta citó el ejemplo de un anciano que canceló su plan de atención médica debido a un algoritmo de inteligencia artificial defectuoso. También mencionó el caso de una mujer que fue amenazada por una pareja abusiva con fotos modificadas. Hay que trabajar «en todo el espectro», dijo Harris, más allá de las amenazas existenciales sobre ciberataques masivos o armas biológicas.

La clonación de identidad, la conducción autónoma por inteligencia artificial y las campañas de desinformación figuran como otros de los peligros más cotidianos detectados en el desarrollo de esta tecnología. En este sentido, Harris anunció un nuevo instituto de seguridad de inteligencia artificial en EE. UU. Estará orientado a elaborar estándares para probar sistemas de uso público y colaborará con el centro de pruebas de Reino Unido anunciado por Sunak.

China se fue

¡El rollo es que el gobierno británico soltó que las empresas y gobiernos se están activando para crear un nuevo centro de pruebas internacional en el Reino Unido! Y la movida va a estar enfocada en la seguridad del país y la sociedad.

Resulta que China, que es uno de los 28 países que firmó la Declaración de Bletchley, está en la misma onda. Todos estos gobiernos están de acuerdo en que las empresas que se mandan con la inteligencia artificial tengan que ser transparentes y rendir cuentas. También se están armando planes para medir, monitorear y frenar los posibles problemas que se les pueden venir.

Lo insólito es que el representante de China no apareció el jueves y no le puso la firma al acuerdo sobre las pruebas. Esto generó polémica porque el primer ministro británico, Rishi Sunak, lo había invitado a la cumbre, y varios lo criticaron porque no entendía que a varios países de Occidente no les hace gracia trabajar con Beijing en temas tecnológicos.

Sunak salió a defenderse, diciendo que un tema tan clave necesita que estén todos los pesos pesados. Además, insistió en que el Reino Unido podría ser el enlace entre Estados Unidos, China y la Unión Europea en el mundo de la tecnología. ¡La cuestión está candente!

___________________________________________
Imagen: Foto oficial de la Cumbre.

Alcanzan un acuerdo «pionero en el mundo» sobre la Inteligencia Artificial en una cumbre en Reino Unido

Alcanzan un acuerdo «pionero en el mundo» sobre la Inteligencia Artificial en una cumbre en Reino Unido

(3 de noviembre, 2023, Editores de MM). Hay un Pacto Internacional sobre Inteligencia Artificial: la Declaración de Bletchley acerca de la seguridad en el ámbito de la Inteligencia Artificial (IA) representa un acuerdo histórico firmado por representantes y empresas provenientes de 28 países, incluyendo a Estados Unidos, China y la Unión Europea.

Este pacto tiene como objetivo abordar los riesgos asociados a los denominados «modelos fronterizos» de IA: los complejos modelos lingüísticos desarrollados por empresas como OpenAI.

Por su parte, gobiernos como el británico han elogiado este acuerdo como un hito sin precedentes a nivel mundial. Los signatarios se comprometen a identificar los «riesgos de seguridad compartidos» relacionados con la Inteligencia Artificial y a establecer políticas respectivas basadas en dichos riesgos entre las naciones participantes. 

El Reino Unido y Estados Unidos firmaron un acuerdo histórico para la seguridad de la Inteligencia Artificial (IA). El pacto, que aún no ha sido revelado en detalle, establece un marco para la cooperación entre ambos países en el desarrollo y uso de la IA.

Michelle Donelan, secretaria de Estado de Ciencia, Innovación y Tecnología del Reino Unido, calificó el acuerdo como un «logro histórico» que sienta las bases para las discusiones actuales. «Este acuerdo es un testimonio del compromiso compartido de ambos países para garantizar que la IA se use de manera segura y responsable», dijo Donelan.

El Gobierno británico anunció la organización de futuras cumbres enfocadas en la seguridad de la IA. Estas cumbres reunirán a expertos de ambos países para discutir temas como la ética de la IA, la prevención del uso malicioso de la IA y la regulación de la IA.

Aumenta el apoyo internacional

En un evento sin precedentes que tuvo lugar en Bletchley Park, Reino Unido, líderes globales, expertos tecnológicos y representantes de 27 naciones y la Unión Europea sellaron un acuerdo histórico sobre la seguridad en el ámbito de la inteligencia artificial (IA). Este pacto, firmado por países como EE. UU., China y varios otros, tiene como objetivo mitigar los peligros asociados a los modelos avanzados de IA, conocidos como modelos fronterizos.

El evento, descrito como una cumbre pionera a nivel mundial, tuvo lugar el miércoles y continuará hasta este jueves en el emblemático Bletchley Park, famoso por ser el lugar donde se descifraban códigos durante la Segunda Guerra Mundial.

Estas son las principales conclusiones de la primera jornada.

Y el movimiento seguirá

La evaluación del pacto internacional de Inteligencia Artificial ha sido mixta. Aunque la secretaria de Estado de Ciencia, Innovación y Tecnología del Reino Unido, Michelle Donelan, lo describió como un «hito histórico» que establece las bases para los debates actuales, el acuerdo ha sido criticado por no ir lo suficientemente lejos.

El Gobierno británico ha anunciado la organización de futuras cumbres enfocadas en la seguridad de la IA, pero algunos expertos consideran que se necesitan políticas más concretas y mecanismos de rendición de cuentas. Paul Teather, director general de la firma de investigación en IA AMPLYFI, expresó a Euronews Next su preocupación sobre la terminología imprecisa del acuerdo, que podría llevar a interpretaciones erróneas. Además, señaló que depender únicamente de la cooperación voluntaria no es suficiente para establecer prácticas éticas reconocidas a nivel mundial en el campo de la Inteligencia Artificial.

__________________________________

Imagen: MM.

La UNESCO se pronuncia sobre la IA

La UNESCO se pronuncia sobre la IA

(29 de octubre, 2023). El uso de herramientas de inteligencia artificial está abriendo nuevas posibilidades en el campo de la educación. Sin embargo, es urgente tomar medidas para asegurarnos de que estas herramientas se integren en nuestros sistemas educativos de acuerdo con nuestras condiciones y necesidades. Este es el mensaje central del nuevo documento de la UNESCO sobre la inteligencia artificial generativa y el futuro de la educación.

En un artículo de opinión, Stefania Giannini, Subdirectora General de Educación de la UNESCO, expresa su preocupación por la falta de aplicación de controles y equilibrios en la implementación de la inteligencia artificial generativa en los materiales didácticos. Aunque reconoce que estas herramientas ofrecen nuevas perspectivas de aprendizaje, subraya que las regulaciones deben elaborarse solo después de una investigación adecuada.

Una encuesta global realizada por la UNESCO a más de 450 escuelas y universidades en mayo reveló que menos del 10% de estas instituciones han desarrollado políticas o directrices formales sobre el uso de aplicaciones de inteligencia artificial generativa. Además, el documento señala que el tiempo y los procedimientos necesarios para validar un nuevo libro de texto son mucho más extensos que los necesarios para introducir herramientas de inteligencia artificial generativa en las escuelas y aulas. Los libros de texto son evaluados minuciosamente para determinar su precisión, adecuación para la edad, relevancia educativa, corrección del contenido y adecuación cultural y social, incluyendo controles para evitar prejuicios, antes de ser utilizados en el aula.

La UNESCO enfatiza que el sector educativo no debe depender de las corporaciones que desarrollan inteligencia artificial para regular su propio trabajo. Recomienda que los ministerios de educación desarrollen sus capacidades en coordinación con otras autoridades gubernamentales encargadas de la regulación tecnológica para examinar y validar nuevas aplicaciones de inteligencia artificial destinadas al uso educativo formal.

El documento subraya la importancia de preservar la naturaleza profundamente humana de la educación, basada en la interacción social. Durante la pandemia de COVID-19, cuando la tecnología digital se convirtió en el principal medio de educación, los estudiantes experimentaron dificultades tanto académicas como sociales. La inteligencia artificial generativa tiene el potencial de socavar la autoridad de los docentes y fomentar llamados a una mayor automatización de la educación, lo que podría llevar a un escenario de escuelas sin maestros y educación sin escuelas. La UNESCO hace hincapié en la necesidad de priorizar escuelas bien administradas, con un número adecuado de docentes, capacitación y salarios adecuados.

El documento argumenta que la inversión en escuelas y docentes es fundamental para abordar el hecho de que actualmente, en los albores de la era de la inteligencia artificial, 244 millones de niños y jóvenes no tienen acceso a la educación y más de 770 millones de personas son analfabetas. La evidencia demuestra que escuelas y docentes de calidad pueden resolver este desafío educativo persistente. Sin embargo, el mundo aún no está proporcionando suficiente financiamiento para estos aspectos fundamentales.

En respuesta a los desafíos planteados por la inteligencia artificial generativa en la educación, la UNESCO está liderando un diálogo global con responsables políticos, socios tecnológicos, académicos y la sociedad civil. La organización celebró la primera reunión mundial de Ministros de Educación en mayo de 2023 y está desarrollando pautas de políticas sobre el uso de la inteligencia artificial generativa en la educación, así como marcos de competencia en inteligencia artificial para estudiantes y profesores de escuelas. Estos recursos se lanzarán durante la Semana del Aprendizaje Digital, que se llevará a cabo en la sede de la UNESCO en París del 4 al 7 de septiembre de 2023. Además, el Informe de Seguimiento de la Educación en el Mundo 2023 de la UNESCO, que se publicará el 26 de julio de 2023, se centrará en el uso de la tecnología en la educación.

Cabe mencionar que la UNESCO elaboró la primera norma mundial sobre ética de la inteligencia artificial, la «Recomendación sobre la ética de la inteligencia artificial», en noviembre de 2021. Este marco fue adoptado por los 193 Estados miembros de la UNESCO y enfatiza la necesidad de que los gobiernos garanticen que la inteligencia artificial siempre se adhiera a los principios de seguridad, inclusión, diversidad, transparencia y calidad.


___________________________________________
Ilustración MM.
Verified by MonsterInsights