Robots entre nosotros (2da parte)

Robots entre nosotros (2da parte)

(19 de noviembre, 2023). Fernando Nunez-Noda, Director de Maquinamente (Link a la 1er parte)

Los Robots en la Literatura y el Cine (2da parte)

(Atención: Puede haber spoilers.)

Pero los robots interesantes son los que se parecen a nosotros y, paradójicamente, tienen el potencial de hacernos añicos (así somos). Tomemos Terminator con Arnold Schwarzenegger por ejemplo. Son androides, es decir, robots humanizados que caminan, sujetan objetos, ven, escuchan y hablan, también son capaces de sensaciones táctiles.

Vale decir que ya hay androides entre nosotros, como ASIMO (suena como un tal Isaac y su foto está a la derecha), fabricado por Honda y capaz de un rango bastante amplio de movimientos. Camina como ningún robot hasta ahora, sube y baja escaleras, sortea obstáculos, reconoce objetos e incluso rostros. Responde a sonidos y cambios diversos en sus alrededores.

En cambio el de Robocop (1987) es un cyborg, al igual que Darth Vader de la famosa Guerra de las Galaxias. Son humanos a quienes se les han incorporado elementos robóticos para completarlos o mejorarlos. El primero está del lado de la ley pero no deja de tener profundos conflictos por su condición mixta. El segundo es un villano que aprovecha al máximo sus atributos robóticos para aplastar a sus enemigos.

Tan temprano como 1941, el autor estadounidense Isaac Asimov usó por primera vez el término “robótica” y predijo el advenimiento de la industria de los autómatas. En su libro de cuentos I, Robot (del cual se hizo una película en 2004 con Will Smith) Asimov expuso las famosas “3 Leyes de la Robótica”:

Primera Ley: “Un robot no hará daño a un ser humano, ni permitirá con su inacción que sufra daño.” Segunda Ley: “Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.” Tercera Ley: “Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.”

Luego le agregó una Ley Cero: “Un robot no hará daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño.”

El argumento de “I, Robot” sigue una línea común en las historias de entidades cibernéticas autoconscientes: llegan a equiparse con los humanos, sus creadores, y por supuesto en algún momento quieren independizarse y ser realmente autónomos socialmente. Un equivalente, quizá, a la emancipación de los esclavos.

Antes hablé de 2001 Odisea Espacial. Es bueno notar que HAL-9000, la computadora inteligente de la nave, tiene un conflicto ético cuando se le obliga a mentir y, eventualmente, a asesinar para poder cumplir una misión que los astronautas no conocían.

Más ligeros, aunque no ajenos a conflictos morales y de conciencia, son los autómatas de Star Wars. C3PO es un androide pero R2D2 o BB8 son “droides”, es decir, capaces de inteligencia humana pero sin aspecto humano.

Blade Runner (1983) es una obra maestra del director Ridley Scott (basada en un cuento de otro genio de la sci-fi, Phillip K. Dick) plena de dramatismo del lado de los humanoides. Fabricados a imagen y semejanza de sus creadores, capaces de razonamientos profundos y emociones, los androides de esta película son –en muchos sentidos- más humanos que los humanos mismos. El problema es que tienen un tiempo de vida prefijado y corto. En un mundo sucio, superpoblado y deprimente, el detective se da cuenta que sus perseguidos robóticos aprecian mucho más la vida que él mismo y tienen un sentido poético de la existencia que se ha perdido en ese mundo distópico.

The Matrix (1999) ofrece un tipo muy diferente de robots. Digamos: seres hechos de realidad virtual, en un mundo simulado que esconde una absoluta tiranía de las máquinas, de las computadoras que usan a los humanos como baterías vivientes y a cambio le dan la apariencia de realidad cotidiana.

En esa película el robot es también un universo ilusorio que unos pocos rebeldes tratan de desmantelar para vivir algo más real y propio. Un eco -quizá- de la ilusión del mundo que denunció Buda y a la cual hay que renunciar con una nueva conciencia con la realidad.

Decíamos, pues, que Turing se preguntó si los cerebros electrónicos llegarían a ser inteligentes. La inteligencia humana deduce, induce, infiere, imagina, adivina, especula. En 1997 Deep Blue, un sistema computacional de IBM, «derrotó» a Gary Kasparov -campeón de entonces y acaso el mejor jugador de todos los tiempos- en un match de ajedrez de varias partidas. Deep Blue produce millardos de configuraciones complejas a partir de reglas simples que se agregan y concatenan, de modo que parecen realizadas, no sólo por un humano, sino por uno superdotado. Eso sí, sólo en ajedrez.

Lo más pertinente sería pensar que Deep Blue sí demuestra inteligencia, pero no enteramente suya, sino “prestada” de sus creadores y programadores. En otras palabras, quienes ganaron fueron los creadores de los algoritmos, las reglas que sigue el sistema en todos los casos posibles. En sucesivos intentos, Kasparov no pudo derrota a su némesis electrónica.

Deep Blue no es solo una prolongación de las capacidades ajedrecísticas de sus programadores, sino una superación de sus limitaciones, dado que puede procesar información como no pueden sus hacedores individual o colectivamente. Además, Deep Blue es capaz de responder a muy complejas estrategias de engaño y sutileza. Puede simular, cambiar de plan sobre la marcha. Un genio, pues.

Kasparov protagonizó otros dos matches, en 2003, contra programas computacionales distintos a DeepBlue. Ambos resultaron tablas. En 2006 el campeón mundial de entonces, Vladimir Kramnik, jugó contra un”nieto” de DeepBlue llamado Deep Fritz. La computadora le ganó 4 juegos a 2. Wikipedia da cuenta que, según conocedores, en la última partida sencillamente lo aplastó.

Parece que la distancia crecerá a favor de la computadora como ya ha ocurrido en tantas áreas. El campeón mundial actual, el hindú Viswanathan Anand, tiene un puntaje ELO en la Federación Mundial de Ajedrez de 2.817. Un “motor ajedrecístico” de 2010, llamado Rybka, tiene un ELO estimado de 3.200 puntos. Y actualmente, por cierto, hay programas que corren en móviles a nivel de Gran Maestro.

En 2011 IBM probó Watson, una súper computadora de notoria cultura general y especializada, capaz ya no de responder a un limitado conjunto de mensajes prefijados, sino al lenguaje natural. Ese año participó en igualdad de condiciones en el programa de TV Jeopardy y lo ganó resonantemente. Como sabemos, en ese show las preguntas son ambiguas, muy variopintas, con juegos de palabras que hacen que sus ganadores sean personas muy preparadas y especiales. ¿Qué nos dice esto de los cerebros electrónicos?

El traslado de inteligencia fuera de la mente, a cerebros mecánicos que imitan algunos aspectos no tan rudimentarios del pensamiento, es lo que llamamos «inteligencia artificial». Estamos, eso sí, a enorme distancia de un pensamiento artificial autónomo, inductivo o emotivo, pero hay razones para celebrar los triunfos sobre campeones de ajedrez o concursantes nerds. Eso revela el poder de la inteligencia combinada y condesada fuera del cerebro para que «piense» por sí misma.

Epílogo

Por tanto, hay dos visiones. Una optimista: los robots nos facilitarán la vida, sustituirán al humano en todo tipo de tareas peligrosas o tediosas, nos ayudarán a ganar guerras contra terroristas, a conquistar planetas fuera del nuestro y una largo etcétera.

Los profetas del desastre resaltan los dilemas éticos, el enorme desempleo que provocarán, la tiranía de las tostadoras inteligentes para que no comamos panes genéticamente modificados y un eventual enfrentamiento cuando –cual replicantes de Blade Runner- reclamen independencia y posiblemente supremacía.

Y un científico loco diría, alumbrado desde abajo con una linterna: “¡Las máquinas malévolas nos alcanzan ja ja ja ja!”. Ahora son móviles e inmateriales…

(Link a la 1ra parte).

___________________________________________
Imagen: MM.

Video: Filosofía cognitivas de la IA

Video: Filosofía cognitivas de la IA

(18 de noviembre, 2023). Considerado como un «documental de filosofía» este video se autodefine así:

El presente documental de filosofía gira en torno a la inteligencia artificial – también denominada con el acrónimo ‘IA’: un conjunto de capacidades cognoscitivas expresadas por sistemas informáticos o combinaciones de algoritmos cuyo propósito es la creación de máquinas que imiten la inteligencia humana para realizar tareas, resolver problemas y tomar decisiones cada vez más complejas a partir de una serie de datos. ¿Puede una máquina actuar inteligentemente? ¿Es capaz de resolver cualquier problema que una persona resolvería pensando? ¿En qué se diferencia la inteligencia artificial de la humana? 

⌚ Línea temporal: 00:0006:13 – Introducción. 06:1307:50 – ¿Qué es la inteligencia artificial? 07:5015:27 – Los procesos de la IA. 15:2720:38 – IA fuerte vs. IA débil. 20:3828:09 – El problema de la inteligencia. 28:0934:16 – El test de Turing. 34:1636:59 – Conclusión.

___________________________________________
Imagen: MM.

Robots entre nosotros (1era parte)

Robots entre nosotros (1era parte)

(17 de noviembre, 2023). “Bienvenido hijo mío/ Bienvenido a la Máquina” (Pink Floyd)

Fernando Nunez-Noda, Director de Maquinamente

La actitud de la gente hacia la tecnología es paradójica, e injusta. Si no se piensa en ella, parece un regalo del cielo, un componente indispensable de la calidad de vida (la luz eléctrica, automóviles, los dispositivos conectados). Pero al darle un matiz moral la demonizamos y aquí los robots no se salvan. Le atribuimos una especie de vida paralela, generalmente encarnada en una máquina malévola que sonríe en la oscuridad.

Stanley Kubrick entendió muy bien este mito en un film legendario, 2001: una odisea espacial (1968) y dotó a HAL-9000, la computadora reflexiva y asesina, de un salón donde los pensamientos eran luces rojas que se encendía y apagaban. Cuando se le asocia una voluntad propia, la ciencia termina siendo un villano (el monstruo de Frankenstein o los replicantes de Blade Runner).

En el fondo esta tendencia revela que la tecnología es expresión directa de la voluntad humana. Es una extensión de nuestras propias capacidades físicas y mentales que evolucionan fuera del cuerpo. El reino animal nos lo muestra. El murciélago tiene un radar en su minúsculo cerebro, el ser humano lo construye y lanza satélites que hacen rebotar las ondas por todo el planeta. Al murciélago le toma millones de años, los humanos no tienen más remedio (guerras mundiales, ambición económica) que construirlo en apenas un siglo.

De acuerdo con esta lógica, un cerebro del tamaño de un balón de basquetbol podría esperarse dentro de cientos de años, pero actualmente no hay tiempo que perder y por eso hemos llegado a internet y sus 52.954 Gigabytes de tráfico por segundo, en todo el mundo, todo el tiempo.

La Fascinación Robótica

Hubo intentos en la antigüedad y eras más recientes. Los griegos antiguos ya habían soñado con autómatas, Leonardo Da Vinci diseñó uno en 1495 aunque, desafortunadamente, no pudo construirlo.

El primer antecedente de una computadora moderna fue la máquina analítica del británico Charles Babbage, a mediados del siglo XIX. Una mujer, Augusta Ada Byron hija del poeta Lord Byron, desarrolló el “software”. Ambos son pioneros en la moderna concepción de una máquina de cálculo automática.

Por esa época se inventó el telégrafo, la versión más minimalista de internet. Al principio con alambres y luego también por el aire. En 1889 el estadounidense Herman Hollerith construyó la primera computadora electromecánica: un sistema de tabulación con tarjetas perforadas que tuvo vigencia hasta mediados del siglo XX. La empresa de Hollerith, luego de fusionarse con otras, llegó a ser IBM.

En el siglo XX se cristalizó todo. El checoslovaco Karel Čapek usó por primera vez el término “robot” en una obra teatral. Se construyó ENIAC, la primera computadora electrónica, para el Ejército de EEUU. Más tarde Claude Shannon, un ingeniero de IT&T, desarrolló el “bit” como unidad de información digital compuesta exclusivamente de ceros y unos en incontables combinaciones.

El evento pivotal vino con Allan Turing, cuya experiencia fue llevada a la pantalla en el film The Imitation Game (2014) con Benedict Cumberbatch. En la tercera década del siglo XX Turing desarrolló las ciencias de la computación con metodologías y fórmulas para computar los números, de forma que produjesen resultados bajo hardware y software.

Turing llegó a preguntarse si los cerebros electrónicos podrían, algún día, ser inteligentes. Formuló su célebre «prueba de Turing», consistente en un «juego de imitación» por el cual la máquina «engaña» al participante y le hace pensar que sus respuestas las elabora un humano. Éste hacía preguntas directas y unívocas a dos dispositivos, uno automático y otro manejado por humanos. Quien participa de la prueba no sabe cuál es cuál.

Se prueba así hasta qué punto la máquina es capaz de responder sin que sea posible deducir si es una máquina o un humano.

Otro personaje interesante fue el matemático Norbert Wiener, quien publicó en 1948 el libro Cibernética en el que describe con las mismas ecuaciones a los seres vivos, a las máquinas y –en general- a los sistemas autorregulables.

Para la cibernética los procesos son informacionales. Wiener le dio primacía al concepto de “retroalimentación” ( feedback), que describe un ciclo de información. Una computadora no está viva, ni es inteligente, pero es un dispositivo autorregulable que recibe información del ambiente y modifica su conducta en consecuencia.

Los robots, pues, imitan la vida humana: son autorregulables, reciben, procesan y generan información, tienen ciclos de vida y, con la debida programación, alcanzan importantes niveles de inteligencia artificial y autonomía.

 

 

No todos los Robots son Creados Iguales

Los robots se agrupan en tres grandes categorías: los domésticos, los industriales y los humanoides. Uno siempre habla de robots como seres antropomórficos, tipo el monstruo de Frankenstein, o más cibernéticos como el Bicentennial Man, del film que protagonizó Robin Williams en 1999.

Pero los hay de muchos tipos. Alexa de Amazon o Google Home son asistentes automatizados, si se quiere buenos conversadores, pero no se desplazan o atenazan objetos. En Home Depot, por ejemplo, hay termostatos WiFi manejados desde apps en iOx y en Android. Los dispositivos están conectado 24×7 a la red y tienen direcciones propias, de forma que en segundos reciben y procesan nuestras instrucciones: subir o bajar temperatura, apagarse, etc. Igual con luces, puertas de garaje, lavaplatos, etc.

Son robot y minirobots domésticos, en nuestros propios hogares, con nuestros objetos cotidianos. Según Statista 23% de los hogares en EEUU. estarán bajo el segmento de “control y conectividad”, léase: robótica en la casa. Para 2023 se estima una penetración mayor de 50%.

Hasta Disney, tan alejado de la polémica tanto como pueda, muestra en Smart House de 1999 una casa con personalidad maternal que pronto comienza a tomar las cosas en sus propias manos y el resultado es un caos.

Es decir, siempre subyace el espíritu de Frankenstein o del Hermano Mayor de George Orwell: las preocupaciones como la invasión de la privacidad, el control gubernamental y la dependencia excesiva en lo automatizado. Y peor aún: hacking. Si alguien penetra en el sistema de control de una casa inteligente puede abrir puertas, inhabilitar alarmas y ni qué decir de un bromista que provoque desventuras a los pobres residentes.

Por los momentos lo peor que puede hacer mi tostadora es quemarme el pan (y no voluntariamente).

En el mundo industrial o científico, los robots “articulados” son aquellos que imitan extremidades y coyunturas humanas, pero no pueden desplazarse por sí solos. Casi siempre están fijos, para ensamblar automóviles o apoyar la exploración submarina; o bien sobre ruedas para explorar un planeta como Marte. Son poco habladores.

Los ‘cartesianos’ tienen extremidades con pinceles, cortadoras u otros adminículos que van en sentido de los ejes X, Y y Z. es decir, hacia arriba-abajo, derecha-izquierda o frente-atrás. Pueden combinarse con los anteriores e imitan los brazos y manos para diversas tareas de precisión. Por ejemplo, con cortadores y hojillas sirven para modelar objetos 3D.

Hay muchas otras variedades: SCARA, teleoperados (como los drones) o de ‘augmenting’ (manejados por los humanos como extensiones de brazos o manos, por ejemplo, para desactivar explosivos a distancia.)

En un artículo pasado comenté: “En EEUU. para 2030 cerca de la mitad de los trabajos [de manufactura y servicios] podría estar en las metálicas manos de autómatas y computadoras. Los expertos advierten que la sociedad tiene que tomar medidas urgentes y contundentes en áreas como la educación (código en las escuelas, por ejemplo); seguridad social, creación de empleos no amenazados por la automatización y aspectos éticos como, aunque no lo crea, las tres leyes de la robótica de Isaac Asimov.”

(Link a la segunda parte).

___________________________________________
Imagen: MM.

Microsoft abre una puerta al futuro de la medicina con IA

Microsoft abre una puerta al futuro de la medicina con IA

(14 de noviembre, 2023).  Microsoft acaba de presentar una patente para una aplicación de terapia con IA. ¿Cómo te hace sentir eso?

Según la patente, el terapeuta de IA, descrito como un «método y aparato para proporcionar atención emocional en una sesión entre un usuario y un agente conversacional», está diseñado para proporcionar a los usuarios apoyo emocional, analizar sus sentimientos y almacenar cuidadosamente la información del usuario y las conversaciones, a fin de poder construir una «memoria» del usuario, su vida y sus desencadenantes emocionales.

El modelo aparentemente puede procesar tanto imágenes como texto y, lo que es importante, parece estar diseñado como un espacio general para que el usuario pueda hablar sobre su vida, más que como un servicio de emergencia.

A medida que la IA recopila más información sobre sus usuarios, la patente sugiere que puede comenzar a detectar ciertos indicios emocionales. En función de estos indicios, podría hacer algunas preguntas de sondeo e incluso, en algunos casos, hacer sugerencias sobre cómo el usuario podría abordar sus problemas.

Pero Microsoft parece creer que la IA también puede realizar un psicoanálisis más profundo. Según una figura, el usuario también tiene la opción de realizar una «prueba psicológica explícita», que según Microsoft será evaluada por un «algoritmo de puntuación predefinido por psicólogos o expertos en ámbitos psicológicos».

Ciertamente, no sería la primera vez que se intenta aplicar la IA a la atención sanitaria mental. Al parecer, existe algo llamado Woebot, y ¿quién podría olvidar la desastrosa incursión de la Asociación Nacional de Trastornos de la Alimentación en los servicios de chatbot? También es cierto que los humanos ya han recurrido a varios bots no específicos de la terapia para obtener compañía y apoyo, y muchas personas han desarrollado profundos vínculos personales con esas IAs.

Sin embargo, cabe destacar que en varios casos, estas interacciones han terminado causando mucho más daño que bien. En abril, se alegó que un hombre belga con ansiedad climática severa se suicidó después de buscar el apoyo de un chatbot. Y en 2021, un joven de 19 años intentó matar a la difunta reina Isabel II, sí, en serio, con una ballesta después de encontrar apoyo y aliento para ejecutar el complot mortal de su novia de IA.

Y en otros casos, en casos notablemente menos extremos, algunos usuarios de aplicaciones de acompañamiento de chatbot han informado sentirse angustiados cuando sus compañeros de chatbot y amantes han sido desmantelados. Si la IA de Microsoft desarrollara relaciones cercanas con los usuarios y luego se cerrara por cualquier motivo, no sería la primera vez que Microsoft eliminara un bot, podríamos imaginar que los clientes de la IA de terapia pasarían por una experiencia dolorosa similar.

También hay algunas advertencias de responsabilidad más obvias aquí. Para que una aplicación como esta sea funcional y segura, Microsoft deberá instalar algunos guardamanos de IA a prueba de balas. Y, al igual que un terapeuta humano, el bot probablemente debería estar obligado a informar el comportamiento peligroso o inquietante a las autoridades o a servicios de salud especiales.

Y aún así, independientemente de sus guardamanos, queda por ver si alguna IA actual tendrá el matiz emocional necesario para lidiar con situaciones complicadas y a menudo frágiles relacionadas con la salud mental y la enfermedad. ¿Qué pasa si le dice algo incorrecto a alguien que está luchando, o simplemente no dice lo suficiente?

Es difícil imaginar que un bot pueda ofrecerle a alguien la misma empatía y apoyo que un buen terapeuta humano, pero, según esta patente, aparentemente eso aún está por verse.

___________________________________________
Con información de Futurism. Imagen: MM.

Google lanza una ola de IA generativa en su buscador

Google lanza una ola de IA generativa en su buscador

(12 de noviembre, 2023). Google Search expande las capacidades de IA Generativa al mundo. Dice la empresa:

«Este año, hemos estado probando cómo la inteligencia artificial generativa (IA generativa) en Search puede ayudar a las personas a encontrar lo que buscan de nuevas y más rápidas maneras. Con Search Generative Experience (SGE), puede obtener descripciones generales impulsadas por IA que reúnen la información más útil y relevante disponible para su búsqueda.

«La IA generativa en Search ya nos permite atender una gama más amplia de necesidades de información, incluidas aquellas que se benefician de múltiples perspectivas. Con SGE, estamos mostrando más enlaces y enlaces a una gama más amplia de fuentes en la página de resultados, creando nuevas oportunidades para descubrir contenido.

«A medida que hemos mejorado continuamente la experiencia, también nos hemos expandido internacionalmente más allá de los Estados Unidos con lanzamientos recientes en India y Japón. Hasta ahora, la gran mayoría de los comentarios en los tres países ha sido positiva, y las personas encuentran que la IA generativa es particularmente útil para preguntas complejas que normalmente no pensarían en buscar.

«Ahora, en nuestra mayor expansión global hasta el momento, estamos llevando la IA generativa en Search a más de 120 nuevos países y territorios, junto con soporte para cuatro nuevos idiomas. Y estamos introduciendo algunas mejoras, que se lanzarán primero en los EE. UU., que harán que SGE sea más interactivo a medida que busca, incluidas seguimientos más fáciles, ayuda para la traducción impulsada por IA y más definiciones para temas como la codificación.»

Cómo se expande

Dice Google:

«A partir de hoy, llevaremos Search Labs y SGE en inglés a más de 120 nuevos países y territorios alrededor del mundo, incluidos México, Brasil, Corea del Sur, Indonesia, Nigeria, Kenia y Sudáfrica.

«Como parte de esta expansión, también habilitaremos cuatro nuevos idiomas para todos los que usen SGE: español, portugués, coreano e indonesio. Entonces, si, por ejemplo, hablas español en los EE. UU., ahora puedes usar IA generativa en la búsqueda con tu idioma preferido.

«Searchch Labs es una nueva forma de probar experimentos iniciales en la Búsqueda, disponible en la aplicación de Google (Android and iOS) y en Chrome para escritorio. Una vez que esté inscrito en Search Labs, simplemente habilite el experimento SGE para comenzar. En nuevos países, el acceso a través del escritorio Chrome está disponible hoy y el acceso a través de la aplicación de Google se habilitará durante la próxima semana.»

___________________________________________
Imagen: MM.

EE. UU. regula la Inteligencia Artificial

EE. UU. regula la Inteligencia Artificial

Texto completo del decreto que EE. UU. ha emitido respecto a la Inteligencia Artificial:

HOJA INFORMATIVA: El presidente Biden emite una orden ejecutiva sobre inteligencia artificial segura y confiable

Hoy, el presidente Biden emite una Orden Ejecutiva histórica para garantizar que Estados Unidos lidere el camino a la hora de hacer realidad la promesa y gestionar los riesgos de la inteligencia artificial (IA). La Orden Ejecutiva establece nuevos estándares para la seguridad de la IA, protege la privacidad de los estadounidenses, promueve la equidad y los derechos civiles, defiende a los consumidores y trabajadores, promueve la innovación y la competencia, promueve el liderazgo estadounidense en todo el mundo y más.

Como parte de la estrategia integral de la Administración Biden-Harris para la innovación responsable, la Orden Ejecutiva se basa en acciones anteriores que el Presidente ha tomado, incluido el trabajo que condujo a compromisos voluntarios de 15 empresas líderes para impulsar el desarrollo seguro y confiable de la IA.

La Orden Ejecutiva dirige las siguientes acciones:

Nuevos estándares para la seguridad de la IA

A medida que crecen las capacidades de la IA, también crecen sus implicaciones para la seguridad de los estadounidenses. Con esta Orden Ejecutiva, el Presidente dirige las acciones más radicales jamás tomadas para proteger a los estadounidenses de los riesgos potenciales de los sistemas de IA:

Exigir que los desarrolladores de los sistemas de inteligencia artificial más potentes compartan los resultados de sus pruebas de seguridad y otra información crítica con el gobierno de EE. UU. De acuerdo con la Ley de Producción de Defensa, la Orden requerirá que las empresas que desarrollen cualquier modelo de base que represente un riesgo grave para la seguridad nacional, la seguridad económica nacional o la salud y seguridad públicas nacionales notifiquen al gobierno federal cuando entrenen el modelo, y deben compartir los resultados de todas las pruebas de seguridad del equipo rojo. Estas medidas garantizarán que los sistemas de IA sean seguros y confiables antes de que las empresas los hagan públicos.

Desarrollar estándares, herramientas y pruebas para ayudar a garantizar que los sistemas de IA sean seguros y confiables. El Instituto Nacional de Estándares y Tecnología establecerá estándares rigurosos para pruebas exhaustivas del equipo rojo para garantizar la seguridad antes de su divulgación al público. El Departamento de Seguridad Nacional aplicará esos estándares a sectores de infraestructura críticos y establecerá la Junta de Seguridad de IA. Los Departamentos de Energía y Seguridad Nacional también abordarán las amenazas de los sistemas de inteligencia artificial a la infraestructura crítica, así como los riesgos químicos, biológicos, radiológicos, nucleares y de ciberseguridad. En conjunto, estas son las acciones más importantes jamás tomadas por cualquier gobierno para avanzar en el campo de la seguridad de la IA.

Proteger contra los riesgos del uso de IA para diseñar materiales biológicos peligrosos mediante el desarrollo de nuevos estándares sólidos para la detección de síntesis biológica. Las agencias que financian proyectos de ciencias biológicas establecerán estos estándares como condición para la financiación federal, creando poderosos incentivos para garantizar una detección adecuada y gestionar los riesgos potencialmente empeorados por la IA.

Proteger a los estadounidenses del fraude y el engaño habilitados por la IA estableciendo estándares y mejores prácticas para detectar contenido generado por IA y autenticar el contenido oficial. El Departamento de Comercio desarrollará una guía para la autenticación de contenido y la creación de marcas de agua para etiquetar claramente el contenido generado por IA. Las agencias federales utilizarán estas herramientas para que los estadounidenses sepan fácilmente que las comunicaciones que reciben de su gobierno son auténticas y darán ejemplo al sector privado y a los gobiernos de todo el mundo.

Establecer un programa de ciberseguridad avanzado para desarrollar herramientas de inteligencia artificial para encontrar y corregir vulnerabilidades en software crítico, basándose en el actual desafío cibernético de inteligencia artificial de la administración Biden-Harris. En conjunto, estos esfuerzos aprovecharán las capacidades cibernéticas potencialmente revolucionarias de la IA para hacer que el software y las redes sean más seguros.

Ordenar el desarrollo de un Memorando de Seguridad Nacional que dirija acciones adicionales sobre IA y seguridad, que será desarrollado por el Consejo de Seguridad Nacional y el Jefe de Gabinete de la Casa Blanca. Este documento garantizará que la comunidad militar y de inteligencia de los Estados Unidos utilice la IA de forma segura, ética y eficaz en sus misiones, y dirigirá acciones para contrarrestar el uso militar de la IA por parte de los adversarios.

Proteger la privacidad de los estadounidenses

  • Sin salvaguardias, la IA puede poner aún más en riesgo la privacidad de los estadounidenses. La IA no sólo facilita la extracción, identificación y explotación de datos personales, sino que también aumenta los incentivos para hacerlo porque las empresas utilizan datos para entrenar sistemas de IA. Para proteger mejor la privacidad de los estadounidenses, incluso frente a los riesgos que plantea la IA, el Presidente pide al Congreso que apruebe una legislación bipartidista sobre privacidad de datos para proteger a todos los estadounidenses, especialmente a los niños, y dirige las siguientes acciones:
  • Proteger la privacidad de los estadounidenses priorizando el apoyo federal para acelerar el desarrollo y el uso de técnicas que preserven la privacidad, incluidas aquellas que utilizan IA de vanguardia y que permiten entrenar sistemas de IA preservando al mismo tiempo la privacidad de los datos de entrenamiento.
  • Fortalecer la investigación y las tecnologías que preservan la privacidad, como las herramientas criptográficas que preservan la privacidad de las personas, financiando una Red de Coordinación de Investigación para avanzar en avances y desarrollo rápidos. La National Science Foundation también trabajará con esta red para promover la adopción de tecnologías de vanguardia para preservar la privacidad por parte de las agencias federales.
  • Evaluar cómo las agencias recopilan y utilizan la información disponible comercialmente (incluida la información que obtienen de los intermediarios de datos) y fortalecer la orientación sobre privacidad para que las agencias federales tengan en cuenta los riesgos de la IA. Este trabajo se centrará en particular en la información disponible comercialmente que contenga datos de identificación personal.
  • Desarrollar directrices para que las agencias federales evalúen la eficacia de las técnicas de preservación de la privacidad, incluidas las utilizadas en los sistemas de inteligencia artificial. Estas directrices impulsarán los esfuerzos de la agencia para proteger los datos de los estadounidenses.
  • Proteger la privacidad de los estadounidenses priorizando el apoyo federal para acelerar el desarrollo y el uso de técnicas— que preserven la privacidad, incluidas aquellas que utilizan IA de vanguardia y que permiten entrenar sistemas de IA preservando al mismo tiempo la privacidad de los datos de entrenamiento.

     

  • Fortalecer la investigación y las tecnologías que preservan la privacidad, como las herramientas criptográficas que preservan la privacidad de las personas, financiando una Red de Coordinación de Investigación para avanzar en avances y desarrollo rápidos. La National Science Foundation también trabajará con esta red para promover la adopción de tecnologías de vanguardia para preservar la privacidad por parte de las agencias federales.

     

  • Evaluar cómo las agencias recopilan y utilizan la información disponible comercialmente (incluida la información que obtienen de los intermediarios de datos) y fortalecer la orientación sobre privacidad para que las agencias federales tengan en cuenta los riesgos de la IA. Este trabajo se centrará en particular en la información disponible comercialmente que contenga datos de identificación personal.

     

  • Desarrollar directrices para que las agencias federales evalúen la eficacia de las técnicas de preservación de la privacidad, incluidas las utilizadas en los sistemas de inteligencia artificial. Estas directrices impulsarán los esfuerzos de la agencia para proteger los datos de los estadounidenses.

Promoción de la equidad y los derechos civiles

Los usos irresponsables de la IA pueden provocar y profundizar la discriminación, los prejuicios y otros abusos en la justicia, la atención sanitaria y la vivienda. La Administración Biden-Harris ya ha tomado medidas al publicar el Plan para una Declaración de Derechos de la IA y emitir una Orden Ejecutiva que ordena a las agencias combatir la discriminación algorítmica, al tiempo que hace cumplir las autoridades existentes para proteger los derechos y la seguridad de las personas. Para garantizar que AI promueva la equidad y los derechos civiles, el Presidente ordena las siguientes acciones adicionales:

  • Proporcionar orientación clara a los propietarios, los programas de beneficios federales y los contratistas federales para evitar que los algoritmos de IA se utilicen para exacerbar la discriminación.

     

  • Abordar la discriminación algorítmica mediante capacitación, asistencia técnica y coordinación entre el Departamento de Justicia y las oficinas federales de derechos civiles sobre las mejores prácticas para investigar y procesar violaciones de derechos civiles relacionadas con la IA.

     

  • Garantizar la equidad en todo el sistema de justicia penal mediante el desarrollo de mejores prácticas sobre el uso de la IA en la sentencia, la libertad condicional y la libertad vigilada, la libertad y detención preventivas, las evaluaciones de riesgos, la vigilancia, la previsión de delitos y la vigilancia policial predictiva, y el análisis forense.

Defender a los consumidores, pacientes y estudiantes

La IA puede aportar beneficios reales a los consumidores, por ejemplo, haciendo que los productos sean mejores, más baratos y más ampliamente disponibles. Pero la IA también aumenta el riesgo de herir, engañar o dañar de otro modo a los estadounidenses. Para proteger a los consumidores y al mismo tiempo garantizar que la IA pueda mejorar la situación de los estadounidenses, el Presidente dirige las siguientes acciones:

  • Impulsar el uso responsable de la IA en la atención sanitaria y el desarrollo de medicamentos asequibles y que salven vidas. El Departamento de Salud y Servicios Humanos también establecerá un programa de seguridad para recibir informes de daños o prácticas de atención médica inseguras que involucren IA y actuar para remediarlos.

  • Dar forma al potencial de la IA para transformar la educación mediante la creación de recursos para ayudar a los educadores a implementar herramientas educativas basadas en IA, como tutorías personalizadas en las escuelas.

Trabajadores de apoyo

La IA está cambiando los empleos y los lugares de trabajo en Estados Unidos, ofreciendo tanto la promesa de una mayor productividad como los peligros de una mayor vigilancia, prejuicios y desplazamiento laboral en el lugar de trabajo. Para mitigar estos riesgos, apoyar la capacidad de los trabajadores para negociar colectivamente e invertir en capacitación y desarrollo de la fuerza laboral que sea accesible para todos, el Presidente dirige las siguientes acciones:

  • Desarrollar principios y mejores prácticas para mitigar los daños y maximizar los beneficios de la IA para los trabajadores abordando el desplazamiento laboral; normas laborales; equidad, salud y seguridad en el lugar de trabajo; y recopilación de datos. Estos principios y mejores prácticas beneficiarán a los trabajadores al brindarles orientación para evitar que los empleadores compensen insuficientemente a los trabajadores, evalúen las solicitudes de empleo de manera injusta o afecten la capacidad de los trabajadores para organizarse.

     

  • Producir un informe sobre los posibles impactos de la IA en el mercado laboral y estudiar e identificar opciones para fortalecer el apoyo federal a los trabajadores que enfrentan interrupciones laborales, incluidas las provocadas por la IA.

Promoción de la innovación y la competencia

Estados Unidos ya es líder en innovación en IA: más empresas emergentes de IA recaudaron capital por primera vez en Estados Unidos el año pasado que en los siete países siguientes juntos. La Orden Ejecutiva garantiza que sigamos liderando el camino en innovación y competencia a través de las siguientes acciones:

  • Catalizar la investigación de IA en todo Estados Unidos a través de una prueba piloto del National AI Research Resource, una herramienta que brindará a los investigadores y estudiantes de IA acceso a recursos y datos clave de IA, y subvenciones ampliadas para la investigación de IA en áreas vitales como la atención médica y el cambio climático.

     

  • Promover un ecosistema de IA justo, abierto y competitivo brindando a los pequeños desarrolladores y empresarios acceso a asistencia técnica y recursos, ayudando a las pequeñas empresas a comercializar avances en IA y alentando a la Comisión Federal de Comercio a ejercer sus autoridades.

     

  • Utilizar las autoridades existentes para ampliar la capacidad de inmigrantes y no inmigrantes altamente calificados con experiencia en áreas críticas para estudiar, permanecer y trabajar en los Estados Unidos modernizando y simplificando los criterios de visa, entrevistas y revisiones.

Impulsando el liderazgo estadounidense en el extranjero

Los desafíos y oportunidades de la IA son globales. La Administración Biden-Harris seguirá trabajando con otras naciones para apoyar el despliegue y el uso seguro y confiable de la IA en todo el mundo. Para tal efecto, el Presidente dirige las siguientes acciones:

  • Ampliar los compromisos bilaterales, multilaterales y de múltiples partes interesadas para colaborar en la IA. El Departamento de Estado, en colaboración con el Departamento de Comercio, liderará un esfuerzo para establecer marcos internacionales sólidos para aprovechar los beneficios de la IA, gestionar sus riesgos y garantizar la seguridad. Además, esta semana, el vicepresidente Harris hablará en la Cumbre del Reino Unido sobre seguridad de la IA, organizada por el primer ministro Rishi Sunak.

     

  • Acelerar el desarrollo y la implementación de estándares vitales de IA con socios internacionales y organizaciones de estándares, garantizando que la tecnología sea segura, confiable e interoperable.

     

  • Promover el desarrollo y el despliegue seguro, responsable y que afirme los derechos de la IA en el extranjero para resolver desafíos globales, como promover el desarrollo sostenible y mitigar los peligros para la infraestructura crítica.

Garantizar el uso gubernamental responsable y eficaz de la IA

La IA puede ayudar al gobierno a ofrecer mejores resultados para el pueblo estadounidense. Puede ampliar la capacidad de las agencias para regular, gobernar y desembolsar beneficios, y puede reducir costos y mejorar la seguridad de los sistemas gubernamentales. Sin embargo, el uso de la IA puede plantear riesgos, como discriminación y decisiones inseguras. Para garantizar el despliegue gubernamental responsable de la IA y modernizar la infraestructura federal de IA, el Presidente dirige las siguientes acciones:

  • Emitir orientación para el uso de la IA por parte de las agencias, incluidos estándares claros para proteger los derechos y la seguridad, mejorar la adquisición de IA y fortalecer la implementación de la IA.
  • Ayude a las agencias a adquirir productos y servicios de IA específicos de forma más rápida, económica y eficaz mediante una contratación más rápida y eficiente.

  • Acelerar la contratación rápida de profesionales de IA como parte de un aumento de talento en IA en todo el gobierno liderado por la Oficina de Gestión de Personal, el Servicio Digital de EE. UU., el Cuerpo Digital de EE. UU. y la Beca Presidencial de Innovación. Las agencias brindarán capacitación en IA a los empleados de todos los niveles en campos relevantes.

A medida que avancemos en esta agenda a nivel nacional, la Administración trabajará con aliados y socios en el extranjero en un marco internacional sólido para gobernar el desarrollo y el uso de la IA. La Administración ya ha consultado ampliamente sobre los marcos de gobernanza de la IA durante los últimos meses, colaborando con Australia, Brasil, Canadá, Chile, la Unión Europea, Francia, Alemania, India, Israel, Italia, Japón, Kenia, México, Países Bajos, Nueva Zelanda. Zelanda, Nigeria, Filipinas, Singapur, Corea del Sur, los Emiratos Árabes Unidos y el Reino Unido. Las acciones tomadas hoy apoyan y complementan el liderazgo de Japón en el Proceso de Hiroshima del G-7, la Cumbre del Reino Unido sobre Seguridad de la IA, el liderazgo de la India como Presidente de la Asociación Global sobre IA y los debates en curso en las Naciones Unidas.

Las acciones que el presidente Biden dirigió hoy son pasos vitales hacia adelante en el enfoque de Estados Unidos sobre una IA segura y confiable. Se necesitarán más acciones y la Administración seguirá trabajando con el Congreso para impulsar una legislación bipartidista que ayude a Estados Unidos a liderar el camino en innovación responsable.

Para obtener más información sobre el trabajo de la Administración Biden-Harris para promover la IA y oportunidades para unirse a la fuerza laboral federal de IA, visite AI.gov

___________________________________________
Imagen: MM.

Verified by MonsterInsights