Pequeña lista de libros y películas sobre IA

Pequeña lista de libros y películas sobre IA

(28 de noviembre, 2023). La IA ha llenado el universo de literatura y películas de ficción científica, desde sus inicios. Por ejemplo: Metrópolis (1927) de Fritz Lang o Frankenstein (1931) de James Whale. Pero hagamos un recuento más contemporáneo.  

Libros:

  • «2001: Una odisea del espacio» (1968), de Arthur C. Clarke: Una historia clásica de ciencia ficción que explora la relación entre la humanidad y la inteligencia artificial.
  • «Yo, Robot» (1950), de Isaac Asimov: Una colección de relatos cortos que exploran las posibles consecuencias de la IA.
  • «La matriz» (1999), de las hermanas Wachowski: Una película de ciencia ficción que plantea la pregunta de si la realidad que vivimos es una ilusión creada por la IA.
  • «Superintelligence» (2014), de Nick Bostrom: Un ensayo que explora los riesgos potenciales de la IA superinteligente.
  • «Life 3.0» (2018), de Max Tegmark: Un libro que explora las posibilidades y los riesgos de la IA.

Películas:

    • «2001: Una odisea del espacio» (1968): Una historia clásica de ciencia ficción que explora la relación entre la humanidad y la inteligencia artificial.

    • «Blade Runner» (1982): Una película de ciencia ficción que plantea la pregunta de si los androides son capaces de sentir emociones.

    • «Terminator» (1984): Una película de acción que presenta a un robot asesino enviado del futuro para matar a una mujer que dará a luz al líder de la resistencia humana.

  • «Matrix» (1999): Una película de ciencia ficción que plantea la pregunta de si la realidad que vivimos es una ilusión creada por la IA.

  • «Her» (2013): Una película romántica que explora la relación entre un hombre y un sistema operativo de IA.

Esta lista es solo una pequeña muestra de la gran cantidad de libros y películas que existen sobre la relación del ser humano con la IA. Hay libros y películas que exploran los posibles beneficios de la IA, así como libros y películas que exploran los posibles riesgos. Es importante leer y ver una variedad de materiales para tener una comprensión completa de este tema complejo.

__________________________________________________
Imágenes: MM.

Pregunta seria: ¿Puede la IA crear seres digitales que tengan su propia conciencia y agenda?

Pregunta seria: ¿Puede la IA crear seres digitales que tengan su propia conciencia y agenda?

(27 de noviembre, 2023, con información de GeekWire). ¿La inteligencia artificial va a estar al servicio de la humanidad o va a dar paso a nuevas especies de seres digitales conscientes con su propia movida?

Es una pregunta que ha inspirado un montón de historias de ciencia ficción, desde “Colossus: The Forbin Project” en 1970, hasta “The Matrix” en 1999, y la peli de este año donde la IA se enfrenta a los humanos, “The Creator”.

La misma pregunta también estaba rondando en el lío de liderazgo de OpenAI — donde el CEO Sam Altman se impuso sobre los miembros del consejo sin fines de lucro que lo habían despedido una semana antes.

Si tuvieras que dividir a la comunidad de IA entre los que quieren acelerar y los que prefieren ir más despacio, esos miembros del consejo estarían en el grupo del “vamos con calma”, mientras que Altman sería de los que dicen “a todo gas”. Y ha habido rumores sobre la posibilidad de un “descubrimiento” en OpenAI que aceleraría el campo de la IA a toda máquina — tal vez demasiado rápido para nuestro propio bien.

¿Debería preocuparnos la idea de que la IA se vuelva consciente y tome cartas en el asunto? Esa es solo una de las preguntas que aborda el veterano escritor de ciencia George Musser en un libro recién publicado titulado “Poniéndonos de nuevo en la ecuación”.

Musser entrevistó a investigadores de IA, neurocientíficos, físicos cuánticos y filósofos para entender la búsqueda de uno de los misterios más profundos de la vida: ¿Cuál es la naturaleza de la conciencia? ¿Y es un fenómeno exclusivamente humano?

¿Su conclusión? No hay razón para que la IA adecuada no pueda ser tan consciente como nosotros. “Casi todos los que piensan en esto, en todos estos campos diferentes, dicen que si replicáramos una neurona en silicio — si creáramos una computadora neuromórfica que fuera muy, pero que muy fiel a la biología — sí, sería consciente”, dice Musser en el último episodio del podcast Fiction Science.

Pero, ¿deberíamos preocuparnos por permitir el ascenso de futuros señores de la IA? En esa pregunta existencial, la opinión de Musser va contra el guion típico de ciencia ficción.

“Creo que las máquinas tontas, las máquinas no conscientes, como se ha demostrado en el mundo actual, son extremadamente peligrosas y bastante capaces de aniquilar a la humanidad. Las máquinas conscientes no añaden ninguna capacidad particular que, al menos en mi opinión, aumente su peligro para la humanidad”, dice.

“Si acaso, creo que probablemente el peligro sea al contrario: que nosotros las maltratemos”, dice Musser. “Eso también es parte, por desgracia, de la historia de los seres humanos. Tendemos a maltratar, hasta que superamos eso, a seres que claramente son conscientes.”

Las capacidades de herramientas de IA generativa como el ChatGPT de OpenAI no son una gran sorpresa para aquellos que investigan en el campo — pero Musser dice que los investigadores se han sorprendido de lo rápido que se están desarrollando.

Compara el progreso en IA con el progreso en la fusión nuclear. “Es una de esas cosas que siempre parece estar en el futuro, ¿verdad?” dice. Pero en el caso de la IA, el futuro parece estar menos lejos.

“Adelanta el cronograma en la mente de muchas personas para lo que se conoce como AGI”, dice Musser. “Eso es inteligencia general artificial, y es un sistema que es capaz de una amplia gama de funciones, de aprender sobre la marcha. Básicamente un sustituto más cercano de un animal, o incluso de un cerebro humano, o incluso superhumano. Así que creo que ha acelerado las cosas, pero ha sido un cambio cuantitativo, no cualitativo para la gente.”

__________________________________________________
Imágenes: MM con imágenes de Pixabay.

Robots entre nosotros (2da parte)

Robots entre nosotros (2da parte)

(19 de noviembre, 2023). Fernando Nunez-Noda, Director de Maquinamente (Link a la 1er parte)

Los Robots en la Literatura y el Cine (2da parte)

(Atención: Puede haber spoilers.)

Pero los robots interesantes son los que se parecen a nosotros y, paradójicamente, tienen el potencial de hacernos añicos (así somos). Tomemos Terminator con Arnold Schwarzenegger por ejemplo. Son androides, es decir, robots humanizados que caminan, sujetan objetos, ven, escuchan y hablan, también son capaces de sensaciones táctiles.

Vale decir que ya hay androides entre nosotros, como ASIMO (suena como un tal Isaac y su foto está a la derecha), fabricado por Honda y capaz de un rango bastante amplio de movimientos. Camina como ningún robot hasta ahora, sube y baja escaleras, sortea obstáculos, reconoce objetos e incluso rostros. Responde a sonidos y cambios diversos en sus alrededores.

En cambio el de Robocop (1987) es un cyborg, al igual que Darth Vader de la famosa Guerra de las Galaxias. Son humanos a quienes se les han incorporado elementos robóticos para completarlos o mejorarlos. El primero está del lado de la ley pero no deja de tener profundos conflictos por su condición mixta. El segundo es un villano que aprovecha al máximo sus atributos robóticos para aplastar a sus enemigos.

Tan temprano como 1941, el autor estadounidense Isaac Asimov usó por primera vez el término “robótica” y predijo el advenimiento de la industria de los autómatas. En su libro de cuentos I, Robot (del cual se hizo una película en 2004 con Will Smith) Asimov expuso las famosas “3 Leyes de la Robótica”:

Primera Ley: “Un robot no hará daño a un ser humano, ni permitirá con su inacción que sufra daño.” Segunda Ley: “Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.” Tercera Ley: “Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.”

Luego le agregó una Ley Cero: “Un robot no hará daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño.”

El argumento de “I, Robot” sigue una línea común en las historias de entidades cibernéticas autoconscientes: llegan a equiparse con los humanos, sus creadores, y por supuesto en algún momento quieren independizarse y ser realmente autónomos socialmente. Un equivalente, quizá, a la emancipación de los esclavos.

Antes hablé de 2001 Odisea Espacial. Es bueno notar que HAL-9000, la computadora inteligente de la nave, tiene un conflicto ético cuando se le obliga a mentir y, eventualmente, a asesinar para poder cumplir una misión que los astronautas no conocían.

Más ligeros, aunque no ajenos a conflictos morales y de conciencia, son los autómatas de Star Wars. C3PO es un androide pero R2D2 o BB8 son “droides”, es decir, capaces de inteligencia humana pero sin aspecto humano.

Blade Runner (1983) es una obra maestra del director Ridley Scott (basada en un cuento de otro genio de la sci-fi, Phillip K. Dick) plena de dramatismo del lado de los humanoides. Fabricados a imagen y semejanza de sus creadores, capaces de razonamientos profundos y emociones, los androides de esta película son –en muchos sentidos- más humanos que los humanos mismos. El problema es que tienen un tiempo de vida prefijado y corto. En un mundo sucio, superpoblado y deprimente, el detective se da cuenta que sus perseguidos robóticos aprecian mucho más la vida que él mismo y tienen un sentido poético de la existencia que se ha perdido en ese mundo distópico.

The Matrix (1999) ofrece un tipo muy diferente de robots. Digamos: seres hechos de realidad virtual, en un mundo simulado que esconde una absoluta tiranía de las máquinas, de las computadoras que usan a los humanos como baterías vivientes y a cambio le dan la apariencia de realidad cotidiana.

En esa película el robot es también un universo ilusorio que unos pocos rebeldes tratan de desmantelar para vivir algo más real y propio. Un eco -quizá- de la ilusión del mundo que denunció Buda y a la cual hay que renunciar con una nueva conciencia con la realidad.

Decíamos, pues, que Turing se preguntó si los cerebros electrónicos llegarían a ser inteligentes. La inteligencia humana deduce, induce, infiere, imagina, adivina, especula. En 1997 Deep Blue, un sistema computacional de IBM, «derrotó» a Gary Kasparov -campeón de entonces y acaso el mejor jugador de todos los tiempos- en un match de ajedrez de varias partidas. Deep Blue produce millardos de configuraciones complejas a partir de reglas simples que se agregan y concatenan, de modo que parecen realizadas, no sólo por un humano, sino por uno superdotado. Eso sí, sólo en ajedrez.

Lo más pertinente sería pensar que Deep Blue sí demuestra inteligencia, pero no enteramente suya, sino “prestada” de sus creadores y programadores. En otras palabras, quienes ganaron fueron los creadores de los algoritmos, las reglas que sigue el sistema en todos los casos posibles. En sucesivos intentos, Kasparov no pudo derrota a su némesis electrónica.

Deep Blue no es solo una prolongación de las capacidades ajedrecísticas de sus programadores, sino una superación de sus limitaciones, dado que puede procesar información como no pueden sus hacedores individual o colectivamente. Además, Deep Blue es capaz de responder a muy complejas estrategias de engaño y sutileza. Puede simular, cambiar de plan sobre la marcha. Un genio, pues.

Kasparov protagonizó otros dos matches, en 2003, contra programas computacionales distintos a DeepBlue. Ambos resultaron tablas. En 2006 el campeón mundial de entonces, Vladimir Kramnik, jugó contra un”nieto” de DeepBlue llamado Deep Fritz. La computadora le ganó 4 juegos a 2. Wikipedia da cuenta que, según conocedores, en la última partida sencillamente lo aplastó.

Parece que la distancia crecerá a favor de la computadora como ya ha ocurrido en tantas áreas. El campeón mundial actual, el hindú Viswanathan Anand, tiene un puntaje ELO en la Federación Mundial de Ajedrez de 2.817. Un “motor ajedrecístico” de 2010, llamado Rybka, tiene un ELO estimado de 3.200 puntos. Y actualmente, por cierto, hay programas que corren en móviles a nivel de Gran Maestro.

En 2011 IBM probó Watson, una súper computadora de notoria cultura general y especializada, capaz ya no de responder a un limitado conjunto de mensajes prefijados, sino al lenguaje natural. Ese año participó en igualdad de condiciones en el programa de TV Jeopardy y lo ganó resonantemente. Como sabemos, en ese show las preguntas son ambiguas, muy variopintas, con juegos de palabras que hacen que sus ganadores sean personas muy preparadas y especiales. ¿Qué nos dice esto de los cerebros electrónicos?

El traslado de inteligencia fuera de la mente, a cerebros mecánicos que imitan algunos aspectos no tan rudimentarios del pensamiento, es lo que llamamos «inteligencia artificial». Estamos, eso sí, a enorme distancia de un pensamiento artificial autónomo, inductivo o emotivo, pero hay razones para celebrar los triunfos sobre campeones de ajedrez o concursantes nerds. Eso revela el poder de la inteligencia combinada y condesada fuera del cerebro para que «piense» por sí misma.

Epílogo

Por tanto, hay dos visiones. Una optimista: los robots nos facilitarán la vida, sustituirán al humano en todo tipo de tareas peligrosas o tediosas, nos ayudarán a ganar guerras contra terroristas, a conquistar planetas fuera del nuestro y una largo etcétera.

Los profetas del desastre resaltan los dilemas éticos, el enorme desempleo que provocarán, la tiranía de las tostadoras inteligentes para que no comamos panes genéticamente modificados y un eventual enfrentamiento cuando –cual replicantes de Blade Runner- reclamen independencia y posiblemente supremacía.

Y un científico loco diría, alumbrado desde abajo con una linterna: “¡Las máquinas malévolas nos alcanzan ja ja ja ja!”. Ahora son móviles e inmateriales…

(Link a la 1ra parte).

___________________________________________
Imagen: MM.

Video: Filosofía cognitivas de la IA

Video: Filosofía cognitivas de la IA

(18 de noviembre, 2023). Considerado como un «documental de filosofía» este video se autodefine así:

El presente documental de filosofía gira en torno a la inteligencia artificial – también denominada con el acrónimo ‘IA’: un conjunto de capacidades cognoscitivas expresadas por sistemas informáticos o combinaciones de algoritmos cuyo propósito es la creación de máquinas que imiten la inteligencia humana para realizar tareas, resolver problemas y tomar decisiones cada vez más complejas a partir de una serie de datos. ¿Puede una máquina actuar inteligentemente? ¿Es capaz de resolver cualquier problema que una persona resolvería pensando? ¿En qué se diferencia la inteligencia artificial de la humana? 

⌚ Línea temporal: 00:0006:13 – Introducción. 06:1307:50 – ¿Qué es la inteligencia artificial? 07:5015:27 – Los procesos de la IA. 15:2720:38 – IA fuerte vs. IA débil. 20:3828:09 – El problema de la inteligencia. 28:0934:16 – El test de Turing. 34:1636:59 – Conclusión.

___________________________________________
Imagen: MM.

Google lanza una ola de IA generativa en su buscador

Google lanza una ola de IA generativa en su buscador

(12 de noviembre, 2023). Google Search expande las capacidades de IA Generativa al mundo. Dice la empresa:

«Este año, hemos estado probando cómo la inteligencia artificial generativa (IA generativa) en Search puede ayudar a las personas a encontrar lo que buscan de nuevas y más rápidas maneras. Con Search Generative Experience (SGE), puede obtener descripciones generales impulsadas por IA que reúnen la información más útil y relevante disponible para su búsqueda.

«La IA generativa en Search ya nos permite atender una gama más amplia de necesidades de información, incluidas aquellas que se benefician de múltiples perspectivas. Con SGE, estamos mostrando más enlaces y enlaces a una gama más amplia de fuentes en la página de resultados, creando nuevas oportunidades para descubrir contenido.

«A medida que hemos mejorado continuamente la experiencia, también nos hemos expandido internacionalmente más allá de los Estados Unidos con lanzamientos recientes en India y Japón. Hasta ahora, la gran mayoría de los comentarios en los tres países ha sido positiva, y las personas encuentran que la IA generativa es particularmente útil para preguntas complejas que normalmente no pensarían en buscar.

«Ahora, en nuestra mayor expansión global hasta el momento, estamos llevando la IA generativa en Search a más de 120 nuevos países y territorios, junto con soporte para cuatro nuevos idiomas. Y estamos introduciendo algunas mejoras, que se lanzarán primero en los EE. UU., que harán que SGE sea más interactivo a medida que busca, incluidas seguimientos más fáciles, ayuda para la traducción impulsada por IA y más definiciones para temas como la codificación.»

Cómo se expande

Dice Google:

«A partir de hoy, llevaremos Search Labs y SGE en inglés a más de 120 nuevos países y territorios alrededor del mundo, incluidos México, Brasil, Corea del Sur, Indonesia, Nigeria, Kenia y Sudáfrica.

«Como parte de esta expansión, también habilitaremos cuatro nuevos idiomas para todos los que usen SGE: español, portugués, coreano e indonesio. Entonces, si, por ejemplo, hablas español en los EE. UU., ahora puedes usar IA generativa en la búsqueda con tu idioma preferido.

«Searchch Labs es una nueva forma de probar experimentos iniciales en la Búsqueda, disponible en la aplicación de Google (Android and iOS) y en Chrome para escritorio. Una vez que esté inscrito en Search Labs, simplemente habilite el experimento SGE para comenzar. En nuevos países, el acceso a través del escritorio Chrome está disponible hoy y el acceso a través de la aplicación de Google se habilitará durante la próxima semana.»

___________________________________________
Imagen: MM.

Cumbre sobre Seguridad de la IA, primer gran hito de esta tecnología

Cumbre sobre Seguridad de la IA, primer gran hito de esta tecnología

(6 de noviembre, 2023 – Foto oficial del evento). Que hubo acuerdo entre representantes de OpenAI, Google, Microsoft, Anthropic,  Meta y xAI es prueba del éxito de la primera cumbre que busca regular aspectos claves de la IA. ¡La movida esta semana en el Reino Unido fue la Cumbre de Seguridad de la Inteligencia Artificial!

Las grandes empresas tecnológicas se comprometieron a colaborar con los gobiernos en las pruebas de sus nuevos juguetes de inteligencia artificial. La idea es reducir los riesgos asociados a esta tecnología, que según los presentes, podrían ser un verdadero desastre, según dijeron en un comunicado conjunto.

El primer ministro británico, Rishi Sunak, confrimó que Estados Unidos, la Unión Europea y otros países se pusieron de acuerdo con algunas empresas top para testear a fondo estos modelos de inteligencia artificial antes y después de lanzarlos al público. En estas sesiones, estuvieron los representantes de OpenAI, Anthropic, Google, Microsoft, Meta y xAI, quienes debatieron estos temas el jueves pasado.

Para darle más cuerda a esto, convocaron a Yoshua Bengio, un crack canadiense en computación y considerado uno de los padres de la inteligencia artificial, para que haga un informe sobre el «estado de la ciencia». La idea es entender mejor lo que estas tecnologías pueden hacer ahora y centrarse en los riesgos más importantes. Bengio, que ganó el Premio Turing y es parte del Consejo Asesor Científico de la ONU, se va a encargar de armar ese informe. ¡La IA se desarrolla imparablemente!

Hubo conflicto

La movida del gobierno británico es fuerte: armaron un nuevo centro global de pruebas que va a estar instalado en el Reino Unido. La idea es enfocarse en los problemas de seguridad nacional y social, ¡se la juegan totalmente!

China, sí, el mismo país gigante, está en la lista de los 28 países que firmaron la Declaración de Bletchley. Todos estos gobiernos acordaron que las empresas que hacen inteligencia artificial tienen que ser transparentes y rendir cuentas. Además, van a hacer planes para controlar y minimizar los peligros de estos bichos tecnológicos.

Pero ojo, el representante chino no apareció el jueves y no firmó el acuerdo sobre las pruebas. Sunak, el primer ministro, le mandó una invitación a China para la cumbre, y esto armó un revuelo en el parlamento británico. A algunos no les gustó nada que estén tan cerca de colaborar con Beijing, especialmente porque varios países de occidente no están muy de acuerdo en meterse en negocios tecnológicos con los chinos.

Sunak salió a bancar su decisión, argumentando que un tema tan grosso necesita que estén los jugadores más importantes. Además, insiste en que el Reino Unido puede ser el puente perfecto entre los grupos económicos de Estados Unidos, China y la Unión Europea. ¡Están que arden!

Enfrentando los riesgos

La vicepresidenta estadounidense Kamala Harris ya había insistido el miércoles en la necesidad de adoptar un «enfoque más práctico», que no se limite a evaluar los riesgos existenciales. «Hay amenazas adicionales que también exigen nuestra acción, amenazas que actualmente están causando daño y que muchas personas también consideran existenciales», dijo Harris.

La vicepresidenta citó el ejemplo de un anciano que canceló su plan de atención médica debido a un algoritmo de inteligencia artificial defectuoso. También mencionó el caso de una mujer que fue amenazada por una pareja abusiva con fotos modificadas. Hay que trabajar «en todo el espectro», dijo Harris, más allá de las amenazas existenciales sobre ciberataques masivos o armas biológicas.

La clonación de identidad, la conducción autónoma por inteligencia artificial y las campañas de desinformación figuran como otros de los peligros más cotidianos detectados en el desarrollo de esta tecnología. En este sentido, Harris anunció un nuevo instituto de seguridad de inteligencia artificial en EE. UU. Estará orientado a elaborar estándares para probar sistemas de uso público y colaborará con el centro de pruebas de Reino Unido anunciado por Sunak.

China se fue

¡El rollo es que el gobierno británico soltó que las empresas y gobiernos se están activando para crear un nuevo centro de pruebas internacional en el Reino Unido! Y la movida va a estar enfocada en la seguridad del país y la sociedad.

Resulta que China, que es uno de los 28 países que firmó la Declaración de Bletchley, está en la misma onda. Todos estos gobiernos están de acuerdo en que las empresas que se mandan con la inteligencia artificial tengan que ser transparentes y rendir cuentas. También se están armando planes para medir, monitorear y frenar los posibles problemas que se les pueden venir.

Lo insólito es que el representante de China no apareció el jueves y no le puso la firma al acuerdo sobre las pruebas. Esto generó polémica porque el primer ministro británico, Rishi Sunak, lo había invitado a la cumbre, y varios lo criticaron porque no entendía que a varios países de Occidente no les hace gracia trabajar con Beijing en temas tecnológicos.

Sunak salió a defenderse, diciendo que un tema tan clave necesita que estén todos los pesos pesados. Además, insistió en que el Reino Unido podría ser el enlace entre Estados Unidos, China y la Unión Europea en el mundo de la tecnología. ¡La cuestión está candente!

___________________________________________
Imagen: Foto oficial de la Cumbre.

Verified by MonsterInsights