Pregunta seria: ¿Puede la IA crear seres digitales que tengan su propia conciencia y agenda?

Pregunta seria: ¿Puede la IA crear seres digitales que tengan su propia conciencia y agenda?

(27 de noviembre, 2023, con información de GeekWire). ¿La inteligencia artificial va a estar al servicio de la humanidad o va a dar paso a nuevas especies de seres digitales conscientes con su propia movida?

Es una pregunta que ha inspirado un montón de historias de ciencia ficción, desde “Colossus: The Forbin Project” en 1970, hasta “The Matrix” en 1999, y la peli de este año donde la IA se enfrenta a los humanos, “The Creator”.

La misma pregunta también estaba rondando en el lío de liderazgo de OpenAI — donde el CEO Sam Altman se impuso sobre los miembros del consejo sin fines de lucro que lo habían despedido una semana antes.

Si tuvieras que dividir a la comunidad de IA entre los que quieren acelerar y los que prefieren ir más despacio, esos miembros del consejo estarían en el grupo del “vamos con calma”, mientras que Altman sería de los que dicen “a todo gas”. Y ha habido rumores sobre la posibilidad de un “descubrimiento” en OpenAI que aceleraría el campo de la IA a toda máquina — tal vez demasiado rápido para nuestro propio bien.

¿Debería preocuparnos la idea de que la IA se vuelva consciente y tome cartas en el asunto? Esa es solo una de las preguntas que aborda el veterano escritor de ciencia George Musser en un libro recién publicado titulado “Poniéndonos de nuevo en la ecuación”.

Musser entrevistó a investigadores de IA, neurocientíficos, físicos cuánticos y filósofos para entender la búsqueda de uno de los misterios más profundos de la vida: ¿Cuál es la naturaleza de la conciencia? ¿Y es un fenómeno exclusivamente humano?

¿Su conclusión? No hay razón para que la IA adecuada no pueda ser tan consciente como nosotros. “Casi todos los que piensan en esto, en todos estos campos diferentes, dicen que si replicáramos una neurona en silicio — si creáramos una computadora neuromórfica que fuera muy, pero que muy fiel a la biología — sí, sería consciente”, dice Musser en el último episodio del podcast Fiction Science.

Pero, ¿deberíamos preocuparnos por permitir el ascenso de futuros señores de la IA? En esa pregunta existencial, la opinión de Musser va contra el guion típico de ciencia ficción.

“Creo que las máquinas tontas, las máquinas no conscientes, como se ha demostrado en el mundo actual, son extremadamente peligrosas y bastante capaces de aniquilar a la humanidad. Las máquinas conscientes no añaden ninguna capacidad particular que, al menos en mi opinión, aumente su peligro para la humanidad”, dice.

“Si acaso, creo que probablemente el peligro sea al contrario: que nosotros las maltratemos”, dice Musser. “Eso también es parte, por desgracia, de la historia de los seres humanos. Tendemos a maltratar, hasta que superamos eso, a seres que claramente son conscientes.”

Las capacidades de herramientas de IA generativa como el ChatGPT de OpenAI no son una gran sorpresa para aquellos que investigan en el campo — pero Musser dice que los investigadores se han sorprendido de lo rápido que se están desarrollando.

Compara el progreso en IA con el progreso en la fusión nuclear. “Es una de esas cosas que siempre parece estar en el futuro, ¿verdad?” dice. Pero en el caso de la IA, el futuro parece estar menos lejos.

“Adelanta el cronograma en la mente de muchas personas para lo que se conoce como AGI”, dice Musser. “Eso es inteligencia general artificial, y es un sistema que es capaz de una amplia gama de funciones, de aprender sobre la marcha. Básicamente un sustituto más cercano de un animal, o incluso de un cerebro humano, o incluso superhumano. Así que creo que ha acelerado las cosas, pero ha sido un cambio cuantitativo, no cualitativo para la gente.”

__________________________________________________
Imágenes: MM con imágenes de Pixabay.

¿Fin del drama? Sam Altman vuelve a Open AI

¿Fin del drama? Sam Altman vuelve a Open AI

(23 de noviembre, 2023). ¡Sam Altman ha vuelto, amigos! Parece que la montaña rusa terminó.

El lunes contamos sobre el despido de Sam Altman, el jefe de OpenAI. Mira Murati, la jefa de Tecnología, tomó las riendas como CEO interina. Y ni corto ni perezoso, Greg Brockman, el presidente de OpenAI, también presentó su renuncia.

Los inversores y clientes se volvieron locos. Luego, Sam Altman, Greg Brockman y el 95% de los empleados de OpenAI acordaron irse y trabajar en una unidad de investigación de IA en Microsoft. Y después, todo quedó en silencio por… un día más o menos. Se publicó este tuit:

Traducción:

En principio, hemos llegado a un acuerdo para que Sam Altman regrese a OpenAI como director ejecutivo con una nueva junta inicial formada por Bret Taylor (presidente), Larry Summers y Adam D’Angelo.

Estamos colaborando para descubrir los detalles. Muchas gracias por su paciencia a través de esto.

¿Y qué dijo Microsoft? Su CEO declaró:

 

Traducción:

Nos alientan los cambios en el tablero de OpenAI. Creemos que este es un primer paso esencial en el camino hacia una gobernanza más estable, mejor informada y eficaz. Sam, Greg y yo hablamos y acordamos que tienen un papel clave que desempeñar junto con el equipo de liderazgo de la OAI para garantizar que la OAI continúe prosperando y desarrollando su misión. Esperamos aprovechar nuestra sólida asociación y ofrecer el valor de esta próxima generación de IA a nuestros clientes y socios.

¿Caso cerrado?

__________________________________________________
Imágenes: MM.

El despido de Sam Altman genera caos en OpenAI

El despido de Sam Altman genera caos en OpenAI

(22 de noviembre, 2023, con información de SuperHuman). Como informamos ayer la salida de Sam Altman de la empresa Open AI ha generado un caos en dos direcciones: uno hacia afuera, lleno de conjeturas sobre el futuro de ejecutivo propulsor del ChatGPT. Retomemeos el recuento:

  • Más de 700 de los 770 empleados de OpenAI amenazaron con irse si la junta no renuncia.
  • Al parecer, Sam Altman está intentando volver a OpenAI como el jefe, según soltó The Verge.
  • Satya Nadella, el big boss de Microsoft, también confesó en una entrevista que no le molestaría que Altman regresara a OpenAI. No olvidemos que Microsoft es quien pone los recursos en OpenAI.
  • Pero lo que dejó a todos boquiabiertos fue que la junta de OpenAI le hizo una oferta a Anthropic, su competencia, proponiendo una fusión de las dos empresas.
  • También hay chismes de que los clientes de OpenAI están pensando en pasarse a Anthropic o a Google.
  • Reuters lanzó el «chisme» de que los inversionistas de OpenAI están pensando en demandar a la junta.
  • Con todo este alboroto, los competidores están aprovechando para atraer a los empleados que se quieren ir de OpenAI, y figuras como Elon Musk y el CEO de Salesforce, Marc Benioff, ya están haciendo sus movidas para contratarlos.
  • Y no falta quien acuse a la junta de OpenAI, como Vinod Khosla y Balaji Srinivasan, de estar influenciados por el altruismo efectivo, una corriente filosófica que, dicen, quiere ponerle el freno al progreso de la IA.

A pesar de los giros dramáticos de las últimas 24 horas, el futuro de OpenAI está en el aire. Parece que hoy nos espera otro día de tensión para la empresa, su gente y sus clientes. ¡Agárrense que vienen curvas!

_____________________________________

Un perfil de Sam Altman

Sam Altman es un empresario e inversor reconocido en el ámbito tecnológico. Comenzó su carrera co-fundando Loopt, una red social basada en la localización, que fue adquirida por Green Dot Corporation. Altman es ampliamente conocido por su rol como ex presidente de Y Combinator, una de las incubadoras de startups más influyentes del mundo. Bajo su liderazgo, Y Combinator amplió sus inversiones y apoyó a una multitud de empresas emergentes exitosas.

En 2015, Altman fue nombrado co-fundador y CEO de OpenAI, una organización de investigación de inteligencia artificial con el objetivo de promover y desarrollar IA amigable para beneficio de la humanidad de manera segura y democrática. Es un defensor de la tecnología sustentable y ha invertido en varias startups de energía limpia. Además, ha mostrado un interés particular en el desarrollo de políticas tecnológicas y en cómo la tecnología puede influir en la economía y la sociedad. Su influencia se extiende más allá de sus inversiones, siendo un pensador destacado en el futuro de la IA, el impacto social de la tecnología y la economía. Altman también ha sido parte de iniciativas que exploran el uso de monedas digitales y otras formas de impulsar la innovación en el espacio tecnológico.

__________________________________________________
Imágenes: Wikipedia y del dominio público.

Sam Altman salta de Open AI a Microsoft ¿qué ocurrió allí?

Sam Altman salta de Open AI a Microsoft ¿qué ocurrió allí?

(21 de noviembre, 2023, con información de TLDR AI). El CEO Sam Altman fue despedido de OpenAI por la junta directiva, quien afirmó que la salida de Altman siguió un proceso de revisión deliberativo por parte de la junta y que ya no tienen confianza en su capacidad para seguir liderando OpenAI. Greg Brockman también renunció rápidamente junto con muchos otros investigadores senior. Microsoft contrata al ex CEO de OpenAI Sam Altman (lectura de 3 minutos)

Después de un fin de semana de negociaciones para traer de vuelta a Sam Altman como CEO de OpenAI tras su sorpresivo despido, la junta sin fines de lucro de la compañía ha tomado otro camino completamente y ha nombrado al ex CEO de Twitch, Emmett Shear, como CEO interino. Microsoft está contratando al ex CEO de OpenAI Sam Altman y al cofundador Greg Brockman.

En 2020, en una entrevista que le hizo Azeem Azhar de TLDR, se le preguntó a Sam Altman sobre el papel de la junta de OpenAI y cómo pensaba que podría cambiar la gobernanza de la organización. Mirando hacia atrás, las respuestas de Sam fueron prescientes.

Azeem Azhar: Tengo curiosidad por saber qué piensas que podría ser un Pacto Global [para la IA] en los próximos años, donde sentimos que podemos hacer que estas tecnologías trabajen para la humanidad, pero de una manera bien gobernada.

Sam Altman: Es una pregunta súper importante. Podemos estudiar la historia y ver cómo va eso. Cuando no hay supervisión pública, cuando tienes estas compañías que son tan poderosas como, o más que, la mayoría de las naciones y son gobernadas por líderes no electos y, para ser completamente honesto, bastante irresponsables, creo que eso debería hacernos pensar a todos a medida que estas tecnologías se vuelven cada vez más poderosas.

Y creo que necesitamos encontrar alguna manera no solo de que la economía se comparta y de que tratemos con el problema de la desigualdad que enfrenta la sociedad, sino la gobernanza sobre estas decisiones muy grandes. ¿Cómo queremos que sea nuestro futuro en el mundo con una IA muy poderosa? Esa no es una decisión que 150 personas sentadas en San Francisco tomen colectivamente. Eso no va a ser bueno.

Azeem Azhar: No he encontrado buenos modelos en este momento que hagan esto. Creo que la gente habla de la idea del minilateralismo, que es que si puedes traer a suficientes personas para hablar con suficiente frecuencia, tal vez crees el núcleo de un marco al que otras personas puedan adherirse, y luego la gente copie eso.

Sam Altman: Sí, creo que eso es útil, seguro. Pero luego siempre hay una pregunta de cuánto poder real tiene.

Digamos que realmente creamos una AGI. Ahora mismo, si estoy haciendo un mal trabajo con eso, nuestra junta directiva, que tampoco es responsable ante el público, puede despedirme y decir: “Probemos con alguien más”. Pero me parece que en ese punto, a cierto nivel de poder, el mundo en su conjunto debería poder decir: hey, tal vez necesitamos un nuevo líder de esta compañía, igual que podemos votar sobre la persona que dirige el país.

Y entonces, esta cuestión de qué aspecto tendría un proceso democrático para compañías que tienen un impacto suficiente. Estoy muy lejos de ser un experto aquí, y personas mucho más inteligentes que yo han estado pensando en ello, pero se me ocurre que tenemos estos modelos, y podemos mirar los diferentes alrededor del mundo y hablar sobre algunos países donde funciona mejor y donde no funciona tan bien.

Y ahora ha sucedido. Sam ha sido despedido por la junta. Y Greg Brockman, el Presidente y Chair, también ha dejado la compañía. Es una historia en evolución. The Information tiene una buena cobertura, al igual que Bloomberg. Ron Conway, el más legendario de los inversores ángeles de Silicon Valley, lo llama «un golpe de Estado de la junta».

En MM seguiremos de cerca este caso. Por los momentos, parece un movimiento que beneficia a Microsoft y alivia de alguna forma a los ejecutivos de Open AI. Seguiremos informando.

___________________________________________
Imagen: Wikipedia.

¿Quiere manejar bien el ChatGPT? El chabot mismo le dice cómo

¿Quiere manejar bien el ChatGPT? El chabot mismo le dice cómo

(20 de noviembre, 2023). No hay más que preguntárselo al mismísmo chabot:

USUARIO: ¿Qué errores debo evitar para usar el ChatGPT de la mejor forma?

ChatGPT: Al usarme es importante tener en cuenta ciertos aspectos para evitar errores comunes y mejorar la experiencia. Aquí te dejo algunos consejos:

  1. Expectativas Irrealistas: ChatGPT es una herramienta poderosa, pero tiene sus limitaciones. No puede proporcionar información actualizada más allá de su última actualización de entrenamiento y puede no comprender preguntas extremadamente complejas o poco claras.

  2. Preguntas Demasiado Vagas o Generales: Si bien ChatGPT puede manejar una amplia gama de temas, las preguntas demasiado vagas pueden llevar a respuestas menos específicas. Ser claro y específico en tu consulta ayudará a obtener mejores resultados.

  3. Olvidar la Privacidad y Seguridad: No compartas información personal sensible o confidencial. Aunque ChatGPT está diseñado para mantener la privacidad, es una buena práctica evitar compartir detalles que no querrías que se hicieran públicos.

  4. No Verificar Información para Decisiones Críticas: Aunque ChatGPT puede ser muy preciso, siempre es recomendable verificar la información proporcionada, especialmente si se va a utilizar para decisiones importantes.

  5. Uso Inadecuado: Evitar usar ChatGPT para actividades ilegales, inmorales o que violen las pautas de uso. Esto incluye intentar engañar al sistema o utilizarlo para crear contenido ofensivo.

  6. No Utilizar la Herramienta de Navegador para Información Actualizada: ChatGPT puede buscar información actualizada a través de su herramienta de navegador. No utilizar esta función para temas que requieran información reciente es un error común.

  7. Ignorar el Contexto Cultural o Personal: ChatGPT no siempre captura con precisión los matices culturales o personales en sus respuestas, así que tenlo en cuenta especialmente al tratar temas sensibles.

  8. Interpretar las Respuestas Como Consejos Profesionales: Las respuestas de ChatGPT no deben sustituir el asesoramiento de profesionales en áreas como la medicina, el derecho, o la seguridad financiera.

  9. No Aprovechar la Diversidad de Funciones: ChatGPT no solo responde preguntas, sino que también puede ayudar en la creación de contenido, programación, aprendizaje de idiomas, entre otros. No explorar estas capacidades es perder una parte importante de su utilidad.

  10. No Dar Retroalimentación: Si una respuesta no es útil o precisa, dar retroalimentación puede ayudar a mejorar la calidad de las respuestas en el futuro.

Recordando estos puntos, podrás hacer un uso más eficiente y seguro de ChatGPT.

USUARIO: Gracias, ya sabiendo qué no hacer… ¿Qué consejos me das como persona que está comenzando a usar el ChatGPT, para aprender pronto a manejarlo y que su interacción sea grata?

ChatGPT: Aquí tienes algunos consejos para alguien que está comenzando a usarlo:

  1. Explora las Funcionalidades: Familiarízate con las diferentes capacidades de ChatGPT, como responder preguntas, generar texto creativo, ayudar con la programación, y mucho más.

  2. Sé Específico en tus Preguntas: Cuanto más específica sea tu pregunta o solicitud, más precisa y útil será la respuesta. Proporciona detalles y contexto cuando sea necesario.

  3. Prueba con Diferentes Temas: No dudes en hacer preguntas sobre una variedad de temas. Esto te ayudará a entender mejor la amplitud de conocimientos y limitaciones del modelo.

  4. Aprende sobre sus Limitaciones: ChatGPT no tiene acceso a información en tiempo real y su conocimiento está basado en datos hasta una fecha de corte específica. Ten esto en cuenta al hacer preguntas que requieran información actualizada.

  5. Usa la Herramienta de Navegador para Búsquedas Actualizadas: Si necesitas información más reciente, puedes pedirle a ChatGPT que use la herramienta de navegador para buscar en la web.

  6. Experimenta con la Generación de Imágenes: Si estás utilizando una versión de ChatGPT que incluye DALL·E para la generación de imágenes, explora esta función para ver cómo puede crear ilustraciones y gráficos basados en tus descripciones.

  7. Pide Ejemplos y Explicaciones: Si no entiendes algo, puedes pedir ejemplos o que te expliquen el tema de una manera diferente.

  8. Feedback Constructivo: Si una respuesta no cumple con tus expectativas, proporciona retroalimentación constructiva. Esto puede ayudar a mejorar las respuestas futuras.

  9. Explora Casos de Uso Creativos: Desde escribir historias hasta generar ideas para proyectos, ChatGPT puede ser una herramienta creativa muy útil.

  10. Recuerda la Ética y Privacidad: Evita compartir información personal o sensible y ten en cuenta las consideraciones éticas al utilizar la IA para ciertos tipos de preguntas o tareas.

La clave es la curiosidad y la experimentación. Cuanto más uses ChatGPT, más aprenderás sobre sus capacidades y cómo puede ser más útil para tus necesidades específicas.

 

___________________________________________
Imagen: Midjourney.

Robots entre nosotros (2da parte)

Robots entre nosotros (2da parte)

(19 de noviembre, 2023). Fernando Nunez-Noda, Director de Maquinamente (Link a la 1er parte)

Los Robots en la Literatura y el Cine (2da parte)

(Atención: Puede haber spoilers.)

Pero los robots interesantes son los que se parecen a nosotros y, paradójicamente, tienen el potencial de hacernos añicos (así somos). Tomemos Terminator con Arnold Schwarzenegger por ejemplo. Son androides, es decir, robots humanizados que caminan, sujetan objetos, ven, escuchan y hablan, también son capaces de sensaciones táctiles.

Vale decir que ya hay androides entre nosotros, como ASIMO (suena como un tal Isaac y su foto está a la derecha), fabricado por Honda y capaz de un rango bastante amplio de movimientos. Camina como ningún robot hasta ahora, sube y baja escaleras, sortea obstáculos, reconoce objetos e incluso rostros. Responde a sonidos y cambios diversos en sus alrededores.

En cambio el de Robocop (1987) es un cyborg, al igual que Darth Vader de la famosa Guerra de las Galaxias. Son humanos a quienes se les han incorporado elementos robóticos para completarlos o mejorarlos. El primero está del lado de la ley pero no deja de tener profundos conflictos por su condición mixta. El segundo es un villano que aprovecha al máximo sus atributos robóticos para aplastar a sus enemigos.

Tan temprano como 1941, el autor estadounidense Isaac Asimov usó por primera vez el término “robótica” y predijo el advenimiento de la industria de los autómatas. En su libro de cuentos I, Robot (del cual se hizo una película en 2004 con Will Smith) Asimov expuso las famosas “3 Leyes de la Robótica”:

Primera Ley: “Un robot no hará daño a un ser humano, ni permitirá con su inacción que sufra daño.” Segunda Ley: “Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.” Tercera Ley: “Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.”

Luego le agregó una Ley Cero: “Un robot no hará daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño.”

El argumento de “I, Robot” sigue una línea común en las historias de entidades cibernéticas autoconscientes: llegan a equiparse con los humanos, sus creadores, y por supuesto en algún momento quieren independizarse y ser realmente autónomos socialmente. Un equivalente, quizá, a la emancipación de los esclavos.

Antes hablé de 2001 Odisea Espacial. Es bueno notar que HAL-9000, la computadora inteligente de la nave, tiene un conflicto ético cuando se le obliga a mentir y, eventualmente, a asesinar para poder cumplir una misión que los astronautas no conocían.

Más ligeros, aunque no ajenos a conflictos morales y de conciencia, son los autómatas de Star Wars. C3PO es un androide pero R2D2 o BB8 son “droides”, es decir, capaces de inteligencia humana pero sin aspecto humano.

Blade Runner (1983) es una obra maestra del director Ridley Scott (basada en un cuento de otro genio de la sci-fi, Phillip K. Dick) plena de dramatismo del lado de los humanoides. Fabricados a imagen y semejanza de sus creadores, capaces de razonamientos profundos y emociones, los androides de esta película son –en muchos sentidos- más humanos que los humanos mismos. El problema es que tienen un tiempo de vida prefijado y corto. En un mundo sucio, superpoblado y deprimente, el detective se da cuenta que sus perseguidos robóticos aprecian mucho más la vida que él mismo y tienen un sentido poético de la existencia que se ha perdido en ese mundo distópico.

The Matrix (1999) ofrece un tipo muy diferente de robots. Digamos: seres hechos de realidad virtual, en un mundo simulado que esconde una absoluta tiranía de las máquinas, de las computadoras que usan a los humanos como baterías vivientes y a cambio le dan la apariencia de realidad cotidiana.

En esa película el robot es también un universo ilusorio que unos pocos rebeldes tratan de desmantelar para vivir algo más real y propio. Un eco -quizá- de la ilusión del mundo que denunció Buda y a la cual hay que renunciar con una nueva conciencia con la realidad.

Decíamos, pues, que Turing se preguntó si los cerebros electrónicos llegarían a ser inteligentes. La inteligencia humana deduce, induce, infiere, imagina, adivina, especula. En 1997 Deep Blue, un sistema computacional de IBM, «derrotó» a Gary Kasparov -campeón de entonces y acaso el mejor jugador de todos los tiempos- en un match de ajedrez de varias partidas. Deep Blue produce millardos de configuraciones complejas a partir de reglas simples que se agregan y concatenan, de modo que parecen realizadas, no sólo por un humano, sino por uno superdotado. Eso sí, sólo en ajedrez.

Lo más pertinente sería pensar que Deep Blue sí demuestra inteligencia, pero no enteramente suya, sino “prestada” de sus creadores y programadores. En otras palabras, quienes ganaron fueron los creadores de los algoritmos, las reglas que sigue el sistema en todos los casos posibles. En sucesivos intentos, Kasparov no pudo derrota a su némesis electrónica.

Deep Blue no es solo una prolongación de las capacidades ajedrecísticas de sus programadores, sino una superación de sus limitaciones, dado que puede procesar información como no pueden sus hacedores individual o colectivamente. Además, Deep Blue es capaz de responder a muy complejas estrategias de engaño y sutileza. Puede simular, cambiar de plan sobre la marcha. Un genio, pues.

Kasparov protagonizó otros dos matches, en 2003, contra programas computacionales distintos a DeepBlue. Ambos resultaron tablas. En 2006 el campeón mundial de entonces, Vladimir Kramnik, jugó contra un”nieto” de DeepBlue llamado Deep Fritz. La computadora le ganó 4 juegos a 2. Wikipedia da cuenta que, según conocedores, en la última partida sencillamente lo aplastó.

Parece que la distancia crecerá a favor de la computadora como ya ha ocurrido en tantas áreas. El campeón mundial actual, el hindú Viswanathan Anand, tiene un puntaje ELO en la Federación Mundial de Ajedrez de 2.817. Un “motor ajedrecístico” de 2010, llamado Rybka, tiene un ELO estimado de 3.200 puntos. Y actualmente, por cierto, hay programas que corren en móviles a nivel de Gran Maestro.

En 2011 IBM probó Watson, una súper computadora de notoria cultura general y especializada, capaz ya no de responder a un limitado conjunto de mensajes prefijados, sino al lenguaje natural. Ese año participó en igualdad de condiciones en el programa de TV Jeopardy y lo ganó resonantemente. Como sabemos, en ese show las preguntas son ambiguas, muy variopintas, con juegos de palabras que hacen que sus ganadores sean personas muy preparadas y especiales. ¿Qué nos dice esto de los cerebros electrónicos?

El traslado de inteligencia fuera de la mente, a cerebros mecánicos que imitan algunos aspectos no tan rudimentarios del pensamiento, es lo que llamamos «inteligencia artificial». Estamos, eso sí, a enorme distancia de un pensamiento artificial autónomo, inductivo o emotivo, pero hay razones para celebrar los triunfos sobre campeones de ajedrez o concursantes nerds. Eso revela el poder de la inteligencia combinada y condesada fuera del cerebro para que «piense» por sí misma.

Epílogo

Por tanto, hay dos visiones. Una optimista: los robots nos facilitarán la vida, sustituirán al humano en todo tipo de tareas peligrosas o tediosas, nos ayudarán a ganar guerras contra terroristas, a conquistar planetas fuera del nuestro y una largo etcétera.

Los profetas del desastre resaltan los dilemas éticos, el enorme desempleo que provocarán, la tiranía de las tostadoras inteligentes para que no comamos panes genéticamente modificados y un eventual enfrentamiento cuando –cual replicantes de Blade Runner- reclamen independencia y posiblemente supremacía.

Y un científico loco diría, alumbrado desde abajo con una linterna: “¡Las máquinas malévolas nos alcanzan ja ja ja ja!”. Ahora son móviles e inmateriales…

(Link a la 1ra parte).

___________________________________________
Imagen: MM.

Verified by MonsterInsights