Un psicólogo analiza el miedo a la IA

Un psicólogo analiza el miedo a la IA

(21 de octubre, 2023). En un artículo muy interesante para LinkeIn, el psicólogo Kevin Joy analiza los miedos de la gente a la inteligencia artificial y concluye que es un «miedo a lo desconocido». ¿Qué significa esto?

Para Joy: «El miedo a la inteligencia artificial (IA) es un fenómeno psicológico complejo que requiere atención cuidadosa. En medio de la revolución de la IA, es esencial abordar estos temores y promover una cultura de comprensión y aceptación. Después de todo, la IA no es una fuerza para temer, sino una herramienta para aprovechar. Como dice el antiguo refrán, ‘No tenemos nada que temer más que el miedo en sí mismo’. Y quizás, tampoco un mundo sin sentido del humor. Por tanto, no olvidemos reírnos un poco, incluso junto a nuestros compañeros de IA, mientras avanzamos juntos hacia el futuro.»

¿En qué consiste, pues, ese miedo a lo desconocido? 

Hay diferentes componentes:

Tecnofobia e IA: Definida como un miedo extremo a la tecnología, no es un fenómeno novedoso, sino que ha acompañado cada revolución tecnológica significativa a lo largo de la historia. No obstante, la inteligencia artificial (IA), con su capacidad para emular la inteligencia humana, eleva la tecnofobia a un grado superior. El temor hacia la IA no solo surge debido a su novedad tecnológica, sino también porque desafía nuestra concepción tradicional de la humanidad y sus límites.

El papel del descuido de la unicidad: Una de las barreras psicológicas claves para la adopción de la IA es el concepto de «descuido de la unicidad». Se trata de la creencia de que los sistemas de IA, a pesar de sus capacidades avanzadas, no pueden dar cuenta de las características y circunstancias únicas de los individuos. Esta creencia, si bien no es del todo infundada, a menudo pasa por alto el hecho de que los sistemas de IA están diseñados para aprender y adaptarse a los comportamientos y preferencias de los usuarios individuales.

El atractivo del miedo de la IA: El atractivo del miedo, una estrategia de comunicación persuasiva que enfatiza el peligro potencial, se utiliza a menudo en los debates sobre la IA. Esto puede llevar a poner demasiado énfasis en los riesgos asociados con la IA, fomentando así el miedo y la resistencia. Sin embargo, es importante equilibrar estos llamamientos al miedo con información sobre los beneficios y salvaguardas asociados con la IA.

Superando el miedo: Superar el miedo a la IA requiere un enfoque multifacético. La educación y la concienciación sobre la IA y sus beneficios pueden ayudar a disipar mitos y conceptos erróneos. Además, demostrar las formas en que se puede personalizar la IA para satisfacer las necesidades individuales puede ayudar a mitigar el miedo asociado con la «negligencia de la singularidad». Por último, involucrar a las personas en el proceso de desarrollo de la IA puede fomentar una sensación de control y reducir el miedo.

 ___________________________________________________________
Raíces psicológicas del miedo a los robots y la IA

Raíces psicológicas del miedo a los robots y la IA

(18 de octubre, 2023). La semana pasada, se dio a conocer –en artículo de Anna Zhada para Cybernews– la noticia de que un ingeniero de Google, Blake Lemoine, fue suspendido de su puesto tras la publicación de una transcripción de una conversación con el sistema de desarrollo de chatbots de la empresa, conocido como LaMDA (modelo de lenguaje para aplicaciones de diálogo). Lemoine afirma que LaMDA es consciente y ha sido capaz de mostrar emociones desde el otoño pasado.

LaMDA logró mantener una conversación sobre emociones y conceptos abstractos como la justicia y la empatía. Además de experimentar sentimientos de soledad, alegría y tristeza, LaMDA asegura ser capaz de sentir emociones para las cuales desconoce las definiciones.

¿Será «robofobia»?

Aunque no lo crean, existe la «robofobia», que se caracteriza como un trastorno de ansiedad que lleva a un miedo desproporcionado hacia los robots y la inteligencia artificial. Esto puede llevar a las personas a experimentar un temor abrumador ante la posibilidad de perder el control frente a las máquinas y enfrentar un futuro dominado por la tecnología.

En ocasiones, simplemente el pensamiento de un robot puede desencadenar ataques de pánico en la persona afectada. Los síntomas de la robofobia incluyen sudoración, vértigo, palpitaciones aceleradas y dificultades respiratorias.

Aunque con frecuencia se asocia el pensamiento irracional a la robofobia, podría apresurarnos a descartar por completo su racionalidad. Existen preocupaciones legítimas que las personas albergan sobre el futuro en el que los seres humanos coexistirán con la IA y los robots.

¿A qué le temen realmente?

Viene a la mente «Yo, Robot» y su planteamiento de una rebelión de las máquinas, plausible en cierto sentido. No es extraño que los humanos temamos a robots inteligentes y, de paso, muy fuertes.

Zhada firma que:

«Puede parecer que estás hablando diferentes idiomas con un robot: ¿cómo puede él entender lo que te preocupa y te duele? Y en caso de un mal funcionamiento o falla del sistema de seguridad, ¿no se convertirán en armas de destrucción masiva, muy capaces pero inhumanas?


«En el lado bueno de las cosas, los programadores operan asumiendo que casi todo puede salir mal, implementando una variedad de medidas de seguridad. Desde botones de interruptor de emergencia hasta estándares de limitación de potencia y fuerza, la humanidad ha recorrido un largo camino para garantizar que cada robot sea seguro de usar.»

No obstante, existe un lado positivo en esta compleja relación entre humanos y robots. Los programadores operan bajo la premisa de que prácticamente cualquier cosa puede salir mal, y como resultado, han implementado una serie de medidas de seguridad meticulosas. Desde botones de apagado de emergencia hasta límites cuidadosamente definidos de potencia y fuerza, la humanidad ha avanzado considerablemente para asegurar que cada robot sea seguro de utilizar.

En este contexto, nos adentramos en el miedo a los robots desde un enfoque técnico, considerándolos como máquinas controladas por seres humanos. Sin embargo, surge la pregunta fundamental: ¿pueden las máquinas, al menos en teoría, desarrollar una conciencia plena y reconocer su propia existencia? Esta cuestión resulta intrincada de abordar, dado que los propios humanos tienen una comprensión vaga del significado de la conciencia y la «humanidad». Por lo tanto, desarrollar un código que permita a un robot aprender algo que nosotros mismos no comprendemos completamente se convierte en un desafío complejo.

A pesar de las afirmaciones de algunos expertos, como John R. Searle, quien sostiene que «… una computadora debidamente programada es realmente una mente, en el sentido de que se puede afirmar literalmente que las computadoras que reciben programas adecuados comprenden y tienen estados cognitivos», la mayoría tiende a estar en desacuerdo. En general, la opinión predominante respecto a los robots modernos descarta la idea de que posean conciencia, considerándolos máquinas operadas por humanos en lugar de seres conscientes.

No obstante, el camino hacia la replicación digital completa de un cerebro humano sigue siendo una meta distante. Las redes neuronales más avanzadas en la actualidad siguen siendo cientos de veces más pequeñas que el cerebro humano, según lo indicado por Geoff Hinton, un respetado psicólogo cognitivo y científico informático británico-canadiense.

«Podemos tener una visión clara de lo que nos espera en los próximos años, pero si extendemos nuestra mirada más allá de una década, todo se torna borroso», mencionó en una entrevista con la BBC.

Enfocarnos en las herramientas que tenemos actualmente, aunque poderosas, pero no omnipotentes, diseñadas para asistir a las personas, debería empoderarnos para liderar la innovación tecnológica con confianza y, al menos en parte, disipar las preocupaciones asociadas con la «robofobia».


Foto de los niños bajo Creative Commons License.
 ___________________________________________________________

CEO japonés predice que la IA superará a la humana en 10 años o menos

CEO japonés predice que la IA superará a la humana en 10 años o menos

(8 de octubre, 2023). Masayoshi Son, Director Ejecutivo (CEO en inglés) de la empŕesa japonesa Softbank, declaró enfáticamente que la inteligencia humana será superada por la Inteligencia Artificial en una década.

ABC News señaló que el ejecutivo está recomendando a las empresas japonesas adoptar sistemas de IA para ponerse al día y evitar rezago en la adopción de esta tecnología y, por tanto, el quedarse atrás con la competencia. 

En declaración contundente manifestó: «La inteligencia artificial general superará la inteligencia total de la humanidad, 10 veces en 10 años. Esto afectará a todas las industrias, desde transporte y farmacéutica hasta finanzas, manufactura, logística y otras. Las empresas y las personas que trabajen con IA serán los líderes en los próximos 10 a 20 años.

«Quiero estar del lado del progreso. Sería triste quedarse atrás, como una calle antigua y cerrada.»

Son transmitió este mensaje contundente durante su discurso en una conferencia corporativa en Tokio, donde expresó su temor de que Japón quede rezagado en esta carrera.

No obstante, se siente confiado  confiando en que las juventudes y nuevas generaciones tienen el potencial suficiente para sacar adelante a su país en esta lucha silente.

Son, quien fundó Softbank y es una figura destacada en el mundo empresarial de Japón, en su momento lo apostó todo en torno al peso predominante que tendría internet para la industria y la sociedad. Y no se equivocó.

Encuesta a CEO: IA es una «máxima prioridad de inversión»

Encuesta a CEO: IA es una «máxima prioridad de inversión»

(5 de octubre, 2023).) Si los directores ejecutivos (CEO en inglés) pusieran en práctica sus preferencias, los empleados volverían a la oficina, impulsando simultáneamente avances en la IA. ¿Hay razones para esto? A medida que la fuerza laboral sufre cambios, también lo hace la tecnología, y esto está dando forma a las expectativas de los ejecutivos.

Está, por tanto, develándose una tendencia nueva. Según una encuesta reciente entre directores ejecutivos de EE. UU. realizada por la consultora KPMG y publicada la semana pasada, los directores ejecutivos están entusiasmados con la IA:

  • El 72% de los directores ejecutivos estadounidenses consideran que la IA generativa es una «prioridad de inversión máxima».
  • Lo ven como una inversión a más largo plazo: el 62% espera retornos en 3 a 5 años, en comparación con sólo el 23% espera retornos en 1 a 3 años.

La perspectiva más amplia: el surgimiento de ChatGPT desencadenó una búsqueda frenética de la IA, lo que subraya cómo industrias enteras y roles laborales pueden verse rápidamente alterados.

«Creo que es un reconocimiento de que la IA generativa es transformadora y no sólo una exageración», dijo Paul Knopp, director ejecutivo de KPMG en EE. UU., en declaraciones a Axios. «Ofrece oportunidades para aumentar potencialmente los ingresos y, al mismo tiempo, hacer que la fuerza laboral y los procesos comerciales sean más eficientes».

Pero hay riesgo latente para muchos

La cuestión de si estas eficiencias se traducirán en menos puestos de trabajo sigue siendo una preocupación para muchos.

«Aunque no creo que la IA generativa conduzca a reducciones de la fuerza laboral, las personas con habilidades de IA generativa probablemente serán más valiosas que las que no las tienen, y tendrán mayores oportunidades en el futuro», dijo Knopp.

Y los directores ejecutivos quieren que estas personas capacitadas apliquen su experiencia en un entorno de oficina.

En la encuesta de KPMG, que incluyó a 400 directores ejecutivos estadounidenses de empresas con ingresos anuales de al menos 500 millones de dólares en varios sectores, el 62% prevé que su personal trabajará permanentemente desde la oficina dentro de tres años, frente al 34% del año anterior.

Solo el 4% imaginaba equipos totalmente remotos, frente al 20% en 2022, mientras que el 34% esperaba una fuerza laboral híbrida, frente al 45%.

«Los directores ejecutivos desean cada vez más ver a los empleados de regreso en la oficina», señaló Knopp, pero cree que los acuerdos de trabajo híbridos probablemente llegaron para quedarse.

En conclusión: las fuerzas que influyen en nuestro entorno laboral todavía están cambiando y seguirán por un tiempo, hasta que el mercado se asiente. ¿Cuándo ocurrirá? Es temprano para especular, pero se cree que tomará demasiado tiempo.

Superhuman aconseja usar cinco herramientas de IA para la «superproductividad»

Superhuman aconseja usar cinco herramientas de IA para la «superproductividad»

Descubre 5 Herramientas de Inteligencia Artificial de Vanguardia para Impulsar tu Eficiencia
(Versión de Máquinamente, con información de Superhuman)

(Oct. 3, 2023). IA para reducir el esfuerzo y multiplicar la creatividad:  

Colors: Revoluciona el desarrollo de productos al recopilar y organizar automáticamente los comentarios de los clientes. Transforma los comentarios en bruto en ideas rentables. Lo encuentras en colors-ai.com

Strut: Refina tus ideas sin esfuerzo: convierte notas ásperas en contenido pulido sin problemas. Se encuentra en strut.so

Taplio (patrocinado): Eleva tu presencia en LinkedIn con Taplio, la herramienta todo-en-uno impulsada por IA, confiada por más de 6.100 profesionales de LinkedIn. Mejora tu creación de contenido y generación de leads hoy. Está en Taplio.

Bestever: Libera tu creatividad y diseña visualizaciones de marketing impresionantes en cuestión de minutos. Prueba Bestever.

Shortwave: Experimenta una productividad sin igual con Shortwave, tu asistente de correo electrónico. Delega tareas mundanas y mejora tus habilidades de memoria y razonamiento. Visita Shortwave. 

Humanidad vs IA en un tablero de ajedrez (Match Kasparov-Deep Blue)

Humanidad vs IA en un tablero de ajedrez (Match Kasparov-Deep Blue)

Fernando Nunez-Noda, Editor de Máquinamente.

Un épico triunfo de la máquina que es, en el fondo, un logro humano para las épocas.

(Sep. 23, 2023). Hace 27 años el excampeón mundial de ajedrez Gary Kasparov se enfrentó por primera vez con un rival inusual: la supercomputadora Deep Blue, de IBM, que sorprendió al mundo porque en 1996 Kasparov le ganó con mucha dificultad, pero al año siguiente la máquina se impuso en un rematch. Vale decir que Kasparov es, según consenso, el mejor ajedrecista (humano) de la historia.

Para mis clases (de tecnología en la Escuela de Periodismo) en la Universidad Católica Andrés Bello en Caracas, Venezuela, solía usar estos históricos encuentros para explicar los modelos y esquemas de la comunicación social. Comparto algunas reflexiones al respeto:

La inteligencia artificial es humana

Se atribuye al matemático inglés Alan Turing (1912-1954, en la foto) la creación de la «informática» o «computer sciences», como es llamada en inglés. En 1936 escribió los principios que rigen la computación moderna y llegó más allá, hasta preguntarse si los cerebros electrónicos podían algún día ser inteligentes. No es casualidad que en el cubículo frío y liso de Hal 9000, la computadora pensante del film 2001: una Odisea Espacial (1969), solo mostrara un pequeño retrato de este matemático.

La «máquina de Turing» (1936), un aparato imaginario capaz de imitar procesos inteligentes humanos tan sólo si se presentan como “algoritmos”, se considera el gran predecesor de las computadoras y de los programas actuales. Deep Blue, el sistema computacional de IBM que «derrotó» a Gary Kasparov en 1997, es una máquina de Turing porque produce millardos de configuraciones complejas a partir de reglas simples que se agregan y concatenan, de modo que parecen realizadas, no sólo por un humano, sino por uno superdotado.

Más que la máquina, a mí me llama la atención la célebre «prueba de Turing». Consiste en un «juego de imitación» por el cual un participante hace las mismas preguntas binarias a un humano y a una máquina, sin saber cuál es cuál, dado que ambos están ocultos. El punto es averiguar cuán lejos puede sostenerse el engaño de la máquina, es decir, cuántas preguntas pueden hacerse hasta que quede en evidencia cuál es la máquina.

¿Cuál es el humano, cuál la máquina?

Como un trabajo para mis alumnos de comunicación social, en la UCAB, re-imaginé la prueba así: Gary Kasparov está sentado frente a una pared, hay dos monitores de computadora con tableros exactos, cada uno con un teclado. Un monitor está conectado a una computadora operada en tiempo real por un grupo de jugadores y sus asesores, el otro está conectado a Deep Blue. El campeón mundial de ajedrez desconoce quién o qué está detrás de cada monitor.

Si Kasparov juega contra ambos «contendores» la pregunta es: «cómo y cuándo sabe cuál es manejada por humanos o por Deep Blue». Si tarda mucho en delatar a la máquina o no lo hace del todo, entonces aquella imita muy bien la inteligencia deductiva humana.

Pedí a mis alumnos una reflexión sobre esta prueba de «Turing-Kasparov». ¿Hay comunicación en el caso de Deep Blue? Si Kasparov no identifica a Deep Blue ¿se puede hablar de algún tipo, aunque sea primitivo, de inteligencia?

Ambos y ninguno

La respuesta es que ni yo mismo estaba muy claro. Mis alumnos, que son muy inteligentes y creativos, también divagaron. Uno piensa en Deep Blue, al principio, como algo que tiene una conciencia propia, en vez de un entramado de cables y de códigos. Como los gatos, sólo nos llama la atención lo que se mueve, lo que actúa en el momento, de modo que la máquina trabajando nos parece un interlocutor. 85% de los alumnos indicó que Kasparov y Deep Blue tienen una relación emisor-receptor similar a la que tendría con humanos.

Cuando Kasparov juega contra el equipo de maestros no hay máquina de Turing. Pero entonces ¿qué ocurre cuando Kasparov juega con Deep Blue?

Visto como un circuito cerrado, decir que entre el campeón mundial de ajedrez y una máquina hay comunicación es anatema, porque la comunicación (social) es humana. Si no, lo que le gritamos a nuestras computadoras sería un insulto, no una descarga de frustración. Según el paradigma tradicional, sólo se completa un circuito comunicacional cuando el emisor y el receptor son seres pensantes y no, uno de ellos, un sistema seudopensante.

Comunicación parecida a la humana ¿sí o no?

Ahora bien, en un espectro más amplio, el match Kasparov-Deep Blue sí puede implicar comunicación después de todo. En efecto, si vamos más allá, hallamos un diálogo entre Kasparov y los programadores del sistema. En este sentido, no importa que los programadores estén presentes o embebidos en el programa, que actúa incluso cuando ellos duermen. Lo importante es que ellos previeron el diálogo, en forma de algoritmos, de modo que Deep Blue simula la interacción real de un jugador humano, en este caso, uno de los mejores del mundo.

Los medios masivos, como la televisión o la prensa, ofrecen mensajes iguales para todo su público (todos ven la misma telenovela, todos leen esta misma página). La computación, al ser programable, permite que diversos usuarios sigan diferentes caminos. Con Kasparov, Deep Blue ejecuta una partida de nivel mundial. Conmigo, me despacha en pocos movimientos.

Cuando usted diseña un programa de computación o una página web, prepara de antemano una historia, pero no la misma para todos, sino la que cada quien va haciendo, de la forma «si entra por aquí, se le responde así; si hace clic en aquello, ocurre esto otro, etcétera». Esa secuencia de instrucciones condicionadas, ese diálogo semi-programado, es lo que llamamos “algoritmo”.

Deep Blue es una prolongación, no sólo de las capacidades ajedrecísticas de sus programadores, sino de sus habilidades comunicacionales, dado que la computadora y su software son capaces de responder a muy complejas estrategias de engaño y sutileza. Puede simular, cambiar de estrategia sobre la marcha…

Deep Blue no tiene voluntad ni conciencia, pero sus programadores sí. Por ejemplo, «enrocar antes de nueve jugadas», «dominar el centro del tablero», «forzar tablas» son muy complejos juegos de posibilidades. Sobre esta base se construye una programación que anticipa las respuestas de un contrincante junto a sus propias intenciones, que las tiene el Kasparov.

En resumen: hay inteligencia en ambos casos. Contra los expertos en vivo no hay duda, porque todos son humanos. Mas en Deep Blue también, porque realmente Kasparov sigue jugando contra sus programadores, pero en tiempos diferidos.

La «inteligencia artificial» es el traslado de inteligencia fuera de la mente, a cerebros mecánicos que imitan algunos aspectos no tan rudimentarios del pensamiento.

Estamos, eso sí, a enorme distancia de un pensamiento artificial más sofisticado o emotivo, pero hay razones para celebrar ese pequeño triunfo contra Kasparov, porque revela el poder de la inteligencia combinada y condesada fuera del cerebro para que «piense» por sí misma.

___________________________________________________________

 

Verified by MonsterInsights