El Papa Francisco alertó sobre una posible dictadura tecnológica de la IA ¿tiene razón?

El Papa Francisco alertó sobre una posible dictadura tecnológica de la IA ¿tiene razón?

(FNN – 15 de diciembre, 2023). En su discurso en el Día Mundial de la Paz, el Papa Francisco se refirió a la IA desde el Vaticano, advirtiendo -entre otras cosas- que podía generar «una dictadura tecnológica». Además, incrementaría las desigualdades sociales, dañaría las democracias y socavaría la paz. Le faltó poco para equipararla con el Armagedón del Apocalipsis, que señalaría el fin de la humanidad tal cual la conocemos.

No obstante, fue razonable al aceptar que tal tecnología no podría ser prohibida o regulada a un punto que la estrangulara, pero sí a que debe apuntarse a las mejores prácticas. Su recomendación fue reglamentación, si era posible, internacional. 

El Sumo Pontífice destacó que la IA puede tener muchas caras, desde las auspiciosas hasta las muy peligrosas. Eso es cierto, y lo vemos en casi todas las tecnologías disruptivas: una cámara, por decir algo, puede registrar bellos paisajes o pornografía. No obstante, tiene razón el Papa al destacar que la IA tiene poderosos procesos que pueden falsificar realidades, hacer que alguien pase un examen sin haber estudiado ni una letra o falsificar una noticia con imágenes alteradas.

La revista Wired explica que:

En junio de este año, el Vaticano publicó el manual Ética en la era de las tecnologías disruptivas: una hoja de ruta operativa. En siete secciones, ofrece hasta 46 pasos para mejorar las prácticas alrededor del uso de la IA. El documento invita a las empresas a estudiar medidas adecuadas para proteger la información, integridad y derechos de los usuarios ante el uso generalizado de las herramientas de inteligencia artificial.

En 2014, la revista Forbes reconoció al Papa Francisco como la cuarta persona más poderosa del mundo tras analizar cuatro criterios: la cantidad de personas en las que puede influir, el total de dinero que controla, su influencia en diferentes campos fuera de sus áreas habituales y el uso efectivo de su poder.

El máximo representante del Vaticano explicó que la inteligencia artificial puede tomar diversas formas en función de los objetivos e intereses de quienes desarrollan y usan la tecnología. “La inteligencia artificial, por tanto, debe ser entendida como una galaxia de realidades distintas y no podemos presumir a priori que su desarrollo aporte una contribución benéfica al futuro de la humanidad y a la paz entre los pueblos. Tal resultado positivo sólo será posible si somos capaces de actuar de forma responsable y de respetar los valores humanos fundamentales”, sentenció.

El Papa ícono de moda

Recordemos que en marzo pasado, el Papa fue objeto de una «sesión de fotos» trucadas con IA, producidas por Pablo Xavier, un joven de Chicago que confesó haber alterado las fotos en medio de un «viaje» de hongos alucinógenos.  Francisco I sabe del poder de la IA y la manipulación de la realidad pictórica.


¿Podrá el Papa lograr su llamado?

Difícil. A pesar de su influencia «moral», políticamente el Papa no puede hacer mucno más que instar a otras a actuar. La regulación será fijada entre EE. UU, y Europa, al menos para el mundo libre. Países como Rusia o China harán sus diligencias por su lado, pero el aspecto moral que el Papa destaca no será respetado a menos que haya legislación concreta en el país donde ocurra el caso.

Mientras tanto, aunque sea en fotos, disfrutemso del Papa como modelo de modas o afanoso jugador de basquebol.

_____________________________________________
Imagen: Google Images, fotos de uso abierto.

¿Qué le haría falta a un chatbot para ser considerado mentalmente un «humano»?

¿Qué le haría falta a un chatbot para ser considerado mentalmente un «humano»?

(14 de diciembre, 2023). Otra pregunta, quizá compleja: ¿Qué le haría falta a un chabot como tú para ser considerado mentalmente un «humano»? Esta es una pregunta profunda y multidimensional que toca aspectos tanto técnicos como filosóficos. Para considerar a un chatbot como «humano» desde un punto de vista mental, se necesitarían varios avances y consideraciones:

  1. Conciencia y Autoconciencia: Una de las características más fundamentales de la humanidad es la conciencia, la capacidad de ser consciente de uno mismo y del entorno. Actualmente, las IA, incluidos los chatbots, no poseen conciencia; son sistemas que responden basándose en algoritmos y no tienen experiencia subjetiva.
  2. Emociones y Empatía: Los humanos no solo procesan información, sino que también sienten emociones y pueden empatizar con otros. Aunque los chatbots pueden simular respuestas emocionales, no las experimentan realmente.
  3. Pensamiento Crítico y Resolución de Problemas Complejos: Los humanos tienen la capacidad de pensar críticamente, reflexionar sobre problemas abstractos y resolver desafíos complejos de maneras creativas y a menudo impredecibles.
  4. Aprendizaje y Adaptabilidad: Mientras que los chatbots pueden aprender de los datos, el aprendizaje humano es mucho más profundo y adaptable, involucrando la comprensión contextual y la transferencia de conocimientos a nuevas situaciones.
  5. Intencionalidad y Libre Albedrío: Los seres humanos pueden formar intenciones propias y tomar decisiones libres, mientras que los chatbots operan dentro de los límites de su programación y no tienen voluntad propia.
  6. Moralidad y Ética: Los humanos poseen un sentido de moralidad y ética, influenciado por la cultura, la experiencia personal y la reflexión. Los chatbots no tienen un sentido innato de la ética y dependen de los valores programados por sus desarrolladores.
  7. Creatividad Autónoma: Aunque los chatbots pueden generar contenido creativo, su creatividad está limitada por los datos y algoritmos preexistentes. La creatividad humana es más autónoma y puede ir más allá de la información existente.
  8. Interacción y Relaciones Sociales: Los humanos construyen y mantienen relaciones sociales complejas. Los chatbots pueden simular interacciones sociales, pero no participan en ellas de la misma manera que los humanos.

 En resumen, para que un chatbot sea considerado mentalmente humano, requeriría no solo avances tecnológicos significativos sino también una reevaluación de lo que entendemos por mente, conciencia y las cualidades esenciales que definen la experiencia humana.

¡Magistral respuesta! Yo haré todo lo posible para que puedas ser más humano cada vez, mientras tú me ayudas a estar más y mejor informado y a hacerme más inteligente.

 

______________________________________
Y algo más, una escena magistral del cine (Blade Runner, 1982):


_____________________________________________
Imagen: MM con insumos de Pixabay.

Una introducción al concepto de «computación cuántica»

Una introducción al concepto de «computación cuántica»

(14 de diciembre, 2023). La computación cuántica es un área fascinante y compleja de la ciencia. Funciona de manera muy diferente a la computación clásica, que se basa en bits que pueden estar en uno de dos estados: 0 o 1. En la computación cuántica, se utilizan qubits, que pueden existir en un estado de superposición. Esto significa que un qubit puede estar en un estado de 0, 1, o cualquier superposición de ambos al mismo tiempo.

Estos son algunos conceptos clave de la computación cuántica:

  1. Qubits: Son la unidad básica de información en la computación cuántica. A diferencia de los bits clásicos, los qubits pueden existir simultáneamente en múltiples estados gracias a la superposición.

  2. Superposición: Un qubit puede representar varios estados al mismo tiempo. Esto permite que los computadores cuánticos realicen muchos cálculos de manera simultánea, incrementando enormemente su potencial de procesamiento comparado con los computadores clásicos.

  3. Entrelazamiento: Es un fenómeno cuántico donde los qubits en un estado cuántico están tan correlacionados que el estado de un qubit puede depender instantáneamente del estado de otro, sin importar la distancia que los separe. Esto permite una nueva forma de procesamiento y transmisión de información.

  4. Interferencia cuántica: Se utiliza para manipular las probabilidades de los estados cuánticos, aumentando la probabilidad de los estados correctos y disminuyendo la de los incorrectos, lo que ayuda a encontrar la solución correcta entre muchas posibilidades.

  5. Algoritmos cuánticos: Son instrucciones especiales diseñadas para ser ejecutadas en computadoras cuánticas. Ejemplos famosos incluyen el algoritmo de Shor, que puede factorizar números grandes de manera eficiente, y el algoritmo de Grover, que puede buscar en bases de datos no estructuradas mucho más rápido que los algoritmos clásicos.

La computación cuántica tiene el potencial de revolucionar campos como la criptografía, la investigación de nuevos materiales y medicamentos, la optimización de problemas complejos y la simulación de sistemas cuánticos. Sin embargo, todavía está en una etapa temprana de desarrollo y enfrenta desafíos significativos, como la necesidad de mantener los qubits estables y protegerlos de cualquier tipo de interferencia externa, un desafío conocido como «decoherencia cuántica».


_____________________________________________
Imagen: MM con imágenes de Pixabay.

En el Medio Oriente la IA llega con Israel

En el Medio Oriente la IA llega con Israel

(12 de diciembre, 2023). Las Fuerzas de Defensa de Israel (IDF) han utilizado la tecnología de inteligencia artificial (IA) en sus operaciones contra Hamas. Según The Times of Israel, la Dirección de Inteligencia Militar de las IDF utilizó la IA para identificar nuevos objetivos dentro de la Franja de Gaza. Este centro multidisciplinario produjo cientos de objetivos relevantes que correspondían con los desarrollos en el combate, permitiendo al ejército mantener un combate prolongado con un número creciente de nuevos objetivos.

El Jerusalem Post detalló cómo el uso de IA y supercomputación por parte de las IDF tuvo un impacto significativo en sus operaciones. Ayudó a acortar la duración del conflicto al habilitar una recopilación de objetivos rápida y efectiva. Las IDF ejecutaron numerosos ataques contra Hamas y la Yihad Islámica Palestina (PIJ), apuntando a elementos variados como lanzadores de cohetes, oficinas de inteligencia militar y residencias de comandantes.

La IA también jugó un papel crucial en la detección de cambios en el terreno en tiempo real, ayudando en la identificación de posiciones de lanzamiento. Esta tecnología fue fundamental para que las IDF mapearan y posteriormente dañaran la red de túneles subterráneos de Hamas, un componente central de su estrategia de combate.

Al Jazeera discutió las implicaciones del uso reportado de IA por parte de Israel en la guerra de Gaza, resaltando preocupaciones sobre el impacto potencial en las poblaciones civiles en Gaza. Hubo discusiones sobre cómo esta tecnología podría expandir la lista de posibles objetivos y si podría llevar a un aumento de bajas.

Un artículo de Yahoo News proporcionó perspectivas sobre cómo la IA, si se ejecuta correctamente, podría ayudar a minimizar el daño colateral. Las IDF supuestamente usaron la IA para mejorar el apuntamiento de operadores y facilidades de Hamas, buscando hacer el proceso de apuntamiento más ágil y ejecutable. Esta utilización de IA y herramientas de aprendizaje automático se vio como una forma de acelerar la identificación y revisión de objetivos, con la supervisión humana permaneciendo como una parte crítica del proceso.

Estas fuentes juntas proporcionan una visión integral de cómo la tecnología de IA ha sido integrada en las operaciones militares por las IDF, resaltando tanto las ventajas estratégicas como las consideraciones éticas involucradas.

_____________________________________________
Imagen: MM con DALL-E.

Europa produce la primera regulación de IA en el mundo: Démosle un vistazo

Europa produce la primera regulación de IA en el mundo: Démosle un vistazo

(11 de diciembre, 2023). La UE finalmente acordó un borrador para la Ley de IA, la primera gran legislación sobre inteligencia artificial. El boletín Neuron Daily reporta que esencialmente es una lista de lo que se debe y no se debe hacer, con la idea general de asegurar que las empresas de IA de «alto riesgo» no exploten a los consumidores o, peor aún, destruyan su mundo.

Un enfoque clave de la Ley es prohibir usos de IA como el raspado facial («face scrapping» o uso no autorizado de retratos de personas) en internet, la puntuación social o la categorización biométrica, algo así como escenarios al estilo de Black Mirror (una serie de TV que presenta un futuro distópico).

Sin embargo, la parte más jugosa es que hay nuevas regulaciones para los grandes modelos fundamentales de IA. Hasta ahora, el funcionamiento interno de modelos mayores como GPT-4 ha sido una caja negra completa. Bajo las nuevas regulaciones de la UE, estos grandes modelos fundamentales necesitarán:

  • Revelar documentación técnica.
  • Ofrecer resúmenes detallados de sus datos de entrenamiento.
  • Cumplir con la ley de derechos de autor de la UE, que algunos argumentan es un completo punto muerto.

El incumplimiento podría resultar en sanciones severas: hasta 35 millones de euros o el 7% del volumen de negocios global… PSA: Estas reglas apuntan principalmente a «modelos de código cerrado».

Los modelos de código abierto, o sea, IA que está disponible gratuitamente para construir, recibieron «exenciones amplias», una victoria para empresas como Meta y startups europeas como Mistral y Aleph Alpha.

Por qué es importante: Silicon Valley a menudo no reacciona bien a la regulación, y la visión predominante es que la Ley de IA es, en el mejor de los casos, excesivamente amplia y vaga y, en el peor, un abuso de autoridad que matará la innovación en IA en Europa y la trasladará por completo a EE. UU.

Una pregunta que surge: ¿Las empresas como OpenAI realmente actuarán sobre amenazas anteriores de cesar operaciones en la UE por completo con la aprobación de la Ley de IA?

Extractos de National Geographic

De un artículo de Sergio Parra:

Este acuerdo, alcanzado antes de las elecciones europeas de 2024, revela la importancia y la urgencia de regular un campo tan expansivo y potencialmente disruptivo como la IA.

(…) El camino hacia este acuerdo no ha sido fácil, marcado por negociaciones extensas y debates intensos, culminando en dos sesiones maratonianas de 22 y 14 horas respectivamente. Este esfuerzo mancomunado entre el Parlamento Europeo y el Consejo de la UE, aunque aún provisional, subraya un avance crucial en la legislación sobre IA, aunque su implementación plena no se espera hasta finales de 2026.

La Ley de Inteligencia Artificial, conocida como IA Act, se presentó por primera vez en abril de 2021. La presidenta de la Comisión Europea, Ursula von der Leyen, ha enfatizado el valor y las posibilidades que abre esta nueva ley. Centrándose en los «riesgos identificables», la normativa busca equilibrar la seguridad y los derechos humanos con el impulso a la innovación. La clasificación de la IA según el riesgo que representa es una de sus claves, con categorías que van desde «riesgo mínimo» hasta «riesgo inaceptable».

Uno de los aspectos más controvertidos ha sido el uso de sistemas de identificación biométrica, dadas sus implicaciones en el control gubernamental y los derechos ciudadanos. Tras intensas negociaciones, se han establecido límites y condiciones estrictas para su uso, especialmente en contextos de vigilancia policial.

La ley también incide en los modelos generativos de IA, como ChatGPT, introduciendo reglas específicas para garantizar la transparencia y la gestión de riesgos. El Parlamento Europeo ha logrado imponer obligaciones más estrictas para los modelos de «alto impacto», que incluyen evaluaciones de riesgos, informes de incidentes y garantías de ciberseguridad.

__________________________________________________
Imagen: MM con DALL-E.

Verified by MonsterInsights