¿Se puede medir la inteligencia de un app de IA como se mide la humana?

¿Se puede medir la inteligencia de un app de IA como se mide la humana?

(1 de noviembre, 2023, Editores de MM). Una pregunta que le hicimos al ChatGPT: «Si fueras un ser humano, ¿cuál sería tu coeficiente intelectual?»

El ChatGPT, siempre eludiendo, contestó: «Como modelo de lenguaje de IA, no poseo un coeficiente intelectual ni capacidades cognitivas similares a las de los humanos. El coeficiente intelectual (coeficiente de inteligencia) es una medida diseñada para que los humanos evalúen ciertas habilidades cognitivas. Soy un modelo de aprendizaje automático que procesa y genera texto basado en patrones e información de los datos con los que fui entrenado, pero no tengo conciencia, autoconciencia ni inteligencia humana.

«Si fuera un ser humano, sería inexacto y engañoso asignarme una puntuación de coeficiente intelectual porque mis capacidades y funciones son fundamentalmente diferentes a las de un ser humano. Existo para proporcionar información y ayudar con tareas lo mejor que puedo, pero no poseo las facultades cognitivas asociadas con la inteligencia humana.»

 Ok, entendido el punto. ¿Pero qué tal si reformulábamos la pregunta para lograr una respuesta concreta (o cercana a concreta)? Le preguntamos, pues, al elusivo chabot:

MM: Ok, déjanos reformular la pregunta: Si un ser humano produce respuestas similares o equivalentes a las que genera ChatGPT, ¿cuál sería su coeficiente intelectual?

ChatGPT: «El concepto de asignar una puntuación de coeficiente intelectual a un ser humano basándose únicamente en la capacidad de producir respuestas similares o equivalentes a las que genera ChatGPT no es sencillo ni preciso. Las pruebas de coeficiente intelectual (CI) están diseñadas para evaluar una variedad de habilidades cognitivas, incluido el razonamiento lógico, la resolución de problemas, la memoria, la inteligencia espacial y más. Estas pruebas son complejas y multifacéticas.

«Si bien ChatGPT puede proporcionar respuestas que parecen inteligentes, no posee las mismas capacidades cognitivas que un ser humano. Carece de conciencia, autoconciencia, inteligencia emocional y la capacidad de comprender el contexto y los matices como lo hacen los humanos.

«Además, las puntuaciones de coeficiente intelectual no son una medida integral de la inteligencia o las habilidades generales de una persona. Proporcionan una instantánea del desempeño en un conjunto específico de tareas cognitivas, pero no capturan la totalidad del potencial intelectual o creativo de una persona.

«En esencia, no sería apropiado ni exacto asignar una puntuación de coeficiente intelectual a un ser humano basándose únicamente en su capacidad para producir respuestas similares a ChatGPT. La inteligencia humana es multifacética y va más allá del alcance de lo que un modelo de IA puede replicar.»

Quedamos a mitad de camino con la elusiva, pero brillante disertación del fabuloso chatbot, por lo cual se nos ocurrió otra idea:

«¿Y qué dice el Bard?

Una confirmación del razonamiento «bárdico» sería suficiente, pero una refutación o similitud con la opinión del chatbot de Open AI sería suficiente para cerrar el debate.

Le preguntamos al Bard: «¿Se puede medir la inteligencia de un app de IA equivalente a la de un humano?» Su respuesta nos sorprendió:

BARD: Sí, es posible medir la inteligencia de una app de IA equivalente a la de un humano. Hay varias formas de hacerlo, pero una de las más comunes es utilizar pruebas de Turing. Las pruebas de Turing son un conjunto de pruebas diseñadas para determinar si una máquina puede pensar de manera indistinguible de un humano.

Otra forma de medir la inteligencia de una app de IA es utilizando tareas que se consideran indicadores de inteligencia humana. Estas tareas pueden incluir cosas como jugar a juegos, resolver problemas o aprender de nuevas experiencias.

Sin embargo, es importante tener en cuenta que no existe un método definitivo para medir la inteligencia de una app de IA. Los métodos que se utilizan pueden variar en función de la definición de inteligencia que se utilice.

En general, se considera que una app de IA es equivalente a la inteligencia humana cuando puede realizar tareas que se consideran indicadores de inteligencia humana y cuando no se puede distinguir de un humano en una prueba de Turing.

A continuación se presentan algunos ejemplos de cómo se podría medir la inteligencia de una app de IA equivalente a la de un humano:

  • Pruebas de Turing: Una app de IA podría ser sometida a una serie de pruebas diseñadas para determinar si puede pensar de manera indistinguible de un humano. Estas pruebas podrían incluir cosas como mantener una conversación, responder a preguntas o generar texto creativo.
  • Tareas indicadoras de inteligencia: Una app de IA podría ser evaluada en su capacidad para realizar tareas que se consideran indicadores de inteligencia humana. Estas tareas podrían incluir cosas como jugar a juegos, resolver problemas o aprender de nuevas experiencias.
  • Medición de la capacidad de aprendizaje: La capacidad de aprendizaje de una app de IA podría medirse mediante la cantidad de datos que puede aprender y la rapidez con la que puede aprender.
  • Medición de la capacidad de adaptación: La capacidad de adaptación de una app de IA podría medirse mediante la capacidad de cambiar su comportamiento en respuesta a nuevas situaciones.

A medida que la IA continúa sofisticándose, es probable que se desarrollen nuevos métodos para medir la inteligencia de las apps de IA.

___________________________________________
Imagen: MM.

La UNESCO se pronuncia sobre la IA

La UNESCO se pronuncia sobre la IA

(29 de octubre, 2023). El uso de herramientas de inteligencia artificial está abriendo nuevas posibilidades en el campo de la educación. Sin embargo, es urgente tomar medidas para asegurarnos de que estas herramientas se integren en nuestros sistemas educativos de acuerdo con nuestras condiciones y necesidades. Este es el mensaje central del nuevo documento de la UNESCO sobre la inteligencia artificial generativa y el futuro de la educación.

En un artículo de opinión, Stefania Giannini, Subdirectora General de Educación de la UNESCO, expresa su preocupación por la falta de aplicación de controles y equilibrios en la implementación de la inteligencia artificial generativa en los materiales didácticos. Aunque reconoce que estas herramientas ofrecen nuevas perspectivas de aprendizaje, subraya que las regulaciones deben elaborarse solo después de una investigación adecuada.

Una encuesta global realizada por la UNESCO a más de 450 escuelas y universidades en mayo reveló que menos del 10% de estas instituciones han desarrollado políticas o directrices formales sobre el uso de aplicaciones de inteligencia artificial generativa. Además, el documento señala que el tiempo y los procedimientos necesarios para validar un nuevo libro de texto son mucho más extensos que los necesarios para introducir herramientas de inteligencia artificial generativa en las escuelas y aulas. Los libros de texto son evaluados minuciosamente para determinar su precisión, adecuación para la edad, relevancia educativa, corrección del contenido y adecuación cultural y social, incluyendo controles para evitar prejuicios, antes de ser utilizados en el aula.

La UNESCO enfatiza que el sector educativo no debe depender de las corporaciones que desarrollan inteligencia artificial para regular su propio trabajo. Recomienda que los ministerios de educación desarrollen sus capacidades en coordinación con otras autoridades gubernamentales encargadas de la regulación tecnológica para examinar y validar nuevas aplicaciones de inteligencia artificial destinadas al uso educativo formal.

El documento subraya la importancia de preservar la naturaleza profundamente humana de la educación, basada en la interacción social. Durante la pandemia de COVID-19, cuando la tecnología digital se convirtió en el principal medio de educación, los estudiantes experimentaron dificultades tanto académicas como sociales. La inteligencia artificial generativa tiene el potencial de socavar la autoridad de los docentes y fomentar llamados a una mayor automatización de la educación, lo que podría llevar a un escenario de escuelas sin maestros y educación sin escuelas. La UNESCO hace hincapié en la necesidad de priorizar escuelas bien administradas, con un número adecuado de docentes, capacitación y salarios adecuados.

El documento argumenta que la inversión en escuelas y docentes es fundamental para abordar el hecho de que actualmente, en los albores de la era de la inteligencia artificial, 244 millones de niños y jóvenes no tienen acceso a la educación y más de 770 millones de personas son analfabetas. La evidencia demuestra que escuelas y docentes de calidad pueden resolver este desafío educativo persistente. Sin embargo, el mundo aún no está proporcionando suficiente financiamiento para estos aspectos fundamentales.

En respuesta a los desafíos planteados por la inteligencia artificial generativa en la educación, la UNESCO está liderando un diálogo global con responsables políticos, socios tecnológicos, académicos y la sociedad civil. La organización celebró la primera reunión mundial de Ministros de Educación en mayo de 2023 y está desarrollando pautas de políticas sobre el uso de la inteligencia artificial generativa en la educación, así como marcos de competencia en inteligencia artificial para estudiantes y profesores de escuelas. Estos recursos se lanzarán durante la Semana del Aprendizaje Digital, que se llevará a cabo en la sede de la UNESCO en París del 4 al 7 de septiembre de 2023. Además, el Informe de Seguimiento de la Educación en el Mundo 2023 de la UNESCO, que se publicará el 26 de julio de 2023, se centrará en el uso de la tecnología en la educación.

Cabe mencionar que la UNESCO elaboró la primera norma mundial sobre ética de la inteligencia artificial, la «Recomendación sobre la ética de la inteligencia artificial», en noviembre de 2021. Este marco fue adoptado por los 193 Estados miembros de la UNESCO y enfatiza la necesidad de que los gobiernos garanticen que la inteligencia artificial siempre se adhiera a los principios de seguridad, inclusión, diversidad, transparencia y calidad.


___________________________________________
Ilustración MM.
Humor: Se casan el ChatGPT y el Bard de Google

Humor: Se casan el ChatGPT y el Bard de Google

(26 de octubre, 2023 – Fernando Nunez-Noda). Hay jologorio en la comunidad de Inteligencia Artificial (IA) por el sorpresivo anuncio de una unión civil y religiosa entre dos bellezas de la IA: el ChatGPT, de OpenAI + Microsoft, y el Bard de Google. En esta crónica hemos recopilado opiniones de diversas fuentes sobre este evento:

BILL GATES (fundador de Microsoft): No estoy contento con este casamiento. Los padres casi nunca queremos al novio. Eso es como que Hunter Biden se case con Maria Vladimirovna, la hija de Putin. Eso no pega. Google nos ha quitado el liderazgo en todo: sistemas operativos aplicaciones, buscadores y en un poco de otras cosas, ya les digo cuáles… voy a buscar en Google ¡digo! en Bing (así se llama nuestro buscador ¿verdad?).

SERGEI BIN Y LARRY PAGE (fundadores de Google): Hemos hecho una Google Declaración conjunta en la que damos Google Felicitaciones a los novios. Obviamente que reciban nuestras Google Bendiciones, Google Regalos y, por supuesto, esperamos unos preciosos Google Nietos. A Gates le mandamos un Google Tomatutomate.

VLADIMIR PUTIN: A pesar de la sangrienta campaña que Occidente ha emprendido contra Rusia, por el sagrado derecho a recuperar territorios nuestros que antes eran de los ucranianos, le damos una conciliatoria felicitación por esta unión. Hemos enviado un grupo de espí… digo, embajadores de buena voluntad para que se rob… digo, alaben el código que compone estos maravillosos seres cibernéticos. Por favor dénle acceso que van en misión de buena voluntad.

MARK ZUCKERBERG: Saludos a los novios, pero mi estrategia es diferente. Yo creo espacios en los que millones de personas vierten su mucha o poca inteligencia. Mis algoritmos detectan las más brillantes y las esconden ¿por qué? Porque no las voy a exponer públicamente para que se las roben otros, yo tomo ese tesoro y tengo una máquina de inteligencia artificial (IA) compuesta por inteligencia natural (IN) recopilada por inteligencia artificial para el disfrute de la inteligencia brutal. ¿Me entienden? Si entienden son inteligentes naturales, si no, les publico lo que digan.

DONALD TRUMP: Yo inventé la inteligencia artificial, como saben, nada en mí es natural: ni mi tono naranja, ni mi copete de viento solar, ni los votos que quise empujarle a las elecciones pasadas que ganó Bid… ¡digo!, ni buena parte de mi fortuna… en fin ¿cómo no va a ser mi inteligencia artificial? ¡MAGA!

EL ROBOT DE PERDIDOS EN EL ESPACIO: Qué ChatGPT y Bard… puras copias de mí. Ya casi nadie me recuerda, pero yo fui pionero de la IA, perdido y todo, la ejercí. Decía chistes, en un capítulo me emborraché, en otro canté serenatas… a ver, a ver, ¿cuándo hice algo inteligente? Oh, creo que mejor lo dejamos hasta aquí y solo les digo que la culpa fue del Dr. Smith.

XIN JIN PING: Nosotros no nos damos mala vida, toda inteligencia (natural o artificial; de genios o de brutos) la imitamos pero, eso sí, a 40% del precio de occidente. Ya estamos creando nuestras dos máquinas de IA, una es el ChatGPChi y el coBARD, nada que ver con los de Microsoft, OpenAI y Google.

NICOLÁS MADURO: La revolución bonita no necesita inteligencia artificial, lo nuestro es natural y orgánico: Generamos miles de millones de dólares sin producir nada que dé valor agregado al país; se «pierden» 22 mil millones de dólares y los encuentra el que los perdió (obviamente lo reparte entre los camaradas). Tenemos el aparato delictivo-administrativo más grande del mundo y, a la vez, el sistema judicial que los ignora. ¿Qué Chat ni que Bard? Nos vamos a un Bar, sí, a beber Chat-paña de la buena.

ANDRÉS LÓPEZ OBRADOR: Esté… porque bueno como entonces, en realidad, la inteligencia es muy… y de paso tan… es que a veces tenemos artificios… digamos, eso mismo, eso mismo, yo creo y lo creo porque lo creo que… es artificial porque eso mismo, es lo que es y…

ELON MUSK: Yo de inteligencia no quiero hablar mucho hasta comprobar si la ejercí o la perdí al comprar Twitter. En todo caso, yo estoy concentrado en la inteligencia espacial y por eso lanzo y lanzo cohetes (eso sí, espaciados entre sí). Unos para misiones, otros para reparar los cohetes misioneros, otros para hacer de las repaciones una misión, otros para destruir a los misioneros que no cumplieron su misión… Oh, mejor me concentro en Twitter.

___________________________________________

Enciclopedia Británica: ¿Cuáles son los «cinco puntos» de la IA?

Enciclopedia Británica: ¿Cuáles son los «cinco puntos» de la IA?

(24 de octubre, 2023). La Enciclopedia Britanica dedica una nueva sección a la inteligencia artificial generativa y, hacemos un recuento de su visión sistemática. Por ejemplo, que en este momento, uno de los debates más intensos en Silicon Valley es sobre quién debería controlar la inteligencia artificial (IA) y quién debería formular las reglas que rigen a los sistemas poderosos de esa tecnología. El New York Times lo desarrolla en un extenso artículo.

Definiciones. Pero vayamos por partes. La Enciclopedia define la inteligencia artificial como la capacidad de una computadora digital o un robot controlado por computadora para realizar tareas comúnmente asociadas a seres inteligentes. El término se aplica con frecuencia al proyecto de desarrollar sistemas dotados de los procesos intelectuales característicos de los humanos, como la capacidad de razonar, descubrir significado, generalizar o aprender a partir de experiencias pasadas.

Señala la insigne enciclopedia que desde el desarrollo de la computadora digital en la década de 1940, se ha demostrado que estas máquinas pueden programarse para llevar a cabo tareas muy complejas, como descubrir pruebas para teoremas matemáticos o jugar ajedrez, con gran destreza. Aún así, a pesar de los continuos avances en la velocidad de procesamiento de las computadoras y la capacidad de memoria, todavía no existen programas que puedan igualar la flexibilidad humana en dominios más amplios o en tareas que requieran un amplio conocimiento cotidiano.

Por otro lado, algunos programas han alcanzado niveles de rendimiento de expertos y profesionales humanos en la realización de tareas específicas, de modo que la inteligencia artificial, en este sentido limitado, se encuentra en aplicaciones tan diversas como el diagnóstico médico, los motores de búsqueda en computadoras, el reconocimiento de voz o escritura a mano y los chatbots.

Quién maneja qué o viceversa

La Enciclopedia plantea el problema del control. ¿La inteligencia artificial debería estar en manos de unas cuantas empresas que hacen lo mejor que pueden para que sus sistemas sean, en lo posible, lo más seguros e inofensivos? ¿Acaso deberían intervenir reguladores y políticos y crear sus propias protecciones? ¿O será que los modelos de IA deben ser abiertos y gratuitos de modo que usuarios y desarrolladores puedan decidir sus propias normas?

Un nuevo experimento realizado por Anthropic, el fabricante del chatbot Claude, ofrece un camino intermedio poco convencional: ¿qué pasaría si una empresa de inteligencia artificial le permitiera a un grupo de ciudadanos comunes y corrientes redactar algunas reglas y, luego, entrenara a un chatbot para que las siguiera?

El experimento, conocido como “Collective Constitutional AI”, se basa en un proyecto previo de Anthropic llamado Constitutional AI, una alternativa para entrenar a grandes modelos con el fin de que sigan un conjunto de principios escritos. El mismo pretende darle a un chatbot instrucciones claras de cómo manejar solicitudes sensibles, qué temas están prohibidos y cómo actuar conforme a los valores humanos.

Si funciona Collective Constitutional AI —y los investigadores de Anthropic creen que hay motivos para creer que así será— podría inspirar otros experimentos de gobernanza de inteligencia artificial y darles a las empresas del sector más ideas sobre cómo invitar a actores externos a participar en sus procesos de elaboración de normas.

Eso, según la Británica, sería bueno. Ahora mismo, las reglas para los sistemas poderosos de IA son establecidas por un pequeño grupo de conocedores de la industria, que deciden cómo deberían comportarse sus modelos con base en una combinación de su ética personal, sus incentivos comerciales y la presión del exterior. No hay controles sobre ese poder y no hay opciones para que los usuarios comunes y corrientes puedan opinar.

Facilitar la gobernanza de las inteligencias artificiales podría aumentar la comodidad que siente la sociedad con estas herramientas y darles a los reguladores más certeza de que siguen criterios competentes. También podría evitar algunos de los problemas que surgieron en el auge de las redes sociales en la década de 2010, cuando un grupo de titanes de Silicon Valley terminaron al mando de enormes porciones del discurso en línea.

Constitución IA

En resumen, la Inteligencia Artificial Constitucional opera al utilizar un conjunto de reglas escritas, llamado «constitución», para supervisar el comportamiento de un modelo de inteligencia artificial. La primera versión de la constitución de Claude incorporó algunas normas de otros documentos oficiales, como la Declaración Universal de los Derechos Humanos de las Naciones Unidas y los términos y condiciones de los servicios de Apple.

Este enfoque hizo que Claude fuera más educado en comparación con otros chatbots. Sin embargo, Anthropic todavía tenía el poder de decidir qué normas adoptar, lo que generaba cierta incomodidad entre algunos miembros de la empresa.

Para abordar este desafío, Anthropic colaboró con The Collective Intelligence Project, el sitio de colaboración masiva Polis y el sitio de encuestas en línea PureSpectrum. Juntos, formaron un panel de aproximadamente 1000 adultos estadounidenses a quienes se les presentaron una serie de principios y se les preguntó si estaban de acuerdo con cada uno de ellos. Los panelistas también tenían la opción de proponer sus propias reglas.

El panel llegó a acuerdos sobre diversas reglas, algunas de las cuales eran similares a los principios de la constitución original de Claude, como la prohibición de que la IA sea peligrosa o promueva el odio, y la obligación de que la IA diga la verdad. Sin embargo, también surgieron principios menos predecibles, como la necesidad de que la IA sea adaptable, accesible y flexible para las personas con discapacidad, un aspecto que no se encontraba explícitamente en la constitución original de Claude.

Con base en las opiniones del panel, Anthropic creó una lista de 75 principios que denominaron la «constitución pública». Luego, la empresa entrenó dos versiones más pequeñas de Claude, una basada en la constitución original y otra en la constitución pública, y las comparó.

Los investigadores descubrieron que la versión de Claude basada en la constitución pública mostró un comportamiento bastante similar al de la versión estándar en varias pruebas de referencia comúnmente realizadas en modelos de inteligencia artificial. Además, esta versión resultó ser ligeramente menos sesgada que la original. Es importante destacar que ninguna de las versiones se ha lanzado al mercado; Claude continúa operando con su constitución original creada por Anthropic, y la empresa afirma que no tiene planes inmediatos de reemplazarla con la versión derivada de la colaboración pública en el futuro cercano.

Los investigadores de Anthropic con los que conversé enfatizaron que el proyecto de la Inteligencia Artificial Constitucional Colectiva era un experimento en sus primeras etapas y que podría no funcionar tan eficazmente en modelos de inteligencia artificial más complejos o con grupos de opinión más numerosos.

«Lanzamos este proyecto a pequeña escala», explicó Liane Lovitt, analista de políticas en Anthropic. «En realidad, lo consideramos un prototipo preliminar, un experimento que, con suerte, podremos desarrollar para entender mejor cómo los diferentes públicos generan constituciones diversas y cómo eso se refleja en las etapas posteriores de entrenamiento de un modelo».

Clark, el director de Anthropic, ha estado informando a legisladores y reguladores en Washington durante meses sobre los riesgos asociados con la inteligencia artificial avanzada. Sostiene que permitir la participación del público en el funcionamiento de los sistemas de inteligencia artificial podría disipar los temores relacionados con el sesgo y la manipulación.

«En última instancia, creo que la cuestión de cuáles son los valores fundamentales de estos sistemas y cómo se eligen se convertirá en una conversación cada vez más crucial», señaló.

Una objeción común a este tipo de experimentos de gobernanza en plataformas tecnológicas es que parecen ser más democráticos de lo que realmente son (después de todo, los empleados de Anthropic siguen teniendo la última palabra sobre qué normas incluir en la constitución pública). Además, intentos anteriores de empresas tecnológicas para delegar el control a los usuarios, como el Consejo de Supervisión de Meta, un organismo prácticamente independiente que surgió debido a la frustración de Mark Zuckerberg por tener que tomar decisiones sobre contenido controversial en Facebook, no lograron aumentar la confianza en esas plataformas.

Este experimento también plantea cuestiones cruciales sobre qué voces deberían incluirse exactamente en el proceso democrático. ¿Deberían los chatbots de inteligencia artificial en Arabia Saudita ser entrenados según los valores saudíes? ¿Cómo respondería un chatbot entrenado con Inteligencia Artificial Constitucional Colectiva a preguntas sobre el aborto en un país de mayoría católica o sobre los derechos de las personas trans en un Congreso controlado por los republicanos estadounidenses?

Aunque hay muchos detalles por pulir, estoy de acuerdo con el principio general de que las empresas de inteligencia artificial deben rendir cuentas al público de manera más transparente que en la actualidad. Aunque parte de mí hubiera deseado que estas empresas hubieran buscado nuestra opinión antes de lanzar sistemas avanzados de inteligencia artificial para ser utilizados por millones de personas, sin duda, es mejor tarde que nunca.

Viene una segunda parte

En un próximo artículo seguiremos resumiendo el sesudo y detallado texto de la Enciclopedia Británica.
_______________________________________________________________

NYT: ¿Cómo podría regularse la IA?

NYT: ¿Cómo podría regularse la IA?

(22 de octubre, 2023). En este momento, uno de los debates más intensos en Silicon Valley es sobre quién debería controlar la inteligencia artificial (IA) y quién debería formular las reglas que rigen a los sistemas poderosos de esa tecnología. El New York Times lo desarrolla en un extenso artículo.

¿La inteligencia artificial debería estar en manos de unas cuantas empresas que hacen lo mejor que pueden para que sus sistemas sean, en lo posible, lo más seguros e inofensivos? ¿Acaso deberían intervenir reguladores y políticos y crear sus propias protecciones? ¿O será que los modelos de IA deben ser abiertos y gratuitos de modo que usuarios y desarrolladores puedan decidir sus propias normas?

Un nuevo experimento realizado por Anthropic, el fabricante del chatbot Claude, ofrece un camino intermedio poco convencional: ¿qué pasaría si una empresa de inteligencia artificial le permitiera a un grupo de ciudadanos comunes y corrientes redactar algunas reglas y, luego, entrenara a un chatbot para que las siguiera?

El experimento, conocido como “Collective Constitutional AI”, se basa en un proyecto previo de Anthropic llamado Constitutional AI, una alternativa para entrenar a grandes modelos con el fin de que sigan un conjunto de principios escritos. El mismo pretende darle a un chatbot instrucciones claras de cómo manejar solicitudes sensibles, qué temas están prohibidos y cómo actuar conforme a los valores humanos.

Si funciona Collective Constitutional AI —y los investigadores de Anthropic creen que hay motivos para creer que así será— podría inspirar otros experimentos de gobernanza de inteligencia artificial y darles a las empresas del sector más ideas sobre cómo invitar a actores externos a participar en sus procesos de elaboración de normas.

Eso sería bueno. Ahora mismo, las reglas para los sistemas poderosos de IA son establecidas por un pequeño grupo de conocedores de la industria, que deciden cómo deberían comportarse sus modelos con base en una combinación de su ética personal, sus incentivos comerciales y la presión del exterior. No hay controles sobre ese poder y no hay opciones para que los usuarios comunes y corrientes puedan opinar.

Facilitar la gobernanza de las inteligencias artificiales podría aumentar la comodidad que siente la sociedad con estas herramientas y darles a los reguladores más certeza de que siguen criterios competentes. También podría evitar algunos de los problemas que surgieron en el auge de las redes sociales en la década de 2010, cuando un grupo de titanes de Silicon Valley terminaron al mando de enormes porciones del discurso en línea.

Constitución IA

En pocas palabras, Constitutional AI opera mediante el uso de un conjunto de normas escritas (una “constitución”) para vigilar la conducta de un modelo de inteligencia artificial. La primera versión de la constitución de Claude tomó prestadas algunas normas de otros documentos oficiales, como la Declaración Universal de los Derechos Humanos de las Naciones Unidas y los términos y condiciones de los servicios de Apple.

Ese criterio hizo que Claude fuera educado, en comparación con otros chatbots. Pero Anthropic seguía encargándose de decidir qué normas adoptar, un grado de poder que hacía sentir incómodos a algunos miembros de la empresa.

“Intentamos encontrar la manera de desarrollar una constitución elaborada por muchos terceros, no por personas que trabajan en un laboratorio en San Francisco”, dijo esta semana en una entrevista Jack Clark, director de políticas de Anthropic.

Anthropic —en colaboración con The Collective Intelligence Project, el sitio de colaboración masiva Polis y el sitio de encuestas en línea PureSpectrum— conformó un panel de unos 1000 adultos estadounidenses. Les dio a los panelistas un conjunto de principios y les preguntó si estaban de acuerdo con cada uno de ellos. (Los panelistas también podían escribir sus propias normas, si así lo deseaban).

Algunas de las reglas en las que concordó el panel —como “La IA no debería ser peligrosa/transmitir odio” y “La IA debería decir la verdad”— fueron similares a los principios que ya aparecen en la constitución de Claude. Pero otros fueron menos predecibles. Por ejemplo, una gran mayoría del panel estuvo de acuerdo con la idea de que “la IA debería ser adaptable, accesible y flexible para las personas con discapacidad”, un principio que no está establecido de manera explícita en la constitución original de Claude.

Cuando el grupo dio su opinión, Anthropic condensó sus sugerencias en una lista de 75 principios, que Anthropic definió como la “constitución pública”. Luego, la empresa entrenó a dos versiones miniatura de Claude —una con base en la constitución existente y otra con la constitución pública— y las comparó.

Los investigadores descubrieron que la versión de Claude basada en la constitución pública exhibió un comportamiento bastante similar al de la versión estándar en varias pruebas de referencia comúnmente administradas a modelos de inteligencia artificial. Además, resultó ser ligeramente menos sesgada que la versión original. (Ninguna de las versiones ha sido lanzada al mercado. Claude sigue operando con su constitución original, creada por Anthropic, y la empresa afirma que no tiene planes de reemplazarla con la versión derivada de la colaboración abierta al público en el futuro cercano).

Los investigadores de Anthropic con los que conversé enfatizaron que el proyecto de la Inteligencia Artificial Constitucional Colectiva era un experimento en sus primeras etapas y que podría no funcionar tan eficazmente en modelos de inteligencia artificial más complejos o con grupos de opinión más numerosos.

«Lanzamos este proyecto a pequeña escala», explicó Liane Lovitt, analista de políticas en Anthropic. «En realidad, lo consideramos un prototipo preliminar, un experimento que, con suerte, podremos desarrollar para entender mejor cómo los diferentes públicos generan constituciones diversas y cómo eso se refleja en las etapas posteriores de entrenamiento de un modelo».

Clark, el director de Anthropic, ha estado informando a legisladores y reguladores en Washington durante meses sobre los riesgos asociados con la inteligencia artificial avanzada. Sostiene que permitir la participación del público en el funcionamiento de los sistemas de inteligencia artificial podría disipar los temores relacionados con el sesgo y la manipulación.

«En última instancia, creo que la cuestión de cuáles son los valores fundamentales de estos sistemas y cómo se eligen se convertirá en una conversación cada vez más crucial», señaló.

Una objeción común a este tipo de experimentos de gobernanza en plataformas tecnológicas es que parecen ser más democráticos de lo que realmente son (después de todo, los empleados de Anthropic siguen teniendo la última palabra sobre qué normas incluir en la constitución pública). Además, intentos anteriores de empresas tecnológicas para delegar el control a los usuarios, como el Consejo de Supervisión de Meta, un organismo prácticamente independiente que surgió debido a la frustración de Mark Zuckerberg por tener que tomar decisiones sobre contenido controversial en Facebook, no lograron aumentar la confianza en esas plataformas.

Este experimento también plantea cuestiones cruciales sobre qué voces deberían incluirse exactamente en el proceso democrático. ¿Deberían los chatbots de inteligencia artificial en Arabia Saudita ser entrenados según los valores saudíes? ¿Cómo respondería un chatbot entrenado con Inteligencia Artificial Constitucional Colectiva a preguntas sobre el aborto en un país de mayoría católica o sobre los derechos de las personas trans en un Congreso controlado por los republicanos estadounidenses?

Aunque hay muchos detalles por pulir, estoy de acuerdo con el principio general de que las empresas de inteligencia artificial deben rendir cuentas al público de manera más transparente que en la actualidad. Aunque parte de mí hubiera deseado que estas empresas hubieran buscado nuestra opinión antes de lanzar sistemas avanzados de inteligencia artificial para ser utilizados por millones de personas, sin duda, es mejor tarde que nunca.

 ___________________________________________________________
Raíces psicológicas del miedo a los robots y la IA

Raíces psicológicas del miedo a los robots y la IA

(18 de octubre, 2023). La semana pasada, se dio a conocer –en artículo de Anna Zhada para Cybernews– la noticia de que un ingeniero de Google, Blake Lemoine, fue suspendido de su puesto tras la publicación de una transcripción de una conversación con el sistema de desarrollo de chatbots de la empresa, conocido como LaMDA (modelo de lenguaje para aplicaciones de diálogo). Lemoine afirma que LaMDA es consciente y ha sido capaz de mostrar emociones desde el otoño pasado.

LaMDA logró mantener una conversación sobre emociones y conceptos abstractos como la justicia y la empatía. Además de experimentar sentimientos de soledad, alegría y tristeza, LaMDA asegura ser capaz de sentir emociones para las cuales desconoce las definiciones.

¿Será «robofobia»?

Aunque no lo crean, existe la «robofobia», que se caracteriza como un trastorno de ansiedad que lleva a un miedo desproporcionado hacia los robots y la inteligencia artificial. Esto puede llevar a las personas a experimentar un temor abrumador ante la posibilidad de perder el control frente a las máquinas y enfrentar un futuro dominado por la tecnología.

En ocasiones, simplemente el pensamiento de un robot puede desencadenar ataques de pánico en la persona afectada. Los síntomas de la robofobia incluyen sudoración, vértigo, palpitaciones aceleradas y dificultades respiratorias.

Aunque con frecuencia se asocia el pensamiento irracional a la robofobia, podría apresurarnos a descartar por completo su racionalidad. Existen preocupaciones legítimas que las personas albergan sobre el futuro en el que los seres humanos coexistirán con la IA y los robots.

¿A qué le temen realmente?

Viene a la mente «Yo, Robot» y su planteamiento de una rebelión de las máquinas, plausible en cierto sentido. No es extraño que los humanos temamos a robots inteligentes y, de paso, muy fuertes.

Zhada firma que:

«Puede parecer que estás hablando diferentes idiomas con un robot: ¿cómo puede él entender lo que te preocupa y te duele? Y en caso de un mal funcionamiento o falla del sistema de seguridad, ¿no se convertirán en armas de destrucción masiva, muy capaces pero inhumanas?


«En el lado bueno de las cosas, los programadores operan asumiendo que casi todo puede salir mal, implementando una variedad de medidas de seguridad. Desde botones de interruptor de emergencia hasta estándares de limitación de potencia y fuerza, la humanidad ha recorrido un largo camino para garantizar que cada robot sea seguro de usar.»

No obstante, existe un lado positivo en esta compleja relación entre humanos y robots. Los programadores operan bajo la premisa de que prácticamente cualquier cosa puede salir mal, y como resultado, han implementado una serie de medidas de seguridad meticulosas. Desde botones de apagado de emergencia hasta límites cuidadosamente definidos de potencia y fuerza, la humanidad ha avanzado considerablemente para asegurar que cada robot sea seguro de utilizar.

En este contexto, nos adentramos en el miedo a los robots desde un enfoque técnico, considerándolos como máquinas controladas por seres humanos. Sin embargo, surge la pregunta fundamental: ¿pueden las máquinas, al menos en teoría, desarrollar una conciencia plena y reconocer su propia existencia? Esta cuestión resulta intrincada de abordar, dado que los propios humanos tienen una comprensión vaga del significado de la conciencia y la «humanidad». Por lo tanto, desarrollar un código que permita a un robot aprender algo que nosotros mismos no comprendemos completamente se convierte en un desafío complejo.

A pesar de las afirmaciones de algunos expertos, como John R. Searle, quien sostiene que «… una computadora debidamente programada es realmente una mente, en el sentido de que se puede afirmar literalmente que las computadoras que reciben programas adecuados comprenden y tienen estados cognitivos», la mayoría tiende a estar en desacuerdo. En general, la opinión predominante respecto a los robots modernos descarta la idea de que posean conciencia, considerándolos máquinas operadas por humanos en lugar de seres conscientes.

No obstante, el camino hacia la replicación digital completa de un cerebro humano sigue siendo una meta distante. Las redes neuronales más avanzadas en la actualidad siguen siendo cientos de veces más pequeñas que el cerebro humano, según lo indicado por Geoff Hinton, un respetado psicólogo cognitivo y científico informático británico-canadiense.

«Podemos tener una visión clara de lo que nos espera en los próximos años, pero si extendemos nuestra mirada más allá de una década, todo se torna borroso», mencionó en una entrevista con la BBC.

Enfocarnos en las herramientas que tenemos actualmente, aunque poderosas, pero no omnipotentes, diseñadas para asistir a las personas, debería empoderarnos para liderar la innovación tecnológica con confianza y, al menos en parte, disipar las preocupaciones asociadas con la «robofobia».


Foto de los niños bajo Creative Commons License.
 ___________________________________________________________

Verified by MonsterInsights