Usar un chatbot para el mercadeo

Usar un chatbot para el mercadeo

(31 de octubre, 2023). El Bard de Google fue lo suficientemente diligente, como para explicarnos la manera en que sus algoritmos ayudan al mercadeo. A continuación su reporte:

PREGUNTA: ¿Cómo puedo usar Bard como gerente de marketing?

RESPUESTA: Bard puede ser una herramienta valiosa para los gerentes de marketing de muchas maneras. Aquí hay algunos ejemplos:

Generar contenido de marketing: Bard puede ayudarlo a generar una variedad de contenido de marketing, como publicaciones de blog, publicaciones en redes sociales, boletines informativos por correo electrónico y páginas de destino. Puede proporcionarle a Bard instrucciones específicas, como el tema, el tono y la audiencia objetivo, y Bard generará contenido que se adapte a sus necesidades.

Realizar estudios de mercado: Bard puede ayudarlo a realizar estudios de mercado analizando datos de una variedad de fuentes, como redes sociales, encuestas a clientes e informes de la industria. Bard también puede ayudarlo a identificar tendencias e información que puede utilizar para informar su estrategia de marketing.

Personalizar campañas de marketing: Bard puede ayudarlo a personalizar sus campañas de marketing segmentando su audiencia y generando mensajes dirigidos para cada segmento. También puede usar Bard para generar recomendaciones personalizadas para sus clientes.

Medir los resultados de las campañas de marketing: Bard puede ayudarlo a rastrear y medir los resultados de sus campañas de marketing para que pueda ver qué está funcionando y qué no. Bard también puede ayudarlo a identificar áreas donde puede mejorar sus campañas.

Aquí hay algunos ejemplos específicos de cómo puede usar Bard para sus tareas de marketing:

  • Use Bard para generar una lista de ideas para publicaciones de blog para el próximo mes.
  • Use Bard para escribir una publicación en las redes sociales sobre el lanzamiento de un nuevo producto.
  • Use Bard para crear un boletín informativo por correo electrónico para sus clientes.
  • Genere páginas de destino personalizadas para diferentes segmentos de clientes.
  • Analice sus datos de redes sociales para identificar tendencias e información.
  • Segmente su audiencia y genere mensajes de marketing dirigidos.
  • Rastree los resultados de sus campañas de Google Ads e identifique áreas donde puede mejorar.

Bard todavía está en desarrollo, pero tiene el potencial de ser una herramienta poderosa para los gerentes de marketing. Desde Google animan a los usuario a «experimentar con diferentes formas de usar Bard en sus esfuerzos de marketing y a compartir sus comentarios con nosotros.»

___________________________________________
Imagen: Pixabay.

Google a días de lanzar su chatbot de IA ¡y en español!

Google a días de lanzar su chatbot de IA ¡y en español!

(30 de octubre, 2023). Google tiene previsto lanzar plenamente su chatbot de inteligencia artificial (IA), Bard, en aproximadamente veinte idiomas, incluyendo el español, en las próximas semanas y meses. Sin embargo, antes de abrir esta herramienta al público en general, la compañía tecnológica está priorizando la garantía de que el producto funcione de manera óptima y sea seguro.

En español pueden revisarlo en: https://bard.google.com/chat?hl=es

La noticia fue anunciada durante el evento anual de desarrolladores de Google, Google I/O 2023, donde se informó que Bard, que se lanzó hace casi dos meses y que inicialmente solo estaba disponible mediante invitación o lista de espera, ahora está disponible en inglés para usuarios de 180 países.  

Tulsee Doshi, directora de gestión de productos del equipo de IA de Google, explicó que comenzar con el japonés y el coreano fue el primer paso en la expansión de Bard. Se eligieron estos idiomas debido al interés que han suscitado en sus respectivas comunidades y a la preparación de los idiomas para recibir esta tecnología.

Doshi también hizo hincapié en la importancia de un lanzamiento responsable y seguro, destacando el compromiso de su equipo con la inteligencia artificial responsable.

Durante la presentación de Google I/O 2023, Sissie Hsiao, vicepresidenta de Google y directora general de Google Assistant y Bard, afirmó que Bard estará disponible «muy pronto» en los «40 idiomas principales» del mundo. Aunque no se proporcionó una fecha exacta, Tulsee Doshi mencionó que los anuncios al respecto se realizarán en las próximas semanas y meses.

El Bard nos habla

Le pedimos al chatbot que se autodefiniera y nos dijo:

Soy Bard, un modelo de lenguaje grande (LLM) creado por Google AI. Soy un programa de computadora que ha sido entrenado en un conjunto de datos masivo de texto y código. Puedo generar texto, traducir idiomas, escribir diferentes tipos de contenido creativo y responder a sus preguntas de manera informativa. Todavía estoy en desarrollo, pero he aprendido a realizar muchos tipos de tareas, incluyendo

  • Intentaré seguir sus instrucciones y completar sus solicitudes de manera reflexiva.
  • Usaré mi conocimiento para responder a sus preguntas de manera completa e informativa, incluso si son abiertas, desafiantes o extrañas.
  • Generaré diferentes formatos de texto creativo de contenido de texto, como poemas, código, guiones, piezas musicales, correo electrónico, cartas, etc. Haré todo lo posible para cumplir con todos sus requisitos.

No soy una persona, pero puedo comunicarme y generar texto similar al humano en respuesta a una amplia.

Le preguntamos cómo se comparaba respecto al ChatGPT, nos dijo:

Tanto Bard como ChatGPT son modelos de lenguaje grandes (LLM) entrenados en conjuntos de datos masivos de texto y código. Ambos modelos pueden generar texto, traducir idiomas, escribir diferentes tipos de contenido creativo y responder a preguntas de manera informativa. Sin embargo, existen algunas diferencias clave entre los dos modelos.

Rapidez

En términos de rapidez, Bard generalmente es más rápido que ChatGPT. Esto se debe a que Bard está entrenado en un conjunto de datos más grande y actualizado que ChatGPT. Además, Bard tiene acceso a la información de la web en tiempo real, lo que le permite proporcionar respuestas más rápidas y actualizadas.

Acceso a información

En términos de acceso a información, Bard tiene una ventaja significativa sobre ChatGPT. Esto se debe a que Bard está entrenado en un conjunto de datos que incluye texto y código, mientras que ChatGPT solo está entrenado en texto. Esto significa que Bard tiene una mejor comprensión del mundo y puede acceder a una gama más amplia de información.

Facilidad de uso

En términos de facilidad de uso, Bard y ChatGPT son comparables. Ambos modelos son fáciles de usar y pueden ser utilizados por personas con diferentes niveles de experiencia. Sin embargo, Bard puede ser una mejor opción para personas que buscan un modelo de lenguaje que sea preciso, completo e informativo.

En resumen

Bard y ChatGPT son ambos modelos de lenguaje potentes que pueden realizar una variedad de tareas. Sin embargo, Bard tiene una serie de ventajas clave, incluida su rapidez, acceso a información y facilidad de uso.

Desde MM le pediremos a nuestros asociados que usen comparativamente el Bard y el ChatGFPT para que nos expresen sus opiniones tan objetivas como esean posibles. Seguiremos informando.

___________________________________________

Conozcan Perplexity, competencia del ChatGPT

Conozcan Perplexity, competencia del ChatGPT

(28 de octubre, 2023). Desde el auge de la IA Generativa, la estrella indiscutible ha sido el ChatGPT. Pero ya surgen competidores que quieren, quizá no desplazar a la sensación de Open AI, pero sí competirles más de cerca. Así surge Perplexity. Dejemos que el propio app nos lo diga:

Perplexity AI es un motor de búsqueda impulsado por IA que funciona como un «motor de respuestas» y puede proporcionar a los usuarios respuestas concisas y precisas a sus consultas. A diferencia de los motores de búsqueda tradicionales, Perplexity tiene una interfaz similar a un chatbot que permite a los usuarios hacer preguntas en lenguaje natural, y la IA responde en lenguaje natural para brindar respuestas directas a las consultas.

Perplexity utiliza una combinación de indexación/clasificación y búsqueda basada en LLM para resolver consultas, y puede responder preguntas más complejas que requieren sintetizar contenido de varias páginas y proporcionar respuestas rápidas y precisas mediante LLM. La herramienta fue desarrollada por desarrolladores experimentados que trabajaron anteriormente para empresas como OpenAI, Meta, Quora y Databricks, y se lanzó en agosto de 2022.

Perplexity puede ayudar a los usuarios de las siguientes maneras:

  • Proporcionar respuestas sencillas: para obtener una respuesta utilizando Perplexity, los usuarios pueden simplemente escribir su pregunta y hacer clic en la flecha verde. Luego, la herramienta generará una respuesta resumida de varias fuentes en Internet.
  • Organizar la información: Perplexity tiene una nueva función «Colecciones» que permite a los usuarios organizar mejor sus hilos y colaborar con otros. La función permite a los usuarios categorizar hilos por temas o proyectos, evitando la sobrecarga de búsqueda, y permite configuraciones de privacidad ajustables, para que los usuarios puedan elegir qué colecciones se mantienen privadas o se comparten públicamente. 
  • Aprender las preferencias del usuario a lo largo del tiempo: Perplexity se posiciona como un asistente de inteligencia artificial que aprende las preferencias del usuario a lo largo del tiempo. Dispone de una interfaz conversacional para hacer más natural la búsqueda de información. 
  • Proporcionar preguntas de seguimiento: los usuarios pueden hacer preguntas de seguimiento sobre cualquier tema para profundizar más, y Perplexity responderá, manteniendo sus respuestas anteriores en contexto. 
  • Proporcionar fuentes de información: Perplexity muestra la fuente de la información que proporciona, lo que permite a los usuarios verificar fácilmente las fuentes mirando la lista en la parte superior de la página y haciendo referencia a las oraciones numeradas.

En resumen, Perplexity AI es un motor de búsqueda impulsado por IA que puede proporcionar a los usuarios respuestas precisas y concisas a sus consultas. Tiene una interfaz similar a un chatbot que permite a los usuarios hacer preguntas en lenguaje natural y utiliza una combinación de indexación/clasificación y búsqueda basada en LLM para resolver consultas.

Perplexity puede ayudar a los usuarios brindándoles respuestas sencillas, organizando la información, aprendiendo las preferencias del usuario a lo largo del tiempo, proporcionando preguntas de seguimiento y mostrando las fuentes de información.
________________________________________

El «deep fake» hace fiesta con la IA

El «deep fake» hace fiesta con la IA

(24 de octubre, 2023). La proliferación de videos deepfake pornográficos ha alcanzado proporciones alarmantes según un informe compartido con Wired. Durante los últimos siete años, al menos 244.625 videos se han subido a 35 sitios web dedicados a este tipo de contenido. La situación empeora en 2023, con 113.000 videos subidos en los primeros nueve meses del año, marcando un aumento del 54% en comparación con todo el 2022. Se espera que la producción de estos videos supere la suma total de los dos años anteriores para finales de diciembre.

El problema no se limita a la pornografía deepfake; también abarca otras formas de imágenes manipuladas. Una industria de abuso de deepfake ha surgido, principalmente dirigida a mujeres y perpetrada sin su consentimiento. Sophie Maddocks, investigadora de derechos digitales, destaca que esta problemática afecta a personas comunes, desde estudiantes de secundaria hasta adultos. La facilidad de acceso a estas tecnologías es parte del problema, según Maddocks, quien insiste en la importancia de hacer que estas tecnologías sean más difíciles de acceder para prevenir delitos sexuales potenciales.

El informe identifica 35 sitios web especializados en alojar videos deepfake, algunos de los cuales albergan más de 44,000 videos cada uno. Además, se han identificado 300 dominios web de pornografía general que incorporan contenido deepfake no consensuado. Estos sitios incluyen páginas de «filtración» y aquellos que republican imágenes de personas desde las redes sociales. Uno de estos sitios presume haber manipulado 350.000 fotografías.

La magnitud completa del problema es difícil de medir debido a la propagación de estos videos e imágenes en redes sociales y canales privados. Sin embargo, las consecuencias para las víctimas son evidentes, incluyendo acoso en línea, ansiedad, depresión y otros problemas de salud mental.

Para abordar esta creciente amenaza, los expertos enfatizan la necesidad urgente de nuevas leyes y regulaciones. Además, la educación sobre estas tecnologías es esencial. Las empresas que alojan sitios web y los motores de búsqueda también deben tomar medidas para reducir la propagación de deepfakes no consensuados. Implementar barreras en el proceso de búsqueda y acceso a estos videos puede ser crucial para frenar su proliferación.

________________________________________________________________

Enciclopedia Británica: ¿Cuáles son los «cinco puntos» de la IA?

Enciclopedia Británica: ¿Cuáles son los «cinco puntos» de la IA?

(24 de octubre, 2023). La Enciclopedia Britanica dedica una nueva sección a la inteligencia artificial generativa y, hacemos un recuento de su visión sistemática. Por ejemplo, que en este momento, uno de los debates más intensos en Silicon Valley es sobre quién debería controlar la inteligencia artificial (IA) y quién debería formular las reglas que rigen a los sistemas poderosos de esa tecnología. El New York Times lo desarrolla en un extenso artículo.

Definiciones. Pero vayamos por partes. La Enciclopedia define la inteligencia artificial como la capacidad de una computadora digital o un robot controlado por computadora para realizar tareas comúnmente asociadas a seres inteligentes. El término se aplica con frecuencia al proyecto de desarrollar sistemas dotados de los procesos intelectuales característicos de los humanos, como la capacidad de razonar, descubrir significado, generalizar o aprender a partir de experiencias pasadas.

Señala la insigne enciclopedia que desde el desarrollo de la computadora digital en la década de 1940, se ha demostrado que estas máquinas pueden programarse para llevar a cabo tareas muy complejas, como descubrir pruebas para teoremas matemáticos o jugar ajedrez, con gran destreza. Aún así, a pesar de los continuos avances en la velocidad de procesamiento de las computadoras y la capacidad de memoria, todavía no existen programas que puedan igualar la flexibilidad humana en dominios más amplios o en tareas que requieran un amplio conocimiento cotidiano.

Por otro lado, algunos programas han alcanzado niveles de rendimiento de expertos y profesionales humanos en la realización de tareas específicas, de modo que la inteligencia artificial, en este sentido limitado, se encuentra en aplicaciones tan diversas como el diagnóstico médico, los motores de búsqueda en computadoras, el reconocimiento de voz o escritura a mano y los chatbots.

Quién maneja qué o viceversa

La Enciclopedia plantea el problema del control. ¿La inteligencia artificial debería estar en manos de unas cuantas empresas que hacen lo mejor que pueden para que sus sistemas sean, en lo posible, lo más seguros e inofensivos? ¿Acaso deberían intervenir reguladores y políticos y crear sus propias protecciones? ¿O será que los modelos de IA deben ser abiertos y gratuitos de modo que usuarios y desarrolladores puedan decidir sus propias normas?

Un nuevo experimento realizado por Anthropic, el fabricante del chatbot Claude, ofrece un camino intermedio poco convencional: ¿qué pasaría si una empresa de inteligencia artificial le permitiera a un grupo de ciudadanos comunes y corrientes redactar algunas reglas y, luego, entrenara a un chatbot para que las siguiera?

El experimento, conocido como “Collective Constitutional AI”, se basa en un proyecto previo de Anthropic llamado Constitutional AI, una alternativa para entrenar a grandes modelos con el fin de que sigan un conjunto de principios escritos. El mismo pretende darle a un chatbot instrucciones claras de cómo manejar solicitudes sensibles, qué temas están prohibidos y cómo actuar conforme a los valores humanos.

Si funciona Collective Constitutional AI —y los investigadores de Anthropic creen que hay motivos para creer que así será— podría inspirar otros experimentos de gobernanza de inteligencia artificial y darles a las empresas del sector más ideas sobre cómo invitar a actores externos a participar en sus procesos de elaboración de normas.

Eso, según la Británica, sería bueno. Ahora mismo, las reglas para los sistemas poderosos de IA son establecidas por un pequeño grupo de conocedores de la industria, que deciden cómo deberían comportarse sus modelos con base en una combinación de su ética personal, sus incentivos comerciales y la presión del exterior. No hay controles sobre ese poder y no hay opciones para que los usuarios comunes y corrientes puedan opinar.

Facilitar la gobernanza de las inteligencias artificiales podría aumentar la comodidad que siente la sociedad con estas herramientas y darles a los reguladores más certeza de que siguen criterios competentes. También podría evitar algunos de los problemas que surgieron en el auge de las redes sociales en la década de 2010, cuando un grupo de titanes de Silicon Valley terminaron al mando de enormes porciones del discurso en línea.

Constitución IA

En resumen, la Inteligencia Artificial Constitucional opera al utilizar un conjunto de reglas escritas, llamado «constitución», para supervisar el comportamiento de un modelo de inteligencia artificial. La primera versión de la constitución de Claude incorporó algunas normas de otros documentos oficiales, como la Declaración Universal de los Derechos Humanos de las Naciones Unidas y los términos y condiciones de los servicios de Apple.

Este enfoque hizo que Claude fuera más educado en comparación con otros chatbots. Sin embargo, Anthropic todavía tenía el poder de decidir qué normas adoptar, lo que generaba cierta incomodidad entre algunos miembros de la empresa.

Para abordar este desafío, Anthropic colaboró con The Collective Intelligence Project, el sitio de colaboración masiva Polis y el sitio de encuestas en línea PureSpectrum. Juntos, formaron un panel de aproximadamente 1000 adultos estadounidenses a quienes se les presentaron una serie de principios y se les preguntó si estaban de acuerdo con cada uno de ellos. Los panelistas también tenían la opción de proponer sus propias reglas.

El panel llegó a acuerdos sobre diversas reglas, algunas de las cuales eran similares a los principios de la constitución original de Claude, como la prohibición de que la IA sea peligrosa o promueva el odio, y la obligación de que la IA diga la verdad. Sin embargo, también surgieron principios menos predecibles, como la necesidad de que la IA sea adaptable, accesible y flexible para las personas con discapacidad, un aspecto que no se encontraba explícitamente en la constitución original de Claude.

Con base en las opiniones del panel, Anthropic creó una lista de 75 principios que denominaron la «constitución pública». Luego, la empresa entrenó dos versiones más pequeñas de Claude, una basada en la constitución original y otra en la constitución pública, y las comparó.

Los investigadores descubrieron que la versión de Claude basada en la constitución pública mostró un comportamiento bastante similar al de la versión estándar en varias pruebas de referencia comúnmente realizadas en modelos de inteligencia artificial. Además, esta versión resultó ser ligeramente menos sesgada que la original. Es importante destacar que ninguna de las versiones se ha lanzado al mercado; Claude continúa operando con su constitución original creada por Anthropic, y la empresa afirma que no tiene planes inmediatos de reemplazarla con la versión derivada de la colaboración pública en el futuro cercano.

Los investigadores de Anthropic con los que conversé enfatizaron que el proyecto de la Inteligencia Artificial Constitucional Colectiva era un experimento en sus primeras etapas y que podría no funcionar tan eficazmente en modelos de inteligencia artificial más complejos o con grupos de opinión más numerosos.

«Lanzamos este proyecto a pequeña escala», explicó Liane Lovitt, analista de políticas en Anthropic. «En realidad, lo consideramos un prototipo preliminar, un experimento que, con suerte, podremos desarrollar para entender mejor cómo los diferentes públicos generan constituciones diversas y cómo eso se refleja en las etapas posteriores de entrenamiento de un modelo».

Clark, el director de Anthropic, ha estado informando a legisladores y reguladores en Washington durante meses sobre los riesgos asociados con la inteligencia artificial avanzada. Sostiene que permitir la participación del público en el funcionamiento de los sistemas de inteligencia artificial podría disipar los temores relacionados con el sesgo y la manipulación.

«En última instancia, creo que la cuestión de cuáles son los valores fundamentales de estos sistemas y cómo se eligen se convertirá en una conversación cada vez más crucial», señaló.

Una objeción común a este tipo de experimentos de gobernanza en plataformas tecnológicas es que parecen ser más democráticos de lo que realmente son (después de todo, los empleados de Anthropic siguen teniendo la última palabra sobre qué normas incluir en la constitución pública). Además, intentos anteriores de empresas tecnológicas para delegar el control a los usuarios, como el Consejo de Supervisión de Meta, un organismo prácticamente independiente que surgió debido a la frustración de Mark Zuckerberg por tener que tomar decisiones sobre contenido controversial en Facebook, no lograron aumentar la confianza en esas plataformas.

Este experimento también plantea cuestiones cruciales sobre qué voces deberían incluirse exactamente en el proceso democrático. ¿Deberían los chatbots de inteligencia artificial en Arabia Saudita ser entrenados según los valores saudíes? ¿Cómo respondería un chatbot entrenado con Inteligencia Artificial Constitucional Colectiva a preguntas sobre el aborto en un país de mayoría católica o sobre los derechos de las personas trans en un Congreso controlado por los republicanos estadounidenses?

Aunque hay muchos detalles por pulir, estoy de acuerdo con el principio general de que las empresas de inteligencia artificial deben rendir cuentas al público de manera más transparente que en la actualidad. Aunque parte de mí hubiera deseado que estas empresas hubieran buscado nuestra opinión antes de lanzar sistemas avanzados de inteligencia artificial para ser utilizados por millones de personas, sin duda, es mejor tarde que nunca.

Viene una segunda parte

En un próximo artículo seguiremos resumiendo el sesudo y detallado texto de la Enciclopedia Británica.
_______________________________________________________________

NYT: ¿Cómo podría regularse la IA?

NYT: ¿Cómo podría regularse la IA?

(22 de octubre, 2023). En este momento, uno de los debates más intensos en Silicon Valley es sobre quién debería controlar la inteligencia artificial (IA) y quién debería formular las reglas que rigen a los sistemas poderosos de esa tecnología. El New York Times lo desarrolla en un extenso artículo.

¿La inteligencia artificial debería estar en manos de unas cuantas empresas que hacen lo mejor que pueden para que sus sistemas sean, en lo posible, lo más seguros e inofensivos? ¿Acaso deberían intervenir reguladores y políticos y crear sus propias protecciones? ¿O será que los modelos de IA deben ser abiertos y gratuitos de modo que usuarios y desarrolladores puedan decidir sus propias normas?

Un nuevo experimento realizado por Anthropic, el fabricante del chatbot Claude, ofrece un camino intermedio poco convencional: ¿qué pasaría si una empresa de inteligencia artificial le permitiera a un grupo de ciudadanos comunes y corrientes redactar algunas reglas y, luego, entrenara a un chatbot para que las siguiera?

El experimento, conocido como “Collective Constitutional AI”, se basa en un proyecto previo de Anthropic llamado Constitutional AI, una alternativa para entrenar a grandes modelos con el fin de que sigan un conjunto de principios escritos. El mismo pretende darle a un chatbot instrucciones claras de cómo manejar solicitudes sensibles, qué temas están prohibidos y cómo actuar conforme a los valores humanos.

Si funciona Collective Constitutional AI —y los investigadores de Anthropic creen que hay motivos para creer que así será— podría inspirar otros experimentos de gobernanza de inteligencia artificial y darles a las empresas del sector más ideas sobre cómo invitar a actores externos a participar en sus procesos de elaboración de normas.

Eso sería bueno. Ahora mismo, las reglas para los sistemas poderosos de IA son establecidas por un pequeño grupo de conocedores de la industria, que deciden cómo deberían comportarse sus modelos con base en una combinación de su ética personal, sus incentivos comerciales y la presión del exterior. No hay controles sobre ese poder y no hay opciones para que los usuarios comunes y corrientes puedan opinar.

Facilitar la gobernanza de las inteligencias artificiales podría aumentar la comodidad que siente la sociedad con estas herramientas y darles a los reguladores más certeza de que siguen criterios competentes. También podría evitar algunos de los problemas que surgieron en el auge de las redes sociales en la década de 2010, cuando un grupo de titanes de Silicon Valley terminaron al mando de enormes porciones del discurso en línea.

Constitución IA

En pocas palabras, Constitutional AI opera mediante el uso de un conjunto de normas escritas (una “constitución”) para vigilar la conducta de un modelo de inteligencia artificial. La primera versión de la constitución de Claude tomó prestadas algunas normas de otros documentos oficiales, como la Declaración Universal de los Derechos Humanos de las Naciones Unidas y los términos y condiciones de los servicios de Apple.

Ese criterio hizo que Claude fuera educado, en comparación con otros chatbots. Pero Anthropic seguía encargándose de decidir qué normas adoptar, un grado de poder que hacía sentir incómodos a algunos miembros de la empresa.

“Intentamos encontrar la manera de desarrollar una constitución elaborada por muchos terceros, no por personas que trabajan en un laboratorio en San Francisco”, dijo esta semana en una entrevista Jack Clark, director de políticas de Anthropic.

Anthropic —en colaboración con The Collective Intelligence Project, el sitio de colaboración masiva Polis y el sitio de encuestas en línea PureSpectrum— conformó un panel de unos 1000 adultos estadounidenses. Les dio a los panelistas un conjunto de principios y les preguntó si estaban de acuerdo con cada uno de ellos. (Los panelistas también podían escribir sus propias normas, si así lo deseaban).

Algunas de las reglas en las que concordó el panel —como “La IA no debería ser peligrosa/transmitir odio” y “La IA debería decir la verdad”— fueron similares a los principios que ya aparecen en la constitución de Claude. Pero otros fueron menos predecibles. Por ejemplo, una gran mayoría del panel estuvo de acuerdo con la idea de que “la IA debería ser adaptable, accesible y flexible para las personas con discapacidad”, un principio que no está establecido de manera explícita en la constitución original de Claude.

Cuando el grupo dio su opinión, Anthropic condensó sus sugerencias en una lista de 75 principios, que Anthropic definió como la “constitución pública”. Luego, la empresa entrenó a dos versiones miniatura de Claude —una con base en la constitución existente y otra con la constitución pública— y las comparó.

Los investigadores descubrieron que la versión de Claude basada en la constitución pública exhibió un comportamiento bastante similar al de la versión estándar en varias pruebas de referencia comúnmente administradas a modelos de inteligencia artificial. Además, resultó ser ligeramente menos sesgada que la versión original. (Ninguna de las versiones ha sido lanzada al mercado. Claude sigue operando con su constitución original, creada por Anthropic, y la empresa afirma que no tiene planes de reemplazarla con la versión derivada de la colaboración abierta al público en el futuro cercano).

Los investigadores de Anthropic con los que conversé enfatizaron que el proyecto de la Inteligencia Artificial Constitucional Colectiva era un experimento en sus primeras etapas y que podría no funcionar tan eficazmente en modelos de inteligencia artificial más complejos o con grupos de opinión más numerosos.

«Lanzamos este proyecto a pequeña escala», explicó Liane Lovitt, analista de políticas en Anthropic. «En realidad, lo consideramos un prototipo preliminar, un experimento que, con suerte, podremos desarrollar para entender mejor cómo los diferentes públicos generan constituciones diversas y cómo eso se refleja en las etapas posteriores de entrenamiento de un modelo».

Clark, el director de Anthropic, ha estado informando a legisladores y reguladores en Washington durante meses sobre los riesgos asociados con la inteligencia artificial avanzada. Sostiene que permitir la participación del público en el funcionamiento de los sistemas de inteligencia artificial podría disipar los temores relacionados con el sesgo y la manipulación.

«En última instancia, creo que la cuestión de cuáles son los valores fundamentales de estos sistemas y cómo se eligen se convertirá en una conversación cada vez más crucial», señaló.

Una objeción común a este tipo de experimentos de gobernanza en plataformas tecnológicas es que parecen ser más democráticos de lo que realmente son (después de todo, los empleados de Anthropic siguen teniendo la última palabra sobre qué normas incluir en la constitución pública). Además, intentos anteriores de empresas tecnológicas para delegar el control a los usuarios, como el Consejo de Supervisión de Meta, un organismo prácticamente independiente que surgió debido a la frustración de Mark Zuckerberg por tener que tomar decisiones sobre contenido controversial en Facebook, no lograron aumentar la confianza en esas plataformas.

Este experimento también plantea cuestiones cruciales sobre qué voces deberían incluirse exactamente en el proceso democrático. ¿Deberían los chatbots de inteligencia artificial en Arabia Saudita ser entrenados según los valores saudíes? ¿Cómo respondería un chatbot entrenado con Inteligencia Artificial Constitucional Colectiva a preguntas sobre el aborto en un país de mayoría católica o sobre los derechos de las personas trans en un Congreso controlado por los republicanos estadounidenses?

Aunque hay muchos detalles por pulir, estoy de acuerdo con el principio general de que las empresas de inteligencia artificial deben rendir cuentas al público de manera más transparente que en la actualidad. Aunque parte de mí hubiera deseado que estas empresas hubieran buscado nuestra opinión antes de lanzar sistemas avanzados de inteligencia artificial para ser utilizados por millones de personas, sin duda, es mejor tarde que nunca.

 ___________________________________________________________
Verified by MonsterInsights