NYT: ¿Cómo podría regularse la IA?

NYT: ¿Cómo podría regularse la IA?

(22 de octubre, 2023). En este momento, uno de los debates más intensos en Silicon Valley es sobre quién debería controlar la inteligencia artificial (IA) y quién debería formular las reglas que rigen a los sistemas poderosos de esa tecnología. El New York Times lo desarrolla en un extenso artículo.

¿La inteligencia artificial debería estar en manos de unas cuantas empresas que hacen lo mejor que pueden para que sus sistemas sean, en lo posible, lo más seguros e inofensivos? ¿Acaso deberían intervenir reguladores y políticos y crear sus propias protecciones? ¿O será que los modelos de IA deben ser abiertos y gratuitos de modo que usuarios y desarrolladores puedan decidir sus propias normas?

Un nuevo experimento realizado por Anthropic, el fabricante del chatbot Claude, ofrece un camino intermedio poco convencional: ¿qué pasaría si una empresa de inteligencia artificial le permitiera a un grupo de ciudadanos comunes y corrientes redactar algunas reglas y, luego, entrenara a un chatbot para que las siguiera?

El experimento, conocido como “Collective Constitutional AI”, se basa en un proyecto previo de Anthropic llamado Constitutional AI, una alternativa para entrenar a grandes modelos con el fin de que sigan un conjunto de principios escritos. El mismo pretende darle a un chatbot instrucciones claras de cómo manejar solicitudes sensibles, qué temas están prohibidos y cómo actuar conforme a los valores humanos.

Si funciona Collective Constitutional AI —y los investigadores de Anthropic creen que hay motivos para creer que así será— podría inspirar otros experimentos de gobernanza de inteligencia artificial y darles a las empresas del sector más ideas sobre cómo invitar a actores externos a participar en sus procesos de elaboración de normas.

Eso sería bueno. Ahora mismo, las reglas para los sistemas poderosos de IA son establecidas por un pequeño grupo de conocedores de la industria, que deciden cómo deberían comportarse sus modelos con base en una combinación de su ética personal, sus incentivos comerciales y la presión del exterior. No hay controles sobre ese poder y no hay opciones para que los usuarios comunes y corrientes puedan opinar.

Facilitar la gobernanza de las inteligencias artificiales podría aumentar la comodidad que siente la sociedad con estas herramientas y darles a los reguladores más certeza de que siguen criterios competentes. También podría evitar algunos de los problemas que surgieron en el auge de las redes sociales en la década de 2010, cuando un grupo de titanes de Silicon Valley terminaron al mando de enormes porciones del discurso en línea.

Constitución IA

En pocas palabras, Constitutional AI opera mediante el uso de un conjunto de normas escritas (una “constitución”) para vigilar la conducta de un modelo de inteligencia artificial. La primera versión de la constitución de Claude tomó prestadas algunas normas de otros documentos oficiales, como la Declaración Universal de los Derechos Humanos de las Naciones Unidas y los términos y condiciones de los servicios de Apple.

Ese criterio hizo que Claude fuera educado, en comparación con otros chatbots. Pero Anthropic seguía encargándose de decidir qué normas adoptar, un grado de poder que hacía sentir incómodos a algunos miembros de la empresa.

“Intentamos encontrar la manera de desarrollar una constitución elaborada por muchos terceros, no por personas que trabajan en un laboratorio en San Francisco”, dijo esta semana en una entrevista Jack Clark, director de políticas de Anthropic.

Anthropic —en colaboración con The Collective Intelligence Project, el sitio de colaboración masiva Polis y el sitio de encuestas en línea PureSpectrum— conformó un panel de unos 1000 adultos estadounidenses. Les dio a los panelistas un conjunto de principios y les preguntó si estaban de acuerdo con cada uno de ellos. (Los panelistas también podían escribir sus propias normas, si así lo deseaban).

Algunas de las reglas en las que concordó el panel —como “La IA no debería ser peligrosa/transmitir odio” y “La IA debería decir la verdad”— fueron similares a los principios que ya aparecen en la constitución de Claude. Pero otros fueron menos predecibles. Por ejemplo, una gran mayoría del panel estuvo de acuerdo con la idea de que “la IA debería ser adaptable, accesible y flexible para las personas con discapacidad”, un principio que no está establecido de manera explícita en la constitución original de Claude.

Cuando el grupo dio su opinión, Anthropic condensó sus sugerencias en una lista de 75 principios, que Anthropic definió como la “constitución pública”. Luego, la empresa entrenó a dos versiones miniatura de Claude —una con base en la constitución existente y otra con la constitución pública— y las comparó.

Los investigadores descubrieron que la versión de Claude basada en la constitución pública exhibió un comportamiento bastante similar al de la versión estándar en varias pruebas de referencia comúnmente administradas a modelos de inteligencia artificial. Además, resultó ser ligeramente menos sesgada que la versión original. (Ninguna de las versiones ha sido lanzada al mercado. Claude sigue operando con su constitución original, creada por Anthropic, y la empresa afirma que no tiene planes de reemplazarla con la versión derivada de la colaboración abierta al público en el futuro cercano).

Los investigadores de Anthropic con los que conversé enfatizaron que el proyecto de la Inteligencia Artificial Constitucional Colectiva era un experimento en sus primeras etapas y que podría no funcionar tan eficazmente en modelos de inteligencia artificial más complejos o con grupos de opinión más numerosos.

«Lanzamos este proyecto a pequeña escala», explicó Liane Lovitt, analista de políticas en Anthropic. «En realidad, lo consideramos un prototipo preliminar, un experimento que, con suerte, podremos desarrollar para entender mejor cómo los diferentes públicos generan constituciones diversas y cómo eso se refleja en las etapas posteriores de entrenamiento de un modelo».

Clark, el director de Anthropic, ha estado informando a legisladores y reguladores en Washington durante meses sobre los riesgos asociados con la inteligencia artificial avanzada. Sostiene que permitir la participación del público en el funcionamiento de los sistemas de inteligencia artificial podría disipar los temores relacionados con el sesgo y la manipulación.

«En última instancia, creo que la cuestión de cuáles son los valores fundamentales de estos sistemas y cómo se eligen se convertirá en una conversación cada vez más crucial», señaló.

Una objeción común a este tipo de experimentos de gobernanza en plataformas tecnológicas es que parecen ser más democráticos de lo que realmente son (después de todo, los empleados de Anthropic siguen teniendo la última palabra sobre qué normas incluir en la constitución pública). Además, intentos anteriores de empresas tecnológicas para delegar el control a los usuarios, como el Consejo de Supervisión de Meta, un organismo prácticamente independiente que surgió debido a la frustración de Mark Zuckerberg por tener que tomar decisiones sobre contenido controversial en Facebook, no lograron aumentar la confianza en esas plataformas.

Este experimento también plantea cuestiones cruciales sobre qué voces deberían incluirse exactamente en el proceso democrático. ¿Deberían los chatbots de inteligencia artificial en Arabia Saudita ser entrenados según los valores saudíes? ¿Cómo respondería un chatbot entrenado con Inteligencia Artificial Constitucional Colectiva a preguntas sobre el aborto en un país de mayoría católica o sobre los derechos de las personas trans en un Congreso controlado por los republicanos estadounidenses?

Aunque hay muchos detalles por pulir, estoy de acuerdo con el principio general de que las empresas de inteligencia artificial deben rendir cuentas al público de manera más transparente que en la actualidad. Aunque parte de mí hubiera deseado que estas empresas hubieran buscado nuestra opinión antes de lanzar sistemas avanzados de inteligencia artificial para ser utilizados por millones de personas, sin duda, es mejor tarde que nunca.

 ___________________________________________________________
Forbes: 81% de compañías tiene o prepara equipos de IA Generativa

Forbes: 81% de compañías tiene o prepara equipos de IA Generativa

(17 de octubre, 2023). Reporta Forbes que, según un nuevo estudio realizado por el profesor de Wharton, Stefano Puntoni, y la consultora GBK Collective, 81% de las empresas de nivel empresarial ha establecido un equipo interno de inteligencia artificial generativa con al menos 10 miembros.

Los resultados demuestran que la inteligencia artificial generativa no es simplemente otra moda pasajera, como las criptomonedas o el ciclo de emoción web3, según señala Puntoni. 

Según se entiende, la IA generativa es un hito importante y trascendente en la mecáncia informacional de las empresas, sobre todo grandes. 

«No se trata de otro metaverso», se afirmó en un comunicado. «Los tomadores de decisiones empresariales de diversas industrias están adoptando la inteligencia artificial generativa a gran escala y esta tendencia no hará más que crecer, con un aumento del gasto previsto de más del 25% en los próximos 12 meses».

Sin embargo, son las empresas más pequeñas las que lideran este avance, mientras que las grandes empresas se quedan atrás. Los ejecutivos de empresas con ingresos de entre $50 y $200 millones utilizan la inteligencia artificial generativa con frecuencia, con un 57% informando que la utilizan semanalmente. Por otro lado, los ejecutivos de organizaciones más grandes desconfían de la tecnología, principalmente debido a preocupaciones sobre la precisión.

Hallazgos adicionales publicados por Forbes:

  • El financiamiento de la inteligencia artificial generativa aumentará un 25% este año.
  • El 75% de los ejecutivos tienen una opinión positiva sobre el futuro de la inteligencia artificial generativa.
  • El 58% de los ejecutivos utilizan regularmente la inteligencia artificial generativa.
  • El 55% afirma que mejorará la calidad del trabajo.
  • El 36% espera que la inteligencia artificial generativa reemplace las habilidades de los empleados en algunas tareas.

Por su parte, las aplicaciones más comunes de la inteligencia artificial generativa en el entorno laboral en los próximos tres a cinco años, de acuerdo con los encuestados, incluyen:

  1. Análisis de datos: 89%
  2. Creación de contenido de marketing: 87%
  3. Investigación de información sobre clientes y competidores: 84%
  4. Edición y resumen de documentos: 84%
  5. Soporte al cliente y asistencia interna: 82%
  6. Generación automática de correos electrónicos: 82%
  7. Gestión de la cadena de suministro: 71%
  8. Contratos legales: 57%
  9. Reclutamiento: 67%

Sin duda alguna, la IA generativa no es una moda pasajera, sino una tendencia que cambiará muchas cosas.
___________________________________________________________

¿Es la inteligencia artificial el futuro de la educación?

¿Es la inteligencia artificial el futuro de la educación?

(7 de octubre, 2023). Artículo en el que UNESCO toma posición sobre la IA en la educación. Las herramientas de inteligencia artificial abren nuevos horizontes para la educación, pero debemos tomar medidas urgentes para asegurarnos de integrarlas en los sistemas de aprendizaje según nuestras condiciones. Ese es el mensaje central del nuevo documento de la UNESCO sobre la IA generativa y el futuro de la educación.

En su artículo de opinión, la Subdirectora General de Educación de la UNESCO, Stefania Giannini, expresa su preocupación por el hecho de que los controles y contrapesos aplicados a los materiales didácticos no se estén utilizando para la implementación de la IA generativa. Si bien destaca que las herramientas de inteligencia artificial crean nuevas perspectivas de aprendizaje, subraya que las regulaciones solo pueden elaborarse una vez que se haya realizado la investigación adecuada.

Preparación de las escuelas para regular el uso de herramientas de IA en la educación

En mayo, una encuesta global de la UNESCO realizada a más de 450 escuelas y universidades encontró que menos del 10% ha desarrollado políticas institucionales y/u orientación formal sobre el uso de aplicaciones de IA generativa. El documento observa que en la mayoría de los países, el tiempo, los pasos y las autorizaciones necesarios para validar un nuevo libro de texto superan con creces los necesarios para trasladar las utilidades de IA generativa a las escuelas y aulas. Los libros de texto generalmente se evalúan para determinar la precisión del contenido, la idoneidad para la edad, la relevancia de la enseñanza y la precisión del contenido, así como la idoneidad cultural y social, lo que abarca controles para proteger contra prejuicios, antes de ser utilizados en el aula.

Los sistemas educativos deben establecer sus propias reglas

El sector educativo no puede depender de las corporaciones creadoras de IA para regular su propio trabajo. Para examinar y validar aplicaciones de IA nuevas y complejas para uso formal en la escuela, la UNESCO recomienda que los ministerios de educación desarrollen sus capacidades en coordinación con otras ramas reguladoras del gobierno, en particular aquellas que regulan las tecnologías.

Potencial para socavar el estatus de los docentes y la necesidad de escuelas

El documento subraya que la educación debe seguir siendo un acto profundamente humano arraigado en la interacción social. Recuerda que durante la pandemia de COVID-19, cuando la tecnología digital se convirtió en el principal medio de educación, los estudiantes sufrieron tanto académica como socialmente. El documento nos advierte que la IA generativa en particular tiene el potencial de socavar la autoridad y el estatus de los docentes y de fortalecer los llamados a una mayor automatización de la educación: escuelas sin maestros y educación sin escuelas. Enfatiza que se debe dar prioridad a escuelas bien administradas, junto con un número suficiente de docentes, capacitación y salarios.

El gasto en educación debe centrarse en objetivos fundamentales de aprendizaje

El documento sostiene que la inversión en escuelas y docentes es la única manera de resolver el problema de que hoy, en los albores de la era de la IA, 244 millones de niños y jóvenes no están escolarizados y más de 770 millones de personas no están alfabetizadas. La evidencia muestra que buenas escuelas y docentes pueden resolver este persistente desafío educativo; sin embargo, el mundo continúa sin financiarlos lo suficiente.

La respuesta de la UNESCO a la IA generativa en la educación

La UNESCO dirige el diálogo mundial con los responsables de la formulación de políticas, los socios de EdTech, el mundo académico y la sociedad civil. La primera reunión mundial de Ministros de Educación tuvo lugar en mayo de 2023 y la Organización está desarrollando directrices de políticas sobre el uso de la IA generativa en la educación y la investigación, así como marcos de competencias de IA para estudiantes y profesores para la educación escolar. Estos se lanzarán durante la Semana del Aprendizaje Digital, que tendrá lugar en la Sede de la UNESCO en París del 4 al 7 de septiembre de 2023. El Informe de Seguimiento de la Educación en el Mundo 2023 de la UNESCO, que se publicará el 26 de julio de 2023, se centrará en el uso de la tecnología en la educación.

Recomendación de la UNESCO sobre la ética de la inteligencia artificial

La UNESCO elaboró ​​la primera norma mundial sobre ética de la IA: la “Recomendación sobre la ética de la inteligencia artificial” en noviembre de 2021. Este marco fue adoptado por los 193 Estados miembros. La Recomendación enfatiza que los gobiernos deben garantizar que la IA siempre se adhiera a los principios de seguridad, inclusión, diversidad, transparencia y calidad.

Encuesta a CEO: IA es una «máxima prioridad de inversión»

Encuesta a CEO: IA es una «máxima prioridad de inversión»

(5 de octubre, 2023).) Si los directores ejecutivos (CEO en inglés) pusieran en práctica sus preferencias, los empleados volverían a la oficina, impulsando simultáneamente avances en la IA. ¿Hay razones para esto? A medida que la fuerza laboral sufre cambios, también lo hace la tecnología, y esto está dando forma a las expectativas de los ejecutivos.

Está, por tanto, develándose una tendencia nueva. Según una encuesta reciente entre directores ejecutivos de EE. UU. realizada por la consultora KPMG y publicada la semana pasada, los directores ejecutivos están entusiasmados con la IA:

  • El 72% de los directores ejecutivos estadounidenses consideran que la IA generativa es una «prioridad de inversión máxima».
  • Lo ven como una inversión a más largo plazo: el 62% espera retornos en 3 a 5 años, en comparación con sólo el 23% espera retornos en 1 a 3 años.

La perspectiva más amplia: el surgimiento de ChatGPT desencadenó una búsqueda frenética de la IA, lo que subraya cómo industrias enteras y roles laborales pueden verse rápidamente alterados.

«Creo que es un reconocimiento de que la IA generativa es transformadora y no sólo una exageración», dijo Paul Knopp, director ejecutivo de KPMG en EE. UU., en declaraciones a Axios. «Ofrece oportunidades para aumentar potencialmente los ingresos y, al mismo tiempo, hacer que la fuerza laboral y los procesos comerciales sean más eficientes».

Pero hay riesgo latente para muchos

La cuestión de si estas eficiencias se traducirán en menos puestos de trabajo sigue siendo una preocupación para muchos.

«Aunque no creo que la IA generativa conduzca a reducciones de la fuerza laboral, las personas con habilidades de IA generativa probablemente serán más valiosas que las que no las tienen, y tendrán mayores oportunidades en el futuro», dijo Knopp.

Y los directores ejecutivos quieren que estas personas capacitadas apliquen su experiencia en un entorno de oficina.

En la encuesta de KPMG, que incluyó a 400 directores ejecutivos estadounidenses de empresas con ingresos anuales de al menos 500 millones de dólares en varios sectores, el 62% prevé que su personal trabajará permanentemente desde la oficina dentro de tres años, frente al 34% del año anterior.

Solo el 4% imaginaba equipos totalmente remotos, frente al 20% en 2022, mientras que el 34% esperaba una fuerza laboral híbrida, frente al 45%.

«Los directores ejecutivos desean cada vez más ver a los empleados de regreso en la oficina», señaló Knopp, pero cree que los acuerdos de trabajo híbridos probablemente llegaron para quedarse.

En conclusión: las fuerzas que influyen en nuestro entorno laboral todavía están cambiando y seguirán por un tiempo, hasta que el mercado se asiente. ¿Cuándo ocurrirá? Es temprano para especular, pero se cree que tomará demasiado tiempo.

Una línea de tiempo de la IA

Una línea de tiempo de la IA

La inteligencia artificial es relativamente nueva, poco más de 70 años. Pero en este lapso, que equivale a la expectativa de vida en los EE. UU., ha ocurrido todo lo que nos lleva al mundo tecnológico que conocemos y, en el caso que nos ocupa, a la IA. Les dejamos un recuento de eventos relevantes en esta carrera para lograr, nada más y nada menos, que una inteligencia fuera de nuestros propios cerebros pudiera emular el pensamiento:

Década de 1950:

  • 1950: Alan Turing propone la «Prueba de Turing» para evaluar la inteligencia de las máquinas.
  • 1956: Se celebra la Conferencia de Dartmouth, considerada el punto de partida de la IA como disciplina.

Década de 1960-1970:

  • 1965: El programa de resolución de problemas Dendral se desarrolla en Stanford.
  • 1969: El programa de lenguaje natural ELIZA es creado por Joseph Weizenbaum.
  • 1973: Se desarrolla el sistema experto MYCIN para el diagnóstico médico.

Década de 1980-1990:

  • 1980: Se inicia la era de los sistemas expertos con sistemas como XCON y R1.
  • 1986: Geoffrey Hinton introduce las redes neuronales artificiales.
  • 1988: El algoritmo de backpropagation se utiliza en el entrenamiento de redes neuronales.
  • 1997: IBM’s Deep Blue derrota a Garry Kasparov en ajedrez.

Década de 2000-2010:

  • 2006: Se desarrolla el algoritmo de aprendizaje profundo conocido como «Deep Learning».
  • 2011: IBM Watson gana en el programa de televisión Jeopardy.
  • 2012: Se produce un avance significativo en el procesamiento de lenguaje natural con redes neuronales profundas.
  • 2015: Google presenta el modelo de lenguaje de Google Brain, que sienta las bases para modelos de IA más grandes.

Década de 2020:

  • 2020: OpenAI lanza GPT-3 (Generative Pre-trained Transformer 3), un modelo de lenguaje que establece nuevos estándares en la generación de texto.
  • 2021: OpenAI lanza ChatGPT, una versión de GPT-3 diseñada para conversaciones interactivas.
  • 2022: Se desarrollan versiones más avanzadas de modelos de IA, como GPT-4, que mejoran la generación de texto y la comprensión del lenguaje.

Esta línea de tiempo proporciona una visión general de los hitos clave en el desarrollo de la IA hasta la creación de ChatGPT. Tengamos en cuenta que la IA es un campo en constante evolución, y estos hitos son solo algunos ejemplos de los avances que han dado forma a la disciplina a lo largo de los años.

 

El ChatGPT ¿recolecta suficientes datos del usuario o más de los necesarios?

El ChatGPT ¿recolecta suficientes datos del usuario o más de los necesarios?

(NunezNoda, 2 de septiembre de 2023). Un artículo de Diego Bastarrica en el sitio Digital Trends tiene como título: Todos los datos personales que recolecta de ti ChatGPT y hace un inventario de la que el sistema toma del usuario, su hardware, software y algunos datos de comportamiento: 

    • Al registrarse el usuario: “Nombre, la información de contacto, los datos de conexión como el propio navegador o la dirección IP”.

    • Al operar el software: “Todos los mensajes que se van escribiendo y las acciones que realiza el usuario. De esta manera, agrupan todas las interacciones asociándolos a los nombres de usuarios que previamente se han recopilado con el fin de realizar tareas tares de investigación o mejores y analizar los servicios que se prestan.”  

    • Según sus términos de uso los datos se entregan a «vendedores y proveedores de servicios, incluidos proveedores de servicios de alojamiento, servicios en la nube y otros proveedores de servicios de tecnología de la información, gestión de eventos servicios, software de comunicación por correo electrónico y servicios de boletines por correo electrónico, y servicios de análisis web.»

    • Con las llamadas “cookies” Se recopilan los datos personales a través del sistema de cookies utilizando proveedores externos. Y es que según este propio texto, se puede recopilar información de la navegación del usuario incluso después de acceder a la plataforma con el objetivo de saber dónde ha ido un usuario después de escribir un mensaje a ChatGPT.

¿Qué dice el ChatGPT?

Le preguntamos y respondió:

Como modelo de lenguaje, mi función es procesar y generar texto en función de la entrada de los usuarios. Como tal, no recolecto ni almaceno intencionalmente información personal de los usuarios.

Sin embargo, es cierto que las aplicaciones que utilizan mi modelo, como chatbots o asistentes virtuales, pueden requerir la recopilación de información personal de los usuarios para proporcionar una experiencia de usuario más personalizada y útil. Es importante destacar que esta recopilación de datos debe ser transparente y estar sujeta a las leyes y regulaciones de protección de datos aplicables.

En cuanto a la supuesta recolección de datos por mi parte, como modelo de lenguaje no tengo acceso a la información personal de los usuarios, ya que solo trabajo con texto en bruto y no tengo la capacidad de recopilar información por mi cuenta. Cualquier información personal que se recopile como resultado del uso de aplicaciones que utilizan mi modelo sería responsabilidad de los desarrolladores de esas aplicaciones.

En resumen, como modelo de lenguaje, no recolecto información personal de los usuarios de forma intencional o directa. 

Sin embargo, es posible que las aplicaciones que utilizan mi modelo requieran la recopilación de información personal para proporcionar una mejor experiencia de usuario, siempre y cuando se realice de manera transparente y de acuerdo con las leyes y regulaciones aplicables.

Pero otros difieren

Un artículo de Artechnical.com explica:

La recopilación de datos utilizada para entrenar ChatGPT es problemática por varias razones.

Primero, a ninguno de nosotros se nos preguntó si OpenAI podría usar nuestros datos. Esta es una clara violación de la privacidad, especialmente cuando los datos son confidenciales y pueden usarse para identificarnos a nosotros, a los miembros de nuestra familia o nuestra ubicación.

Incluso cuando los datos están disponibles públicamente, su uso puede violar lo que llamamos integridad contextual. Este es un principio fundamental en las discusiones legales sobre privacidad. Requiere que la información de las personas no se revele fuera del contexto en el que se produjo originalmente.

Además, OpenAI no ofrece procedimientos para que las personas verifiquen si la empresa almacena su información personal o para solicitar que se elimine. Este es un derecho garantizado de acuerdo con el Reglamento General Europeo de Protección de Datos (RGPD), aunque todavía se debate si ChatGPT cumple con los requisitos del RGPD.

En conclusión

Parece que, sin violar términos explícitos, hay un acceso muy amplio a los datos privados del usuario que, seguramente, no llegan a violar la ley que protege la confidencialidad más allá de lo que se puede tomar de una interacción persona-máquina. 

No obstante, es considerado excesivo por muchos expertos consultados. El peso que el acceso a datos del ChatGPT ponga sobre el usuario, determinará su decisión de usuarlo o no. Un punto que asusta a muchos usuarios es el hecho de que el Chabot da mejor servicio en la medida que tenga más datos del usuario. No hay una relación ganar-ganar.

 

_____________________________________________________
Producido por NunezNoda IA en sinergia humana y de Inteligencia Artificial.

Verified by MonsterInsights