Enciclopedia Británica: ¿Cuáles son los «cinco puntos» de la IA?

Enciclopedia Británica: ¿Cuáles son los «cinco puntos» de la IA?

(24 de octubre, 2023). La Enciclopedia Britanica dedica una nueva sección a la inteligencia artificial generativa y, hacemos un recuento de su visión sistemática. Por ejemplo, que en este momento, uno de los debates más intensos en Silicon Valley es sobre quién debería controlar la inteligencia artificial (IA) y quién debería formular las reglas que rigen a los sistemas poderosos de esa tecnología. El New York Times lo desarrolla en un extenso artículo.

Definiciones. Pero vayamos por partes. La Enciclopedia define la inteligencia artificial como la capacidad de una computadora digital o un robot controlado por computadora para realizar tareas comúnmente asociadas a seres inteligentes. El término se aplica con frecuencia al proyecto de desarrollar sistemas dotados de los procesos intelectuales característicos de los humanos, como la capacidad de razonar, descubrir significado, generalizar o aprender a partir de experiencias pasadas.

Señala la insigne enciclopedia que desde el desarrollo de la computadora digital en la década de 1940, se ha demostrado que estas máquinas pueden programarse para llevar a cabo tareas muy complejas, como descubrir pruebas para teoremas matemáticos o jugar ajedrez, con gran destreza. Aún así, a pesar de los continuos avances en la velocidad de procesamiento de las computadoras y la capacidad de memoria, todavía no existen programas que puedan igualar la flexibilidad humana en dominios más amplios o en tareas que requieran un amplio conocimiento cotidiano.

Por otro lado, algunos programas han alcanzado niveles de rendimiento de expertos y profesionales humanos en la realización de tareas específicas, de modo que la inteligencia artificial, en este sentido limitado, se encuentra en aplicaciones tan diversas como el diagnóstico médico, los motores de búsqueda en computadoras, el reconocimiento de voz o escritura a mano y los chatbots.

Quién maneja qué o viceversa

La Enciclopedia plantea el problema del control. ¿La inteligencia artificial debería estar en manos de unas cuantas empresas que hacen lo mejor que pueden para que sus sistemas sean, en lo posible, lo más seguros e inofensivos? ¿Acaso deberían intervenir reguladores y políticos y crear sus propias protecciones? ¿O será que los modelos de IA deben ser abiertos y gratuitos de modo que usuarios y desarrolladores puedan decidir sus propias normas?

Un nuevo experimento realizado por Anthropic, el fabricante del chatbot Claude, ofrece un camino intermedio poco convencional: ¿qué pasaría si una empresa de inteligencia artificial le permitiera a un grupo de ciudadanos comunes y corrientes redactar algunas reglas y, luego, entrenara a un chatbot para que las siguiera?

El experimento, conocido como “Collective Constitutional AI”, se basa en un proyecto previo de Anthropic llamado Constitutional AI, una alternativa para entrenar a grandes modelos con el fin de que sigan un conjunto de principios escritos. El mismo pretende darle a un chatbot instrucciones claras de cómo manejar solicitudes sensibles, qué temas están prohibidos y cómo actuar conforme a los valores humanos.

Si funciona Collective Constitutional AI —y los investigadores de Anthropic creen que hay motivos para creer que así será— podría inspirar otros experimentos de gobernanza de inteligencia artificial y darles a las empresas del sector más ideas sobre cómo invitar a actores externos a participar en sus procesos de elaboración de normas.

Eso, según la Británica, sería bueno. Ahora mismo, las reglas para los sistemas poderosos de IA son establecidas por un pequeño grupo de conocedores de la industria, que deciden cómo deberían comportarse sus modelos con base en una combinación de su ética personal, sus incentivos comerciales y la presión del exterior. No hay controles sobre ese poder y no hay opciones para que los usuarios comunes y corrientes puedan opinar.

Facilitar la gobernanza de las inteligencias artificiales podría aumentar la comodidad que siente la sociedad con estas herramientas y darles a los reguladores más certeza de que siguen criterios competentes. También podría evitar algunos de los problemas que surgieron en el auge de las redes sociales en la década de 2010, cuando un grupo de titanes de Silicon Valley terminaron al mando de enormes porciones del discurso en línea.

Constitución IA

En resumen, la Inteligencia Artificial Constitucional opera al utilizar un conjunto de reglas escritas, llamado «constitución», para supervisar el comportamiento de un modelo de inteligencia artificial. La primera versión de la constitución de Claude incorporó algunas normas de otros documentos oficiales, como la Declaración Universal de los Derechos Humanos de las Naciones Unidas y los términos y condiciones de los servicios de Apple.

Este enfoque hizo que Claude fuera más educado en comparación con otros chatbots. Sin embargo, Anthropic todavía tenía el poder de decidir qué normas adoptar, lo que generaba cierta incomodidad entre algunos miembros de la empresa.

Para abordar este desafío, Anthropic colaboró con The Collective Intelligence Project, el sitio de colaboración masiva Polis y el sitio de encuestas en línea PureSpectrum. Juntos, formaron un panel de aproximadamente 1000 adultos estadounidenses a quienes se les presentaron una serie de principios y se les preguntó si estaban de acuerdo con cada uno de ellos. Los panelistas también tenían la opción de proponer sus propias reglas.

El panel llegó a acuerdos sobre diversas reglas, algunas de las cuales eran similares a los principios de la constitución original de Claude, como la prohibición de que la IA sea peligrosa o promueva el odio, y la obligación de que la IA diga la verdad. Sin embargo, también surgieron principios menos predecibles, como la necesidad de que la IA sea adaptable, accesible y flexible para las personas con discapacidad, un aspecto que no se encontraba explícitamente en la constitución original de Claude.

Con base en las opiniones del panel, Anthropic creó una lista de 75 principios que denominaron la «constitución pública». Luego, la empresa entrenó dos versiones más pequeñas de Claude, una basada en la constitución original y otra en la constitución pública, y las comparó.

Los investigadores descubrieron que la versión de Claude basada en la constitución pública mostró un comportamiento bastante similar al de la versión estándar en varias pruebas de referencia comúnmente realizadas en modelos de inteligencia artificial. Además, esta versión resultó ser ligeramente menos sesgada que la original. Es importante destacar que ninguna de las versiones se ha lanzado al mercado; Claude continúa operando con su constitución original creada por Anthropic, y la empresa afirma que no tiene planes inmediatos de reemplazarla con la versión derivada de la colaboración pública en el futuro cercano.

Los investigadores de Anthropic con los que conversé enfatizaron que el proyecto de la Inteligencia Artificial Constitucional Colectiva era un experimento en sus primeras etapas y que podría no funcionar tan eficazmente en modelos de inteligencia artificial más complejos o con grupos de opinión más numerosos.

«Lanzamos este proyecto a pequeña escala», explicó Liane Lovitt, analista de políticas en Anthropic. «En realidad, lo consideramos un prototipo preliminar, un experimento que, con suerte, podremos desarrollar para entender mejor cómo los diferentes públicos generan constituciones diversas y cómo eso se refleja en las etapas posteriores de entrenamiento de un modelo».

Clark, el director de Anthropic, ha estado informando a legisladores y reguladores en Washington durante meses sobre los riesgos asociados con la inteligencia artificial avanzada. Sostiene que permitir la participación del público en el funcionamiento de los sistemas de inteligencia artificial podría disipar los temores relacionados con el sesgo y la manipulación.

«En última instancia, creo que la cuestión de cuáles son los valores fundamentales de estos sistemas y cómo se eligen se convertirá en una conversación cada vez más crucial», señaló.

Una objeción común a este tipo de experimentos de gobernanza en plataformas tecnológicas es que parecen ser más democráticos de lo que realmente son (después de todo, los empleados de Anthropic siguen teniendo la última palabra sobre qué normas incluir en la constitución pública). Además, intentos anteriores de empresas tecnológicas para delegar el control a los usuarios, como el Consejo de Supervisión de Meta, un organismo prácticamente independiente que surgió debido a la frustración de Mark Zuckerberg por tener que tomar decisiones sobre contenido controversial en Facebook, no lograron aumentar la confianza en esas plataformas.

Este experimento también plantea cuestiones cruciales sobre qué voces deberían incluirse exactamente en el proceso democrático. ¿Deberían los chatbots de inteligencia artificial en Arabia Saudita ser entrenados según los valores saudíes? ¿Cómo respondería un chatbot entrenado con Inteligencia Artificial Constitucional Colectiva a preguntas sobre el aborto en un país de mayoría católica o sobre los derechos de las personas trans en un Congreso controlado por los republicanos estadounidenses?

Aunque hay muchos detalles por pulir, estoy de acuerdo con el principio general de que las empresas de inteligencia artificial deben rendir cuentas al público de manera más transparente que en la actualidad. Aunque parte de mí hubiera deseado que estas empresas hubieran buscado nuestra opinión antes de lanzar sistemas avanzados de inteligencia artificial para ser utilizados por millones de personas, sin duda, es mejor tarde que nunca.

Viene una segunda parte

En un próximo artículo seguiremos resumiendo el sesudo y detallado texto de la Enciclopedia Británica.
_______________________________________________________________

La lotería: ¿puede la IA predecir los números ganadores?

La lotería: ¿puede la IA predecir los números ganadores?


(21 de octubre, 2023). «Puedo predecirlo todo, excepto el futuro», dice una divertida frases satírica. Y eso le pasa a cualquiera que quiera anticiparse a lo que viene. La ciencia se aproxima con probabilidades que achican el rango posible de ganancia, pero no la garantizan, solo la hacen más plausible. 

Por años, quizá siglos, el ser humano ha buscado la fórmula para ganar estos juegos de azar con resultados poco auspiciosos: desde supuestas matrices matemáticas hasta predicciones esotéricas.

¿Puede, en este caso, ayudar la IA?

Obviamente no a acertar infaliblemente pero, tal vez, achicar el rango de probabilidades. Veamos. La IA misma provee algunos trucos para la lotería, cortesía de nuestra amigo el ChatGPT. Sabemos que todos andan locos comprando boletos, ¡así que estas sugerencias podrían darte una ventaja!

  1. Juega Regularmente: Según la IA, jugar a menudo aumenta tus posibilidades. Así que, establece un presupuesto y juega de forma consistente. ¡La práctica hace al maestro!

     

  2. Evita Números Populares: ¿No querrás compartir tu premio con medio mundo, verdad? Evita las fechas de cumpleaños y los números del 1 al 31. Opta por números menos comunes para asegurarte de quedarte con todo el pastel.

     

  3. Únete a un Grupo: Reúnete con amigos para comprar boletos juntos. ¡Más boletos, más posibilidades! Claro, si ganan, el premio se divide, ¡pero aún así, es mejor que nada!

     

  4. Usa Sistemas de Números: La IA sugiere usar sistemas matemáticos o patrones estadísticos para elegir tus números. Piensa en ellos como estrategias secretas para aumentar tus probabilidades.

     

  5. Explora Otras Loterías: No todas las loterías son iguales. Algunas tienen mejores probabilidades que otras. Investiga y apuesta en las que te ofrezcan una ventaja. ¡Podrías sorprenderte!

     

  6. Ten Paciencia: La lotería es un juego de azar. Ganar el gran premio no es fácil, así que mantén la calma y disfruta del proceso. Al final del día, ¡es todo diversión y entretenimiento!

Recuerda, ¡la suerte favorece a los valientes, pero una estrategia inteligente tampoco viene mal! ¡Buena suerte!

___________________________________________________________

Encuesta a CEO: IA es una «máxima prioridad de inversión»

Encuesta a CEO: IA es una «máxima prioridad de inversión»

(5 de octubre, 2023).) Si los directores ejecutivos (CEO en inglés) pusieran en práctica sus preferencias, los empleados volverían a la oficina, impulsando simultáneamente avances en la IA. ¿Hay razones para esto? A medida que la fuerza laboral sufre cambios, también lo hace la tecnología, y esto está dando forma a las expectativas de los ejecutivos.

Está, por tanto, develándose una tendencia nueva. Según una encuesta reciente entre directores ejecutivos de EE. UU. realizada por la consultora KPMG y publicada la semana pasada, los directores ejecutivos están entusiasmados con la IA:

  • El 72% de los directores ejecutivos estadounidenses consideran que la IA generativa es una «prioridad de inversión máxima».
  • Lo ven como una inversión a más largo plazo: el 62% espera retornos en 3 a 5 años, en comparación con sólo el 23% espera retornos en 1 a 3 años.

La perspectiva más amplia: el surgimiento de ChatGPT desencadenó una búsqueda frenética de la IA, lo que subraya cómo industrias enteras y roles laborales pueden verse rápidamente alterados.

«Creo que es un reconocimiento de que la IA generativa es transformadora y no sólo una exageración», dijo Paul Knopp, director ejecutivo de KPMG en EE. UU., en declaraciones a Axios. «Ofrece oportunidades para aumentar potencialmente los ingresos y, al mismo tiempo, hacer que la fuerza laboral y los procesos comerciales sean más eficientes».

Pero hay riesgo latente para muchos

La cuestión de si estas eficiencias se traducirán en menos puestos de trabajo sigue siendo una preocupación para muchos.

«Aunque no creo que la IA generativa conduzca a reducciones de la fuerza laboral, las personas con habilidades de IA generativa probablemente serán más valiosas que las que no las tienen, y tendrán mayores oportunidades en el futuro», dijo Knopp.

Y los directores ejecutivos quieren que estas personas capacitadas apliquen su experiencia en un entorno de oficina.

En la encuesta de KPMG, que incluyó a 400 directores ejecutivos estadounidenses de empresas con ingresos anuales de al menos 500 millones de dólares en varios sectores, el 62% prevé que su personal trabajará permanentemente desde la oficina dentro de tres años, frente al 34% del año anterior.

Solo el 4% imaginaba equipos totalmente remotos, frente al 20% en 2022, mientras que el 34% esperaba una fuerza laboral híbrida, frente al 45%.

«Los directores ejecutivos desean cada vez más ver a los empleados de regreso en la oficina», señaló Knopp, pero cree que los acuerdos de trabajo híbridos probablemente llegaron para quedarse.

En conclusión: las fuerzas que influyen en nuestro entorno laboral todavía están cambiando y seguirán por un tiempo, hasta que el mercado se asiente. ¿Cuándo ocurrirá? Es temprano para especular, pero se cree que tomará demasiado tiempo.

Cuidado que te pueden estafar con IA

Cuidado que te pueden estafar con IA

 

(Mailing, 02/Ago/2023)

El lado oscuro de la IA. Para ser completamente honesto contigo, no quería escribir sobre esto…

Da miedo e incomodidad, pero después de lo que pasó esta semana…

Necesitas saber sobre esto.

Un nuevo chat de A.I llamado FraudGPT está dando vueltas y probablemente ya te haya afectado. ¿Quién es FraudGPT?

Piensa en el gemelo malvado de ChatGPT.

FraudGPT es una ventanilla única para todo lo que los piratas informáticos necesitan, desde aprender a escribir código hasta escribir correos electrónicos para estafar a las personas.

A la fecha, FraudGPT ha obtenido más de 3000 ventas y reseñas confirmadas.

El tipo detrás de todo se conoce con el nombre de «CanadianKingpin».

(En las películas, los villanos tienen nombres MUCHO más aterradores)

CanadianKingpin afirma que FraudGPT puede:

Potencie los chatbots para convencer a los usuarios de que envíen la información de su tarjeta de crédito

Escriba correos electrónicos de estafa convincentes como facturas que pueden robar su dinero o incluya un enlace que deje un virus en su computadora

Se utiliza para crear otras herramientas de piratería. Al igual que se usa ChatGPT para potenciar otras herramientas de IA.

Entonces, ¿qué estamos haciendo al respecto?

Bueno… estamos combatiendo fuego con fuego.

Las empresas de tecnología están utilizando A.I para «luchar» contra FraudGPT usándolo para verificar dos veces sus códigos de seguridad y rastrear a los piratas informáticos conocidos.

De hecho, una nueva empresa llamada Protect AI acaba de recaudar 35 millones de dólares en fondos para sus herramientas de «defensa de la IA».

El problema es que con A.I, es más fácil para las personas aprender a piratear y hacer 20 veces más daño con menos costo y menos riesgo.

Solo un recordatorio, tenga cuidado con los enlaces en los que hace clic y dónde envía la información de su tarjeta de crédito.

Verified by MonsterInsights