Pregunta seria: ¿Puede la IA crear seres digitales que tengan su propia conciencia y agenda?

Pregunta seria: ¿Puede la IA crear seres digitales que tengan su propia conciencia y agenda?

(27 de noviembre, 2023, con información de GeekWire). ¿La inteligencia artificial va a estar al servicio de la humanidad o va a dar paso a nuevas especies de seres digitales conscientes con su propia movida?

Es una pregunta que ha inspirado un montón de historias de ciencia ficción, desde “Colossus: The Forbin Project” en 1970, hasta “The Matrix” en 1999, y la peli de este año donde la IA se enfrenta a los humanos, “The Creator”.

La misma pregunta también estaba rondando en el lío de liderazgo de OpenAI — donde el CEO Sam Altman se impuso sobre los miembros del consejo sin fines de lucro que lo habían despedido una semana antes.

Si tuvieras que dividir a la comunidad de IA entre los que quieren acelerar y los que prefieren ir más despacio, esos miembros del consejo estarían en el grupo del “vamos con calma”, mientras que Altman sería de los que dicen “a todo gas”. Y ha habido rumores sobre la posibilidad de un “descubrimiento” en OpenAI que aceleraría el campo de la IA a toda máquina — tal vez demasiado rápido para nuestro propio bien.

¿Debería preocuparnos la idea de que la IA se vuelva consciente y tome cartas en el asunto? Esa es solo una de las preguntas que aborda el veterano escritor de ciencia George Musser en un libro recién publicado titulado “Poniéndonos de nuevo en la ecuación”.

Musser entrevistó a investigadores de IA, neurocientíficos, físicos cuánticos y filósofos para entender la búsqueda de uno de los misterios más profundos de la vida: ¿Cuál es la naturaleza de la conciencia? ¿Y es un fenómeno exclusivamente humano?

¿Su conclusión? No hay razón para que la IA adecuada no pueda ser tan consciente como nosotros. “Casi todos los que piensan en esto, en todos estos campos diferentes, dicen que si replicáramos una neurona en silicio — si creáramos una computadora neuromórfica que fuera muy, pero que muy fiel a la biología — sí, sería consciente”, dice Musser en el último episodio del podcast Fiction Science.

Pero, ¿deberíamos preocuparnos por permitir el ascenso de futuros señores de la IA? En esa pregunta existencial, la opinión de Musser va contra el guion típico de ciencia ficción.

“Creo que las máquinas tontas, las máquinas no conscientes, como se ha demostrado en el mundo actual, son extremadamente peligrosas y bastante capaces de aniquilar a la humanidad. Las máquinas conscientes no añaden ninguna capacidad particular que, al menos en mi opinión, aumente su peligro para la humanidad”, dice.

“Si acaso, creo que probablemente el peligro sea al contrario: que nosotros las maltratemos”, dice Musser. “Eso también es parte, por desgracia, de la historia de los seres humanos. Tendemos a maltratar, hasta que superamos eso, a seres que claramente son conscientes.”

Las capacidades de herramientas de IA generativa como el ChatGPT de OpenAI no son una gran sorpresa para aquellos que investigan en el campo — pero Musser dice que los investigadores se han sorprendido de lo rápido que se están desarrollando.

Compara el progreso en IA con el progreso en la fusión nuclear. “Es una de esas cosas que siempre parece estar en el futuro, ¿verdad?” dice. Pero en el caso de la IA, el futuro parece estar menos lejos.

“Adelanta el cronograma en la mente de muchas personas para lo que se conoce como AGI”, dice Musser. “Eso es inteligencia general artificial, y es un sistema que es capaz de una amplia gama de funciones, de aprender sobre la marcha. Básicamente un sustituto más cercano de un animal, o incluso de un cerebro humano, o incluso superhumano. Así que creo que ha acelerado las cosas, pero ha sido un cambio cuantitativo, no cualitativo para la gente.”

__________________________________________________
Imágenes: MM con imágenes de Pixabay.

El despido de Sam Altman genera caos en OpenAI

El despido de Sam Altman genera caos en OpenAI

(22 de noviembre, 2023, con información de SuperHuman). Como informamos ayer la salida de Sam Altman de la empresa Open AI ha generado un caos en dos direcciones: uno hacia afuera, lleno de conjeturas sobre el futuro de ejecutivo propulsor del ChatGPT. Retomemeos el recuento:

  • Más de 700 de los 770 empleados de OpenAI amenazaron con irse si la junta no renuncia.
  • Al parecer, Sam Altman está intentando volver a OpenAI como el jefe, según soltó The Verge.
  • Satya Nadella, el big boss de Microsoft, también confesó en una entrevista que no le molestaría que Altman regresara a OpenAI. No olvidemos que Microsoft es quien pone los recursos en OpenAI.
  • Pero lo que dejó a todos boquiabiertos fue que la junta de OpenAI le hizo una oferta a Anthropic, su competencia, proponiendo una fusión de las dos empresas.
  • También hay chismes de que los clientes de OpenAI están pensando en pasarse a Anthropic o a Google.
  • Reuters lanzó el «chisme» de que los inversionistas de OpenAI están pensando en demandar a la junta.
  • Con todo este alboroto, los competidores están aprovechando para atraer a los empleados que se quieren ir de OpenAI, y figuras como Elon Musk y el CEO de Salesforce, Marc Benioff, ya están haciendo sus movidas para contratarlos.
  • Y no falta quien acuse a la junta de OpenAI, como Vinod Khosla y Balaji Srinivasan, de estar influenciados por el altruismo efectivo, una corriente filosófica que, dicen, quiere ponerle el freno al progreso de la IA.

A pesar de los giros dramáticos de las últimas 24 horas, el futuro de OpenAI está en el aire. Parece que hoy nos espera otro día de tensión para la empresa, su gente y sus clientes. ¡Agárrense que vienen curvas!

_____________________________________

Un perfil de Sam Altman

Sam Altman es un empresario e inversor reconocido en el ámbito tecnológico. Comenzó su carrera co-fundando Loopt, una red social basada en la localización, que fue adquirida por Green Dot Corporation. Altman es ampliamente conocido por su rol como ex presidente de Y Combinator, una de las incubadoras de startups más influyentes del mundo. Bajo su liderazgo, Y Combinator amplió sus inversiones y apoyó a una multitud de empresas emergentes exitosas.

En 2015, Altman fue nombrado co-fundador y CEO de OpenAI, una organización de investigación de inteligencia artificial con el objetivo de promover y desarrollar IA amigable para beneficio de la humanidad de manera segura y democrática. Es un defensor de la tecnología sustentable y ha invertido en varias startups de energía limpia. Además, ha mostrado un interés particular en el desarrollo de políticas tecnológicas y en cómo la tecnología puede influir en la economía y la sociedad. Su influencia se extiende más allá de sus inversiones, siendo un pensador destacado en el futuro de la IA, el impacto social de la tecnología y la economía. Altman también ha sido parte de iniciativas que exploran el uso de monedas digitales y otras formas de impulsar la innovación en el espacio tecnológico.

__________________________________________________
Imágenes: Wikipedia y del dominio público.

Microsoft abre una puerta al futuro de la medicina con IA

Microsoft abre una puerta al futuro de la medicina con IA

(14 de noviembre, 2023).  Microsoft acaba de presentar una patente para una aplicación de terapia con IA. ¿Cómo te hace sentir eso?

Según la patente, el terapeuta de IA, descrito como un «método y aparato para proporcionar atención emocional en una sesión entre un usuario y un agente conversacional», está diseñado para proporcionar a los usuarios apoyo emocional, analizar sus sentimientos y almacenar cuidadosamente la información del usuario y las conversaciones, a fin de poder construir una «memoria» del usuario, su vida y sus desencadenantes emocionales.

El modelo aparentemente puede procesar tanto imágenes como texto y, lo que es importante, parece estar diseñado como un espacio general para que el usuario pueda hablar sobre su vida, más que como un servicio de emergencia.

A medida que la IA recopila más información sobre sus usuarios, la patente sugiere que puede comenzar a detectar ciertos indicios emocionales. En función de estos indicios, podría hacer algunas preguntas de sondeo e incluso, en algunos casos, hacer sugerencias sobre cómo el usuario podría abordar sus problemas.

Pero Microsoft parece creer que la IA también puede realizar un psicoanálisis más profundo. Según una figura, el usuario también tiene la opción de realizar una «prueba psicológica explícita», que según Microsoft será evaluada por un «algoritmo de puntuación predefinido por psicólogos o expertos en ámbitos psicológicos».

Ciertamente, no sería la primera vez que se intenta aplicar la IA a la atención sanitaria mental. Al parecer, existe algo llamado Woebot, y ¿quién podría olvidar la desastrosa incursión de la Asociación Nacional de Trastornos de la Alimentación en los servicios de chatbot? También es cierto que los humanos ya han recurrido a varios bots no específicos de la terapia para obtener compañía y apoyo, y muchas personas han desarrollado profundos vínculos personales con esas IAs.

Sin embargo, cabe destacar que en varios casos, estas interacciones han terminado causando mucho más daño que bien. En abril, se alegó que un hombre belga con ansiedad climática severa se suicidó después de buscar el apoyo de un chatbot. Y en 2021, un joven de 19 años intentó matar a la difunta reina Isabel II, sí, en serio, con una ballesta después de encontrar apoyo y aliento para ejecutar el complot mortal de su novia de IA.

Y en otros casos, en casos notablemente menos extremos, algunos usuarios de aplicaciones de acompañamiento de chatbot han informado sentirse angustiados cuando sus compañeros de chatbot y amantes han sido desmantelados. Si la IA de Microsoft desarrollara relaciones cercanas con los usuarios y luego se cerrara por cualquier motivo, no sería la primera vez que Microsoft eliminara un bot, podríamos imaginar que los clientes de la IA de terapia pasarían por una experiencia dolorosa similar.

También hay algunas advertencias de responsabilidad más obvias aquí. Para que una aplicación como esta sea funcional y segura, Microsoft deberá instalar algunos guardamanos de IA a prueba de balas. Y, al igual que un terapeuta humano, el bot probablemente debería estar obligado a informar el comportamiento peligroso o inquietante a las autoridades o a servicios de salud especiales.

Y aún así, independientemente de sus guardamanos, queda por ver si alguna IA actual tendrá el matiz emocional necesario para lidiar con situaciones complicadas y a menudo frágiles relacionadas con la salud mental y la enfermedad. ¿Qué pasa si le dice algo incorrecto a alguien que está luchando, o simplemente no dice lo suficiente?

Es difícil imaginar que un bot pueda ofrecerle a alguien la misma empatía y apoyo que un buen terapeuta humano, pero, según esta patente, aparentemente eso aún está por verse.

___________________________________________
Con información de Futurism. Imagen: MM.

EE. UU. regula la Inteligencia Artificial

EE. UU. regula la Inteligencia Artificial

Texto completo del decreto que EE. UU. ha emitido respecto a la Inteligencia Artificial:

HOJA INFORMATIVA: El presidente Biden emite una orden ejecutiva sobre inteligencia artificial segura y confiable

Hoy, el presidente Biden emite una Orden Ejecutiva histórica para garantizar que Estados Unidos lidere el camino a la hora de hacer realidad la promesa y gestionar los riesgos de la inteligencia artificial (IA). La Orden Ejecutiva establece nuevos estándares para la seguridad de la IA, protege la privacidad de los estadounidenses, promueve la equidad y los derechos civiles, defiende a los consumidores y trabajadores, promueve la innovación y la competencia, promueve el liderazgo estadounidense en todo el mundo y más.

Como parte de la estrategia integral de la Administración Biden-Harris para la innovación responsable, la Orden Ejecutiva se basa en acciones anteriores que el Presidente ha tomado, incluido el trabajo que condujo a compromisos voluntarios de 15 empresas líderes para impulsar el desarrollo seguro y confiable de la IA.

La Orden Ejecutiva dirige las siguientes acciones:

Nuevos estándares para la seguridad de la IA

A medida que crecen las capacidades de la IA, también crecen sus implicaciones para la seguridad de los estadounidenses. Con esta Orden Ejecutiva, el Presidente dirige las acciones más radicales jamás tomadas para proteger a los estadounidenses de los riesgos potenciales de los sistemas de IA:

Exigir que los desarrolladores de los sistemas de inteligencia artificial más potentes compartan los resultados de sus pruebas de seguridad y otra información crítica con el gobierno de EE. UU. De acuerdo con la Ley de Producción de Defensa, la Orden requerirá que las empresas que desarrollen cualquier modelo de base que represente un riesgo grave para la seguridad nacional, la seguridad económica nacional o la salud y seguridad públicas nacionales notifiquen al gobierno federal cuando entrenen el modelo, y deben compartir los resultados de todas las pruebas de seguridad del equipo rojo. Estas medidas garantizarán que los sistemas de IA sean seguros y confiables antes de que las empresas los hagan públicos.

Desarrollar estándares, herramientas y pruebas para ayudar a garantizar que los sistemas de IA sean seguros y confiables. El Instituto Nacional de Estándares y Tecnología establecerá estándares rigurosos para pruebas exhaustivas del equipo rojo para garantizar la seguridad antes de su divulgación al público. El Departamento de Seguridad Nacional aplicará esos estándares a sectores de infraestructura críticos y establecerá la Junta de Seguridad de IA. Los Departamentos de Energía y Seguridad Nacional también abordarán las amenazas de los sistemas de inteligencia artificial a la infraestructura crítica, así como los riesgos químicos, biológicos, radiológicos, nucleares y de ciberseguridad. En conjunto, estas son las acciones más importantes jamás tomadas por cualquier gobierno para avanzar en el campo de la seguridad de la IA.

Proteger contra los riesgos del uso de IA para diseñar materiales biológicos peligrosos mediante el desarrollo de nuevos estándares sólidos para la detección de síntesis biológica. Las agencias que financian proyectos de ciencias biológicas establecerán estos estándares como condición para la financiación federal, creando poderosos incentivos para garantizar una detección adecuada y gestionar los riesgos potencialmente empeorados por la IA.

Proteger a los estadounidenses del fraude y el engaño habilitados por la IA estableciendo estándares y mejores prácticas para detectar contenido generado por IA y autenticar el contenido oficial. El Departamento de Comercio desarrollará una guía para la autenticación de contenido y la creación de marcas de agua para etiquetar claramente el contenido generado por IA. Las agencias federales utilizarán estas herramientas para que los estadounidenses sepan fácilmente que las comunicaciones que reciben de su gobierno son auténticas y darán ejemplo al sector privado y a los gobiernos de todo el mundo.

Establecer un programa de ciberseguridad avanzado para desarrollar herramientas de inteligencia artificial para encontrar y corregir vulnerabilidades en software crítico, basándose en el actual desafío cibernético de inteligencia artificial de la administración Biden-Harris. En conjunto, estos esfuerzos aprovecharán las capacidades cibernéticas potencialmente revolucionarias de la IA para hacer que el software y las redes sean más seguros.

Ordenar el desarrollo de un Memorando de Seguridad Nacional que dirija acciones adicionales sobre IA y seguridad, que será desarrollado por el Consejo de Seguridad Nacional y el Jefe de Gabinete de la Casa Blanca. Este documento garantizará que la comunidad militar y de inteligencia de los Estados Unidos utilice la IA de forma segura, ética y eficaz en sus misiones, y dirigirá acciones para contrarrestar el uso militar de la IA por parte de los adversarios.

Proteger la privacidad de los estadounidenses

  • Sin salvaguardias, la IA puede poner aún más en riesgo la privacidad de los estadounidenses. La IA no sólo facilita la extracción, identificación y explotación de datos personales, sino que también aumenta los incentivos para hacerlo porque las empresas utilizan datos para entrenar sistemas de IA. Para proteger mejor la privacidad de los estadounidenses, incluso frente a los riesgos que plantea la IA, el Presidente pide al Congreso que apruebe una legislación bipartidista sobre privacidad de datos para proteger a todos los estadounidenses, especialmente a los niños, y dirige las siguientes acciones:
  • Proteger la privacidad de los estadounidenses priorizando el apoyo federal para acelerar el desarrollo y el uso de técnicas que preserven la privacidad, incluidas aquellas que utilizan IA de vanguardia y que permiten entrenar sistemas de IA preservando al mismo tiempo la privacidad de los datos de entrenamiento.
  • Fortalecer la investigación y las tecnologías que preservan la privacidad, como las herramientas criptográficas que preservan la privacidad de las personas, financiando una Red de Coordinación de Investigación para avanzar en avances y desarrollo rápidos. La National Science Foundation también trabajará con esta red para promover la adopción de tecnologías de vanguardia para preservar la privacidad por parte de las agencias federales.
  • Evaluar cómo las agencias recopilan y utilizan la información disponible comercialmente (incluida la información que obtienen de los intermediarios de datos) y fortalecer la orientación sobre privacidad para que las agencias federales tengan en cuenta los riesgos de la IA. Este trabajo se centrará en particular en la información disponible comercialmente que contenga datos de identificación personal.
  • Desarrollar directrices para que las agencias federales evalúen la eficacia de las técnicas de preservación de la privacidad, incluidas las utilizadas en los sistemas de inteligencia artificial. Estas directrices impulsarán los esfuerzos de la agencia para proteger los datos de los estadounidenses.
  • Proteger la privacidad de los estadounidenses priorizando el apoyo federal para acelerar el desarrollo y el uso de técnicas— que preserven la privacidad, incluidas aquellas que utilizan IA de vanguardia y que permiten entrenar sistemas de IA preservando al mismo tiempo la privacidad de los datos de entrenamiento.

     

  • Fortalecer la investigación y las tecnologías que preservan la privacidad, como las herramientas criptográficas que preservan la privacidad de las personas, financiando una Red de Coordinación de Investigación para avanzar en avances y desarrollo rápidos. La National Science Foundation también trabajará con esta red para promover la adopción de tecnologías de vanguardia para preservar la privacidad por parte de las agencias federales.

     

  • Evaluar cómo las agencias recopilan y utilizan la información disponible comercialmente (incluida la información que obtienen de los intermediarios de datos) y fortalecer la orientación sobre privacidad para que las agencias federales tengan en cuenta los riesgos de la IA. Este trabajo se centrará en particular en la información disponible comercialmente que contenga datos de identificación personal.

     

  • Desarrollar directrices para que las agencias federales evalúen la eficacia de las técnicas de preservación de la privacidad, incluidas las utilizadas en los sistemas de inteligencia artificial. Estas directrices impulsarán los esfuerzos de la agencia para proteger los datos de los estadounidenses.

Promoción de la equidad y los derechos civiles

Los usos irresponsables de la IA pueden provocar y profundizar la discriminación, los prejuicios y otros abusos en la justicia, la atención sanitaria y la vivienda. La Administración Biden-Harris ya ha tomado medidas al publicar el Plan para una Declaración de Derechos de la IA y emitir una Orden Ejecutiva que ordena a las agencias combatir la discriminación algorítmica, al tiempo que hace cumplir las autoridades existentes para proteger los derechos y la seguridad de las personas. Para garantizar que AI promueva la equidad y los derechos civiles, el Presidente ordena las siguientes acciones adicionales:

  • Proporcionar orientación clara a los propietarios, los programas de beneficios federales y los contratistas federales para evitar que los algoritmos de IA se utilicen para exacerbar la discriminación.

     

  • Abordar la discriminación algorítmica mediante capacitación, asistencia técnica y coordinación entre el Departamento de Justicia y las oficinas federales de derechos civiles sobre las mejores prácticas para investigar y procesar violaciones de derechos civiles relacionadas con la IA.

     

  • Garantizar la equidad en todo el sistema de justicia penal mediante el desarrollo de mejores prácticas sobre el uso de la IA en la sentencia, la libertad condicional y la libertad vigilada, la libertad y detención preventivas, las evaluaciones de riesgos, la vigilancia, la previsión de delitos y la vigilancia policial predictiva, y el análisis forense.

Defender a los consumidores, pacientes y estudiantes

La IA puede aportar beneficios reales a los consumidores, por ejemplo, haciendo que los productos sean mejores, más baratos y más ampliamente disponibles. Pero la IA también aumenta el riesgo de herir, engañar o dañar de otro modo a los estadounidenses. Para proteger a los consumidores y al mismo tiempo garantizar que la IA pueda mejorar la situación de los estadounidenses, el Presidente dirige las siguientes acciones:

  • Impulsar el uso responsable de la IA en la atención sanitaria y el desarrollo de medicamentos asequibles y que salven vidas. El Departamento de Salud y Servicios Humanos también establecerá un programa de seguridad para recibir informes de daños o prácticas de atención médica inseguras que involucren IA y actuar para remediarlos.

  • Dar forma al potencial de la IA para transformar la educación mediante la creación de recursos para ayudar a los educadores a implementar herramientas educativas basadas en IA, como tutorías personalizadas en las escuelas.

Trabajadores de apoyo

La IA está cambiando los empleos y los lugares de trabajo en Estados Unidos, ofreciendo tanto la promesa de una mayor productividad como los peligros de una mayor vigilancia, prejuicios y desplazamiento laboral en el lugar de trabajo. Para mitigar estos riesgos, apoyar la capacidad de los trabajadores para negociar colectivamente e invertir en capacitación y desarrollo de la fuerza laboral que sea accesible para todos, el Presidente dirige las siguientes acciones:

  • Desarrollar principios y mejores prácticas para mitigar los daños y maximizar los beneficios de la IA para los trabajadores abordando el desplazamiento laboral; normas laborales; equidad, salud y seguridad en el lugar de trabajo; y recopilación de datos. Estos principios y mejores prácticas beneficiarán a los trabajadores al brindarles orientación para evitar que los empleadores compensen insuficientemente a los trabajadores, evalúen las solicitudes de empleo de manera injusta o afecten la capacidad de los trabajadores para organizarse.

     

  • Producir un informe sobre los posibles impactos de la IA en el mercado laboral y estudiar e identificar opciones para fortalecer el apoyo federal a los trabajadores que enfrentan interrupciones laborales, incluidas las provocadas por la IA.

Promoción de la innovación y la competencia

Estados Unidos ya es líder en innovación en IA: más empresas emergentes de IA recaudaron capital por primera vez en Estados Unidos el año pasado que en los siete países siguientes juntos. La Orden Ejecutiva garantiza que sigamos liderando el camino en innovación y competencia a través de las siguientes acciones:

  • Catalizar la investigación de IA en todo Estados Unidos a través de una prueba piloto del National AI Research Resource, una herramienta que brindará a los investigadores y estudiantes de IA acceso a recursos y datos clave de IA, y subvenciones ampliadas para la investigación de IA en áreas vitales como la atención médica y el cambio climático.

     

  • Promover un ecosistema de IA justo, abierto y competitivo brindando a los pequeños desarrolladores y empresarios acceso a asistencia técnica y recursos, ayudando a las pequeñas empresas a comercializar avances en IA y alentando a la Comisión Federal de Comercio a ejercer sus autoridades.

     

  • Utilizar las autoridades existentes para ampliar la capacidad de inmigrantes y no inmigrantes altamente calificados con experiencia en áreas críticas para estudiar, permanecer y trabajar en los Estados Unidos modernizando y simplificando los criterios de visa, entrevistas y revisiones.

Impulsando el liderazgo estadounidense en el extranjero

Los desafíos y oportunidades de la IA son globales. La Administración Biden-Harris seguirá trabajando con otras naciones para apoyar el despliegue y el uso seguro y confiable de la IA en todo el mundo. Para tal efecto, el Presidente dirige las siguientes acciones:

  • Ampliar los compromisos bilaterales, multilaterales y de múltiples partes interesadas para colaborar en la IA. El Departamento de Estado, en colaboración con el Departamento de Comercio, liderará un esfuerzo para establecer marcos internacionales sólidos para aprovechar los beneficios de la IA, gestionar sus riesgos y garantizar la seguridad. Además, esta semana, el vicepresidente Harris hablará en la Cumbre del Reino Unido sobre seguridad de la IA, organizada por el primer ministro Rishi Sunak.

     

  • Acelerar el desarrollo y la implementación de estándares vitales de IA con socios internacionales y organizaciones de estándares, garantizando que la tecnología sea segura, confiable e interoperable.

     

  • Promover el desarrollo y el despliegue seguro, responsable y que afirme los derechos de la IA en el extranjero para resolver desafíos globales, como promover el desarrollo sostenible y mitigar los peligros para la infraestructura crítica.

Garantizar el uso gubernamental responsable y eficaz de la IA

La IA puede ayudar al gobierno a ofrecer mejores resultados para el pueblo estadounidense. Puede ampliar la capacidad de las agencias para regular, gobernar y desembolsar beneficios, y puede reducir costos y mejorar la seguridad de los sistemas gubernamentales. Sin embargo, el uso de la IA puede plantear riesgos, como discriminación y decisiones inseguras. Para garantizar el despliegue gubernamental responsable de la IA y modernizar la infraestructura federal de IA, el Presidente dirige las siguientes acciones:

  • Emitir orientación para el uso de la IA por parte de las agencias, incluidos estándares claros para proteger los derechos y la seguridad, mejorar la adquisición de IA y fortalecer la implementación de la IA.
  • Ayude a las agencias a adquirir productos y servicios de IA específicos de forma más rápida, económica y eficaz mediante una contratación más rápida y eficiente.

  • Acelerar la contratación rápida de profesionales de IA como parte de un aumento de talento en IA en todo el gobierno liderado por la Oficina de Gestión de Personal, el Servicio Digital de EE. UU., el Cuerpo Digital de EE. UU. y la Beca Presidencial de Innovación. Las agencias brindarán capacitación en IA a los empleados de todos los niveles en campos relevantes.

A medida que avancemos en esta agenda a nivel nacional, la Administración trabajará con aliados y socios en el extranjero en un marco internacional sólido para gobernar el desarrollo y el uso de la IA. La Administración ya ha consultado ampliamente sobre los marcos de gobernanza de la IA durante los últimos meses, colaborando con Australia, Brasil, Canadá, Chile, la Unión Europea, Francia, Alemania, India, Israel, Italia, Japón, Kenia, México, Países Bajos, Nueva Zelanda. Zelanda, Nigeria, Filipinas, Singapur, Corea del Sur, los Emiratos Árabes Unidos y el Reino Unido. Las acciones tomadas hoy apoyan y complementan el liderazgo de Japón en el Proceso de Hiroshima del G-7, la Cumbre del Reino Unido sobre Seguridad de la IA, el liderazgo de la India como Presidente de la Asociación Global sobre IA y los debates en curso en las Naciones Unidas.

Las acciones que el presidente Biden dirigió hoy son pasos vitales hacia adelante en el enfoque de Estados Unidos sobre una IA segura y confiable. Se necesitarán más acciones y la Administración seguirá trabajando con el Congreso para impulsar una legislación bipartidista que ayude a Estados Unidos a liderar el camino en innovación responsable.

Para obtener más información sobre el trabajo de la Administración Biden-Harris para promover la IA y oportunidades para unirse a la fuerza laboral federal de IA, visite AI.gov

___________________________________________
Imagen: MM.

Cumbre sobre Seguridad de la IA, primer gran hito de esta tecnología

Cumbre sobre Seguridad de la IA, primer gran hito de esta tecnología

(6 de noviembre, 2023 – Foto oficial del evento). Que hubo acuerdo entre representantes de OpenAI, Google, Microsoft, Anthropic,  Meta y xAI es prueba del éxito de la primera cumbre que busca regular aspectos claves de la IA. ¡La movida esta semana en el Reino Unido fue la Cumbre de Seguridad de la Inteligencia Artificial!

Las grandes empresas tecnológicas se comprometieron a colaborar con los gobiernos en las pruebas de sus nuevos juguetes de inteligencia artificial. La idea es reducir los riesgos asociados a esta tecnología, que según los presentes, podrían ser un verdadero desastre, según dijeron en un comunicado conjunto.

El primer ministro británico, Rishi Sunak, confrimó que Estados Unidos, la Unión Europea y otros países se pusieron de acuerdo con algunas empresas top para testear a fondo estos modelos de inteligencia artificial antes y después de lanzarlos al público. En estas sesiones, estuvieron los representantes de OpenAI, Anthropic, Google, Microsoft, Meta y xAI, quienes debatieron estos temas el jueves pasado.

Para darle más cuerda a esto, convocaron a Yoshua Bengio, un crack canadiense en computación y considerado uno de los padres de la inteligencia artificial, para que haga un informe sobre el «estado de la ciencia». La idea es entender mejor lo que estas tecnologías pueden hacer ahora y centrarse en los riesgos más importantes. Bengio, que ganó el Premio Turing y es parte del Consejo Asesor Científico de la ONU, se va a encargar de armar ese informe. ¡La IA se desarrolla imparablemente!

Hubo conflicto

La movida del gobierno británico es fuerte: armaron un nuevo centro global de pruebas que va a estar instalado en el Reino Unido. La idea es enfocarse en los problemas de seguridad nacional y social, ¡se la juegan totalmente!

China, sí, el mismo país gigante, está en la lista de los 28 países que firmaron la Declaración de Bletchley. Todos estos gobiernos acordaron que las empresas que hacen inteligencia artificial tienen que ser transparentes y rendir cuentas. Además, van a hacer planes para controlar y minimizar los peligros de estos bichos tecnológicos.

Pero ojo, el representante chino no apareció el jueves y no firmó el acuerdo sobre las pruebas. Sunak, el primer ministro, le mandó una invitación a China para la cumbre, y esto armó un revuelo en el parlamento británico. A algunos no les gustó nada que estén tan cerca de colaborar con Beijing, especialmente porque varios países de occidente no están muy de acuerdo en meterse en negocios tecnológicos con los chinos.

Sunak salió a bancar su decisión, argumentando que un tema tan grosso necesita que estén los jugadores más importantes. Además, insiste en que el Reino Unido puede ser el puente perfecto entre los grupos económicos de Estados Unidos, China y la Unión Europea. ¡Están que arden!

Enfrentando los riesgos

La vicepresidenta estadounidense Kamala Harris ya había insistido el miércoles en la necesidad de adoptar un «enfoque más práctico», que no se limite a evaluar los riesgos existenciales. «Hay amenazas adicionales que también exigen nuestra acción, amenazas que actualmente están causando daño y que muchas personas también consideran existenciales», dijo Harris.

La vicepresidenta citó el ejemplo de un anciano que canceló su plan de atención médica debido a un algoritmo de inteligencia artificial defectuoso. También mencionó el caso de una mujer que fue amenazada por una pareja abusiva con fotos modificadas. Hay que trabajar «en todo el espectro», dijo Harris, más allá de las amenazas existenciales sobre ciberataques masivos o armas biológicas.

La clonación de identidad, la conducción autónoma por inteligencia artificial y las campañas de desinformación figuran como otros de los peligros más cotidianos detectados en el desarrollo de esta tecnología. En este sentido, Harris anunció un nuevo instituto de seguridad de inteligencia artificial en EE. UU. Estará orientado a elaborar estándares para probar sistemas de uso público y colaborará con el centro de pruebas de Reino Unido anunciado por Sunak.

China se fue

¡El rollo es que el gobierno británico soltó que las empresas y gobiernos se están activando para crear un nuevo centro de pruebas internacional en el Reino Unido! Y la movida va a estar enfocada en la seguridad del país y la sociedad.

Resulta que China, que es uno de los 28 países que firmó la Declaración de Bletchley, está en la misma onda. Todos estos gobiernos están de acuerdo en que las empresas que se mandan con la inteligencia artificial tengan que ser transparentes y rendir cuentas. También se están armando planes para medir, monitorear y frenar los posibles problemas que se les pueden venir.

Lo insólito es que el representante de China no apareció el jueves y no le puso la firma al acuerdo sobre las pruebas. Esto generó polémica porque el primer ministro británico, Rishi Sunak, lo había invitado a la cumbre, y varios lo criticaron porque no entendía que a varios países de Occidente no les hace gracia trabajar con Beijing en temas tecnológicos.

Sunak salió a defenderse, diciendo que un tema tan clave necesita que estén todos los pesos pesados. Además, insistió en que el Reino Unido podría ser el enlace entre Estados Unidos, China y la Unión Europea en el mundo de la tecnología. ¡La cuestión está candente!

___________________________________________
Imagen: Foto oficial de la Cumbre.

Conozcan Perplexity, competencia del ChatGPT

Conozcan Perplexity, competencia del ChatGPT

(28 de octubre, 2023). Desde el auge de la IA Generativa, la estrella indiscutible ha sido el ChatGPT. Pero ya surgen competidores que quieren, quizá no desplazar a la sensación de Open AI, pero sí competirles más de cerca. Así surge Perplexity. Dejemos que el propio app nos lo diga:

Perplexity AI es un motor de búsqueda impulsado por IA que funciona como un «motor de respuestas» y puede proporcionar a los usuarios respuestas concisas y precisas a sus consultas. A diferencia de los motores de búsqueda tradicionales, Perplexity tiene una interfaz similar a un chatbot que permite a los usuarios hacer preguntas en lenguaje natural, y la IA responde en lenguaje natural para brindar respuestas directas a las consultas.

Perplexity utiliza una combinación de indexación/clasificación y búsqueda basada en LLM para resolver consultas, y puede responder preguntas más complejas que requieren sintetizar contenido de varias páginas y proporcionar respuestas rápidas y precisas mediante LLM. La herramienta fue desarrollada por desarrolladores experimentados que trabajaron anteriormente para empresas como OpenAI, Meta, Quora y Databricks, y se lanzó en agosto de 2022.

Perplexity puede ayudar a los usuarios de las siguientes maneras:

  • Proporcionar respuestas sencillas: para obtener una respuesta utilizando Perplexity, los usuarios pueden simplemente escribir su pregunta y hacer clic en la flecha verde. Luego, la herramienta generará una respuesta resumida de varias fuentes en Internet.
  • Organizar la información: Perplexity tiene una nueva función «Colecciones» que permite a los usuarios organizar mejor sus hilos y colaborar con otros. La función permite a los usuarios categorizar hilos por temas o proyectos, evitando la sobrecarga de búsqueda, y permite configuraciones de privacidad ajustables, para que los usuarios puedan elegir qué colecciones se mantienen privadas o se comparten públicamente. 
  • Aprender las preferencias del usuario a lo largo del tiempo: Perplexity se posiciona como un asistente de inteligencia artificial que aprende las preferencias del usuario a lo largo del tiempo. Dispone de una interfaz conversacional para hacer más natural la búsqueda de información. 
  • Proporcionar preguntas de seguimiento: los usuarios pueden hacer preguntas de seguimiento sobre cualquier tema para profundizar más, y Perplexity responderá, manteniendo sus respuestas anteriores en contexto. 
  • Proporcionar fuentes de información: Perplexity muestra la fuente de la información que proporciona, lo que permite a los usuarios verificar fácilmente las fuentes mirando la lista en la parte superior de la página y haciendo referencia a las oraciones numeradas.

En resumen, Perplexity AI es un motor de búsqueda impulsado por IA que puede proporcionar a los usuarios respuestas precisas y concisas a sus consultas. Tiene una interfaz similar a un chatbot que permite a los usuarios hacer preguntas en lenguaje natural y utiliza una combinación de indexación/clasificación y búsqueda basada en LLM para resolver consultas.

Perplexity puede ayudar a los usuarios brindándoles respuestas sencillas, organizando la información, aprendiendo las preferencias del usuario a lo largo del tiempo, proporcionando preguntas de seguimiento y mostrando las fuentes de información.
________________________________________

Verified by MonsterInsights