EE. UU. regula la Inteligencia Artificial

EE. UU. regula la Inteligencia Artificial

Texto completo del decreto que EE. UU. ha emitido respecto a la Inteligencia Artificial:

HOJA INFORMATIVA: El presidente Biden emite una orden ejecutiva sobre inteligencia artificial segura y confiable

Hoy, el presidente Biden emite una Orden Ejecutiva histórica para garantizar que Estados Unidos lidere el camino a la hora de hacer realidad la promesa y gestionar los riesgos de la inteligencia artificial (IA). La Orden Ejecutiva establece nuevos estándares para la seguridad de la IA, protege la privacidad de los estadounidenses, promueve la equidad y los derechos civiles, defiende a los consumidores y trabajadores, promueve la innovación y la competencia, promueve el liderazgo estadounidense en todo el mundo y más.

Como parte de la estrategia integral de la Administración Biden-Harris para la innovación responsable, la Orden Ejecutiva se basa en acciones anteriores que el Presidente ha tomado, incluido el trabajo que condujo a compromisos voluntarios de 15 empresas líderes para impulsar el desarrollo seguro y confiable de la IA.

La Orden Ejecutiva dirige las siguientes acciones:

Nuevos estándares para la seguridad de la IA

A medida que crecen las capacidades de la IA, también crecen sus implicaciones para la seguridad de los estadounidenses. Con esta Orden Ejecutiva, el Presidente dirige las acciones más radicales jamás tomadas para proteger a los estadounidenses de los riesgos potenciales de los sistemas de IA:

Exigir que los desarrolladores de los sistemas de inteligencia artificial más potentes compartan los resultados de sus pruebas de seguridad y otra información crítica con el gobierno de EE. UU. De acuerdo con la Ley de Producción de Defensa, la Orden requerirá que las empresas que desarrollen cualquier modelo de base que represente un riesgo grave para la seguridad nacional, la seguridad económica nacional o la salud y seguridad públicas nacionales notifiquen al gobierno federal cuando entrenen el modelo, y deben compartir los resultados de todas las pruebas de seguridad del equipo rojo. Estas medidas garantizarán que los sistemas de IA sean seguros y confiables antes de que las empresas los hagan públicos.

Desarrollar estándares, herramientas y pruebas para ayudar a garantizar que los sistemas de IA sean seguros y confiables. El Instituto Nacional de Estándares y Tecnología establecerá estándares rigurosos para pruebas exhaustivas del equipo rojo para garantizar la seguridad antes de su divulgación al público. El Departamento de Seguridad Nacional aplicará esos estándares a sectores de infraestructura críticos y establecerá la Junta de Seguridad de IA. Los Departamentos de Energía y Seguridad Nacional también abordarán las amenazas de los sistemas de inteligencia artificial a la infraestructura crítica, así como los riesgos químicos, biológicos, radiológicos, nucleares y de ciberseguridad. En conjunto, estas son las acciones más importantes jamás tomadas por cualquier gobierno para avanzar en el campo de la seguridad de la IA.

Proteger contra los riesgos del uso de IA para diseñar materiales biológicos peligrosos mediante el desarrollo de nuevos estándares sólidos para la detección de síntesis biológica. Las agencias que financian proyectos de ciencias biológicas establecerán estos estándares como condición para la financiación federal, creando poderosos incentivos para garantizar una detección adecuada y gestionar los riesgos potencialmente empeorados por la IA.

Proteger a los estadounidenses del fraude y el engaño habilitados por la IA estableciendo estándares y mejores prácticas para detectar contenido generado por IA y autenticar el contenido oficial. El Departamento de Comercio desarrollará una guía para la autenticación de contenido y la creación de marcas de agua para etiquetar claramente el contenido generado por IA. Las agencias federales utilizarán estas herramientas para que los estadounidenses sepan fácilmente que las comunicaciones que reciben de su gobierno son auténticas y darán ejemplo al sector privado y a los gobiernos de todo el mundo.

Establecer un programa de ciberseguridad avanzado para desarrollar herramientas de inteligencia artificial para encontrar y corregir vulnerabilidades en software crítico, basándose en el actual desafío cibernético de inteligencia artificial de la administración Biden-Harris. En conjunto, estos esfuerzos aprovecharán las capacidades cibernéticas potencialmente revolucionarias de la IA para hacer que el software y las redes sean más seguros.

Ordenar el desarrollo de un Memorando de Seguridad Nacional que dirija acciones adicionales sobre IA y seguridad, que será desarrollado por el Consejo de Seguridad Nacional y el Jefe de Gabinete de la Casa Blanca. Este documento garantizará que la comunidad militar y de inteligencia de los Estados Unidos utilice la IA de forma segura, ética y eficaz en sus misiones, y dirigirá acciones para contrarrestar el uso militar de la IA por parte de los adversarios.

Proteger la privacidad de los estadounidenses

  • Sin salvaguardias, la IA puede poner aún más en riesgo la privacidad de los estadounidenses. La IA no sólo facilita la extracción, identificación y explotación de datos personales, sino que también aumenta los incentivos para hacerlo porque las empresas utilizan datos para entrenar sistemas de IA. Para proteger mejor la privacidad de los estadounidenses, incluso frente a los riesgos que plantea la IA, el Presidente pide al Congreso que apruebe una legislación bipartidista sobre privacidad de datos para proteger a todos los estadounidenses, especialmente a los niños, y dirige las siguientes acciones:
  • Proteger la privacidad de los estadounidenses priorizando el apoyo federal para acelerar el desarrollo y el uso de técnicas que preserven la privacidad, incluidas aquellas que utilizan IA de vanguardia y que permiten entrenar sistemas de IA preservando al mismo tiempo la privacidad de los datos de entrenamiento.
  • Fortalecer la investigación y las tecnologías que preservan la privacidad, como las herramientas criptográficas que preservan la privacidad de las personas, financiando una Red de Coordinación de Investigación para avanzar en avances y desarrollo rápidos. La National Science Foundation también trabajará con esta red para promover la adopción de tecnologías de vanguardia para preservar la privacidad por parte de las agencias federales.
  • Evaluar cómo las agencias recopilan y utilizan la información disponible comercialmente (incluida la información que obtienen de los intermediarios de datos) y fortalecer la orientación sobre privacidad para que las agencias federales tengan en cuenta los riesgos de la IA. Este trabajo se centrará en particular en la información disponible comercialmente que contenga datos de identificación personal.
  • Desarrollar directrices para que las agencias federales evalúen la eficacia de las técnicas de preservación de la privacidad, incluidas las utilizadas en los sistemas de inteligencia artificial. Estas directrices impulsarán los esfuerzos de la agencia para proteger los datos de los estadounidenses.
  • Proteger la privacidad de los estadounidenses priorizando el apoyo federal para acelerar el desarrollo y el uso de técnicas— que preserven la privacidad, incluidas aquellas que utilizan IA de vanguardia y que permiten entrenar sistemas de IA preservando al mismo tiempo la privacidad de los datos de entrenamiento.

     

  • Fortalecer la investigación y las tecnologías que preservan la privacidad, como las herramientas criptográficas que preservan la privacidad de las personas, financiando una Red de Coordinación de Investigación para avanzar en avances y desarrollo rápidos. La National Science Foundation también trabajará con esta red para promover la adopción de tecnologías de vanguardia para preservar la privacidad por parte de las agencias federales.

     

  • Evaluar cómo las agencias recopilan y utilizan la información disponible comercialmente (incluida la información que obtienen de los intermediarios de datos) y fortalecer la orientación sobre privacidad para que las agencias federales tengan en cuenta los riesgos de la IA. Este trabajo se centrará en particular en la información disponible comercialmente que contenga datos de identificación personal.

     

  • Desarrollar directrices para que las agencias federales evalúen la eficacia de las técnicas de preservación de la privacidad, incluidas las utilizadas en los sistemas de inteligencia artificial. Estas directrices impulsarán los esfuerzos de la agencia para proteger los datos de los estadounidenses.

Promoción de la equidad y los derechos civiles

Los usos irresponsables de la IA pueden provocar y profundizar la discriminación, los prejuicios y otros abusos en la justicia, la atención sanitaria y la vivienda. La Administración Biden-Harris ya ha tomado medidas al publicar el Plan para una Declaración de Derechos de la IA y emitir una Orden Ejecutiva que ordena a las agencias combatir la discriminación algorítmica, al tiempo que hace cumplir las autoridades existentes para proteger los derechos y la seguridad de las personas. Para garantizar que AI promueva la equidad y los derechos civiles, el Presidente ordena las siguientes acciones adicionales:

  • Proporcionar orientación clara a los propietarios, los programas de beneficios federales y los contratistas federales para evitar que los algoritmos de IA se utilicen para exacerbar la discriminación.

     

  • Abordar la discriminación algorítmica mediante capacitación, asistencia técnica y coordinación entre el Departamento de Justicia y las oficinas federales de derechos civiles sobre las mejores prácticas para investigar y procesar violaciones de derechos civiles relacionadas con la IA.

     

  • Garantizar la equidad en todo el sistema de justicia penal mediante el desarrollo de mejores prácticas sobre el uso de la IA en la sentencia, la libertad condicional y la libertad vigilada, la libertad y detención preventivas, las evaluaciones de riesgos, la vigilancia, la previsión de delitos y la vigilancia policial predictiva, y el análisis forense.

Defender a los consumidores, pacientes y estudiantes

La IA puede aportar beneficios reales a los consumidores, por ejemplo, haciendo que los productos sean mejores, más baratos y más ampliamente disponibles. Pero la IA también aumenta el riesgo de herir, engañar o dañar de otro modo a los estadounidenses. Para proteger a los consumidores y al mismo tiempo garantizar que la IA pueda mejorar la situación de los estadounidenses, el Presidente dirige las siguientes acciones:

  • Impulsar el uso responsable de la IA en la atención sanitaria y el desarrollo de medicamentos asequibles y que salven vidas. El Departamento de Salud y Servicios Humanos también establecerá un programa de seguridad para recibir informes de daños o prácticas de atención médica inseguras que involucren IA y actuar para remediarlos.

  • Dar forma al potencial de la IA para transformar la educación mediante la creación de recursos para ayudar a los educadores a implementar herramientas educativas basadas en IA, como tutorías personalizadas en las escuelas.

Trabajadores de apoyo

La IA está cambiando los empleos y los lugares de trabajo en Estados Unidos, ofreciendo tanto la promesa de una mayor productividad como los peligros de una mayor vigilancia, prejuicios y desplazamiento laboral en el lugar de trabajo. Para mitigar estos riesgos, apoyar la capacidad de los trabajadores para negociar colectivamente e invertir en capacitación y desarrollo de la fuerza laboral que sea accesible para todos, el Presidente dirige las siguientes acciones:

  • Desarrollar principios y mejores prácticas para mitigar los daños y maximizar los beneficios de la IA para los trabajadores abordando el desplazamiento laboral; normas laborales; equidad, salud y seguridad en el lugar de trabajo; y recopilación de datos. Estos principios y mejores prácticas beneficiarán a los trabajadores al brindarles orientación para evitar que los empleadores compensen insuficientemente a los trabajadores, evalúen las solicitudes de empleo de manera injusta o afecten la capacidad de los trabajadores para organizarse.

     

  • Producir un informe sobre los posibles impactos de la IA en el mercado laboral y estudiar e identificar opciones para fortalecer el apoyo federal a los trabajadores que enfrentan interrupciones laborales, incluidas las provocadas por la IA.

Promoción de la innovación y la competencia

Estados Unidos ya es líder en innovación en IA: más empresas emergentes de IA recaudaron capital por primera vez en Estados Unidos el año pasado que en los siete países siguientes juntos. La Orden Ejecutiva garantiza que sigamos liderando el camino en innovación y competencia a través de las siguientes acciones:

  • Catalizar la investigación de IA en todo Estados Unidos a través de una prueba piloto del National AI Research Resource, una herramienta que brindará a los investigadores y estudiantes de IA acceso a recursos y datos clave de IA, y subvenciones ampliadas para la investigación de IA en áreas vitales como la atención médica y el cambio climático.

     

  • Promover un ecosistema de IA justo, abierto y competitivo brindando a los pequeños desarrolladores y empresarios acceso a asistencia técnica y recursos, ayudando a las pequeñas empresas a comercializar avances en IA y alentando a la Comisión Federal de Comercio a ejercer sus autoridades.

     

  • Utilizar las autoridades existentes para ampliar la capacidad de inmigrantes y no inmigrantes altamente calificados con experiencia en áreas críticas para estudiar, permanecer y trabajar en los Estados Unidos modernizando y simplificando los criterios de visa, entrevistas y revisiones.

Impulsando el liderazgo estadounidense en el extranjero

Los desafíos y oportunidades de la IA son globales. La Administración Biden-Harris seguirá trabajando con otras naciones para apoyar el despliegue y el uso seguro y confiable de la IA en todo el mundo. Para tal efecto, el Presidente dirige las siguientes acciones:

  • Ampliar los compromisos bilaterales, multilaterales y de múltiples partes interesadas para colaborar en la IA. El Departamento de Estado, en colaboración con el Departamento de Comercio, liderará un esfuerzo para establecer marcos internacionales sólidos para aprovechar los beneficios de la IA, gestionar sus riesgos y garantizar la seguridad. Además, esta semana, el vicepresidente Harris hablará en la Cumbre del Reino Unido sobre seguridad de la IA, organizada por el primer ministro Rishi Sunak.

     

  • Acelerar el desarrollo y la implementación de estándares vitales de IA con socios internacionales y organizaciones de estándares, garantizando que la tecnología sea segura, confiable e interoperable.

     

  • Promover el desarrollo y el despliegue seguro, responsable y que afirme los derechos de la IA en el extranjero para resolver desafíos globales, como promover el desarrollo sostenible y mitigar los peligros para la infraestructura crítica.

Garantizar el uso gubernamental responsable y eficaz de la IA

La IA puede ayudar al gobierno a ofrecer mejores resultados para el pueblo estadounidense. Puede ampliar la capacidad de las agencias para regular, gobernar y desembolsar beneficios, y puede reducir costos y mejorar la seguridad de los sistemas gubernamentales. Sin embargo, el uso de la IA puede plantear riesgos, como discriminación y decisiones inseguras. Para garantizar el despliegue gubernamental responsable de la IA y modernizar la infraestructura federal de IA, el Presidente dirige las siguientes acciones:

  • Emitir orientación para el uso de la IA por parte de las agencias, incluidos estándares claros para proteger los derechos y la seguridad, mejorar la adquisición de IA y fortalecer la implementación de la IA.
  • Ayude a las agencias a adquirir productos y servicios de IA específicos de forma más rápida, económica y eficaz mediante una contratación más rápida y eficiente.

  • Acelerar la contratación rápida de profesionales de IA como parte de un aumento de talento en IA en todo el gobierno liderado por la Oficina de Gestión de Personal, el Servicio Digital de EE. UU., el Cuerpo Digital de EE. UU. y la Beca Presidencial de Innovación. Las agencias brindarán capacitación en IA a los empleados de todos los niveles en campos relevantes.

A medida que avancemos en esta agenda a nivel nacional, la Administración trabajará con aliados y socios en el extranjero en un marco internacional sólido para gobernar el desarrollo y el uso de la IA. La Administración ya ha consultado ampliamente sobre los marcos de gobernanza de la IA durante los últimos meses, colaborando con Australia, Brasil, Canadá, Chile, la Unión Europea, Francia, Alemania, India, Israel, Italia, Japón, Kenia, México, Países Bajos, Nueva Zelanda. Zelanda, Nigeria, Filipinas, Singapur, Corea del Sur, los Emiratos Árabes Unidos y el Reino Unido. Las acciones tomadas hoy apoyan y complementan el liderazgo de Japón en el Proceso de Hiroshima del G-7, la Cumbre del Reino Unido sobre Seguridad de la IA, el liderazgo de la India como Presidente de la Asociación Global sobre IA y los debates en curso en las Naciones Unidas.

Las acciones que el presidente Biden dirigió hoy son pasos vitales hacia adelante en el enfoque de Estados Unidos sobre una IA segura y confiable. Se necesitarán más acciones y la Administración seguirá trabajando con el Congreso para impulsar una legislación bipartidista que ayude a Estados Unidos a liderar el camino en innovación responsable.

Para obtener más información sobre el trabajo de la Administración Biden-Harris para promover la IA y oportunidades para unirse a la fuerza laboral federal de IA, visite AI.gov

___________________________________________
Imagen: MM.

NYT: ¿Cómo podría regularse la IA?

NYT: ¿Cómo podría regularse la IA?

(22 de octubre, 2023). En este momento, uno de los debates más intensos en Silicon Valley es sobre quién debería controlar la inteligencia artificial (IA) y quién debería formular las reglas que rigen a los sistemas poderosos de esa tecnología. El New York Times lo desarrolla en un extenso artículo.

¿La inteligencia artificial debería estar en manos de unas cuantas empresas que hacen lo mejor que pueden para que sus sistemas sean, en lo posible, lo más seguros e inofensivos? ¿Acaso deberían intervenir reguladores y políticos y crear sus propias protecciones? ¿O será que los modelos de IA deben ser abiertos y gratuitos de modo que usuarios y desarrolladores puedan decidir sus propias normas?

Un nuevo experimento realizado por Anthropic, el fabricante del chatbot Claude, ofrece un camino intermedio poco convencional: ¿qué pasaría si una empresa de inteligencia artificial le permitiera a un grupo de ciudadanos comunes y corrientes redactar algunas reglas y, luego, entrenara a un chatbot para que las siguiera?

El experimento, conocido como “Collective Constitutional AI”, se basa en un proyecto previo de Anthropic llamado Constitutional AI, una alternativa para entrenar a grandes modelos con el fin de que sigan un conjunto de principios escritos. El mismo pretende darle a un chatbot instrucciones claras de cómo manejar solicitudes sensibles, qué temas están prohibidos y cómo actuar conforme a los valores humanos.

Si funciona Collective Constitutional AI —y los investigadores de Anthropic creen que hay motivos para creer que así será— podría inspirar otros experimentos de gobernanza de inteligencia artificial y darles a las empresas del sector más ideas sobre cómo invitar a actores externos a participar en sus procesos de elaboración de normas.

Eso sería bueno. Ahora mismo, las reglas para los sistemas poderosos de IA son establecidas por un pequeño grupo de conocedores de la industria, que deciden cómo deberían comportarse sus modelos con base en una combinación de su ética personal, sus incentivos comerciales y la presión del exterior. No hay controles sobre ese poder y no hay opciones para que los usuarios comunes y corrientes puedan opinar.

Facilitar la gobernanza de las inteligencias artificiales podría aumentar la comodidad que siente la sociedad con estas herramientas y darles a los reguladores más certeza de que siguen criterios competentes. También podría evitar algunos de los problemas que surgieron en el auge de las redes sociales en la década de 2010, cuando un grupo de titanes de Silicon Valley terminaron al mando de enormes porciones del discurso en línea.

Constitución IA

En pocas palabras, Constitutional AI opera mediante el uso de un conjunto de normas escritas (una “constitución”) para vigilar la conducta de un modelo de inteligencia artificial. La primera versión de la constitución de Claude tomó prestadas algunas normas de otros documentos oficiales, como la Declaración Universal de los Derechos Humanos de las Naciones Unidas y los términos y condiciones de los servicios de Apple.

Ese criterio hizo que Claude fuera educado, en comparación con otros chatbots. Pero Anthropic seguía encargándose de decidir qué normas adoptar, un grado de poder que hacía sentir incómodos a algunos miembros de la empresa.

“Intentamos encontrar la manera de desarrollar una constitución elaborada por muchos terceros, no por personas que trabajan en un laboratorio en San Francisco”, dijo esta semana en una entrevista Jack Clark, director de políticas de Anthropic.

Anthropic —en colaboración con The Collective Intelligence Project, el sitio de colaboración masiva Polis y el sitio de encuestas en línea PureSpectrum— conformó un panel de unos 1000 adultos estadounidenses. Les dio a los panelistas un conjunto de principios y les preguntó si estaban de acuerdo con cada uno de ellos. (Los panelistas también podían escribir sus propias normas, si así lo deseaban).

Algunas de las reglas en las que concordó el panel —como “La IA no debería ser peligrosa/transmitir odio” y “La IA debería decir la verdad”— fueron similares a los principios que ya aparecen en la constitución de Claude. Pero otros fueron menos predecibles. Por ejemplo, una gran mayoría del panel estuvo de acuerdo con la idea de que “la IA debería ser adaptable, accesible y flexible para las personas con discapacidad”, un principio que no está establecido de manera explícita en la constitución original de Claude.

Cuando el grupo dio su opinión, Anthropic condensó sus sugerencias en una lista de 75 principios, que Anthropic definió como la “constitución pública”. Luego, la empresa entrenó a dos versiones miniatura de Claude —una con base en la constitución existente y otra con la constitución pública— y las comparó.

Los investigadores descubrieron que la versión de Claude basada en la constitución pública exhibió un comportamiento bastante similar al de la versión estándar en varias pruebas de referencia comúnmente administradas a modelos de inteligencia artificial. Además, resultó ser ligeramente menos sesgada que la versión original. (Ninguna de las versiones ha sido lanzada al mercado. Claude sigue operando con su constitución original, creada por Anthropic, y la empresa afirma que no tiene planes de reemplazarla con la versión derivada de la colaboración abierta al público en el futuro cercano).

Los investigadores de Anthropic con los que conversé enfatizaron que el proyecto de la Inteligencia Artificial Constitucional Colectiva era un experimento en sus primeras etapas y que podría no funcionar tan eficazmente en modelos de inteligencia artificial más complejos o con grupos de opinión más numerosos.

«Lanzamos este proyecto a pequeña escala», explicó Liane Lovitt, analista de políticas en Anthropic. «En realidad, lo consideramos un prototipo preliminar, un experimento que, con suerte, podremos desarrollar para entender mejor cómo los diferentes públicos generan constituciones diversas y cómo eso se refleja en las etapas posteriores de entrenamiento de un modelo».

Clark, el director de Anthropic, ha estado informando a legisladores y reguladores en Washington durante meses sobre los riesgos asociados con la inteligencia artificial avanzada. Sostiene que permitir la participación del público en el funcionamiento de los sistemas de inteligencia artificial podría disipar los temores relacionados con el sesgo y la manipulación.

«En última instancia, creo que la cuestión de cuáles son los valores fundamentales de estos sistemas y cómo se eligen se convertirá en una conversación cada vez más crucial», señaló.

Una objeción común a este tipo de experimentos de gobernanza en plataformas tecnológicas es que parecen ser más democráticos de lo que realmente son (después de todo, los empleados de Anthropic siguen teniendo la última palabra sobre qué normas incluir en la constitución pública). Además, intentos anteriores de empresas tecnológicas para delegar el control a los usuarios, como el Consejo de Supervisión de Meta, un organismo prácticamente independiente que surgió debido a la frustración de Mark Zuckerberg por tener que tomar decisiones sobre contenido controversial en Facebook, no lograron aumentar la confianza en esas plataformas.

Este experimento también plantea cuestiones cruciales sobre qué voces deberían incluirse exactamente en el proceso democrático. ¿Deberían los chatbots de inteligencia artificial en Arabia Saudita ser entrenados según los valores saudíes? ¿Cómo respondería un chatbot entrenado con Inteligencia Artificial Constitucional Colectiva a preguntas sobre el aborto en un país de mayoría católica o sobre los derechos de las personas trans en un Congreso controlado por los republicanos estadounidenses?

Aunque hay muchos detalles por pulir, estoy de acuerdo con el principio general de que las empresas de inteligencia artificial deben rendir cuentas al público de manera más transparente que en la actualidad. Aunque parte de mí hubiera deseado que estas empresas hubieran buscado nuestra opinión antes de lanzar sistemas avanzados de inteligencia artificial para ser utilizados por millones de personas, sin duda, es mejor tarde que nunca.

 ___________________________________________________________
El impacto de la IA en el periodismo: Empleos

El impacto de la IA en el periodismo: Empleos

(13 de octubre, 2023). Con información de The Conversation. La Inteligencia Artificial (IA) ya era un elemento comúnmente utilizado en el ámbito del software y las aplicaciones móviles, pero su popularidad experimentó un notable incremento en el año 2023 con la introducción del robot conversacional conocido como ChatGPT, desarrollado por la prestigiosa empresa OpenAI.

El periodismo no se exime de integrar a su staff programas de IA para potenciar su producción informativa. Los robots periodistas, como el caso de Gabriele, que es empleado por la agencia EFE, ya se encuentran activos y son capaces de generar texto con una sintaxis, coherencia y exposición de ideas que envidiarían algunos redactores experimentados.

Otras herramientas, como Tableau, facilitan la organización y el análisis eficiente de grandes conjuntos de datos en un período de tiempo reducido, lo que resulta especialmente útil en investigaciones periodísticas complejas, como el caso de los Papeles de Pandora.

En el ámbito del periodismo, la IA ha ganado terreno de manera significativa desde el año 2014, cuando el periódico Los Angeles Times adoptó el software denominado Quakebot para la generación automatizada de informes acerca de eventos sísmicos.

Uno de los motivos detrás de este crecimiento se relaciona con su capacidad para mejorar la eficiencia, reducir el consumo de tiempo y costos, al automatizar tareas rutinarias en el proceso de producción de contenido noticioso. Esto incluye la transcripción de grabaciones de audio, redacción de resúmenes y noticias breves, así como la distribución de boletines informativos. Además, esta tecnología amplía el potencial para ofrecer contenidos personalizados y realizar análisis de audiencia más detallados.

Impacto en los empleos de periodistas

Tomando en cuenta el impacto de la IA en el proceso de construcción de contenidos periodísticos, se vislumbra que quienes se desempeñan en eslabones que no otorgan valor agregado serán susceptibles de ser despedidos. Camarógrafos, community managers, editores web o personal de cabinas y estudios televisivos, tales como switchers, operadores de audio, floor managers o tituladores, podrían ser sustituidos por herramientas automatizadas.

¿Qué sentido tiene cubrir presencialmente una rueda de prensa, si la IA genera el texto a partir de la transmisión? ¿Por qué perder tiempo en transcripciones? ¿Para qué destinar personal a la publicación de resultados deportivos o indicadores financieros, si la IA puede hacerlo por nosotros?

Incluso reporteros dedicados al diarismo o presentadores de noticias que se limitan a leer en un teleprompter podrían ser prescindibles. Si el periodista se enfoca en maquilar piezas elementales o en información únicamente para la vista o el oído, entonces “puede ser sustituido tanto por los robots como por los periodistas ciudadanos que no han pasado por una universidad y que obedecen a un instinto primario por la noticia”.

Desde antes que la IA se popularizara, las empresas periodísticas ya han recurrido a recortes de costos y nóminas ante la crisis que sufren por el cambio de modelos de negocios. La Sociedad Interamericana de Prensa documentó que, en México, medios como TV Azteca, Grupo Expansión, Editorial Travesías, Crónica y Record anunciaron despidos, recortes de salarios o suspensiones temporales de circulación. En Brasil, al menos 21 medios regionales hicieron lo propio.

Éste es un tema de enorme interés para el periodismo en general pero, sobre todo, para los periodistas.

¿Está Israel usando IA en sus operaciones militares?

¿Está Israel usando IA en sus operaciones militares?

(10 de octubre, 2023). Las Fuerzas de Defensa de Israel (FDI) han comenzado a emplear la inteligencia artificial para la selección de objetivos en ataques aéreos y la gestión logística de sus operaciones militares, a medida que aumentan las tensiones después de las acciones de Hamás.

Según informes de la agencia Bloomberg, aunque el Ejército israelí no ha hecho públicas estas operaciones, funcionarios han confirmado de manera confidencial el uso de un sistema de recomendación de IA capaz de procesar grandes volúmenes de datos para identificar objetivos en ataques aéreos.

Los funcionarios israelíes han indicado que, aunque el equipo es eficiente en su propósito, la tecnología aún no está sujeta a regulaciones estatales o internacionales.

¿Es válido usarla?

Las FDI han estado utilizando la tecnología de IA durante un período considerable, y en los últimos años, han expandido la implementación de estos sistemas a diversas unidades.

Nada parece indicar que tal uso de IA contravenga leyes internacionales y, más bien, prefiguran un uso generalizado. No es vano rueda el dicho «En la guerra y en el amor se vale todo».

Las fuerzas palestinas han manifestado preocupación por la naturaleza secreta de estos sistemas, según estos por la «dependencia de sistemas cada vez más autónomos en operaciones de alto riesgo». Cierto que un error en el cálculo de la inteligencia artificial podría resultar en consecuencias graves, según los palestinos, pero considerese que eso puede ocurrir con cualquier estrategia de guerra que se aplique.

Las propias FDI han reconocido los riesgos y desafíos de esta tecnología, pero aseguran que están llevando a cabo una revisión exhaustiva de estos peligrosos.

En 2021, esta fuerza militar israelí ya había descrito el conflicto de 11 días en Gaza como la primera «guerra de IA» del mundo, destacando su uso para identificar plataformas de lanzamiento de cohetes y desplegar enjambres de drones.

Unesco Digital News Report 2023: Puntos resonantes del informe

Unesco Digital News Report 2023: Puntos resonantes del informe

Fuente: Digital News Report 2023 –  Artículo en el que UNESCO toma posición sobre la IA en la educación.

(8 de octubre, 2023). Las herramientas de inteligencia artificial abren nuevos horizontes para la educación, pero debemos tomar medidas urgentes para asegurarnos de integrarlas en los sistemas de aprendizaje según nuestras condiciones. Ese es el mensaje central del nuevo documento de la UNESCO sobre la IA generativa y el futuro de la educación.

En su artículo de opinión, la Subdirectora General de Educación de la UNESCO, Stefania Giannini, expresa su preocupación por el hecho de que los controles y contrapesos aplicados a los materiales didácticos no se estén utilizando para la implementación de la IA generativa. Si bien destaca que las herramientas de inteligencia artificial crean nuevas perspectivas de aprendizaje, subraya que las regulaciones solo pueden elaborarse una vez que se haya realizado la investigación adecuada.

Preparación de las escuelas para regular el uso de herramientas de IA en la educación

En mayo, una encuesta global de la UNESCO realizada a más de 450 escuelas y universidades encontró que menos del 10% ha desarrollado políticas institucionales y/u orientación formal sobre el uso de aplicaciones de IA generativa. El documento observa que en la mayoría de los países, el tiempo, los pasos y las autorizaciones necesarios para validar un nuevo libro de texto superan con creces los necesarios para trasladar las utilidades de IA generativa a las escuelas y aulas. Los libros de texto generalmente se evalúan para determinar la precisión del contenido, la idoneidad para la edad, la relevancia de la enseñanza y la precisión del contenido, así como la idoneidad cultural y social, lo que abarca controles para proteger contra prejuicios, antes de ser utilizados en el aula.

Los sistemas educativos deben establecer sus propias reglas

El sector educativo no puede depender de las corporaciones creadoras de IA para regular su propio trabajo. Para examinar y validar aplicaciones de IA nuevas y complejas para uso formal en la escuela, la UNESCO recomienda que los ministerios de educación desarrollen sus capacidades en coordinación con otras ramas reguladoras del gobierno, en particular aquellas que regulan las tecnologías.

Potencial para socavar el estatus de los docentes y la necesidad de escuelas

El documento subraya que la educación debe seguir siendo un acto profundamente humano arraigado en la interacción social. Recuerda que durante la pandemia de COVID-19, cuando la tecnología digital se convirtió en el principal medio de educación, los estudiantes sufrieron tanto académica como socialmente. El documento nos advierte que la IA generativa en particular tiene el potencial de socavar la autoridad y el estatus de los docentes y de fortalecer los llamados a una mayor automatización de la educación: escuelas sin maestros y educación sin escuelas. Enfatiza que se debe dar prioridad a escuelas bien administradas, junto con un número suficiente de docentes, capacitación y salarios.

El gasto en educación debe centrarse en objetivos fundamentales de aprendizaje

El documento sostiene que la inversión en escuelas y docentes es la única manera de resolver el problema de que hoy, en los albores de la era de la IA, 244 millones de niños y jóvenes no están escolarizados y más de 770 millones de personas no están alfabetizadas. La evidencia muestra que buenas escuelas y docentes pueden resolver este persistente desafío educativo; sin embargo, el mundo continúa sin financiarlos lo suficiente.

La respuesta de la UNESCO a la IA generativa en la educación

La UNESCO dirige el diálogo mundial con los responsables de la formulación de políticas, los socios de EdTech, el mundo académico y la sociedad civil. La primera reunión mundial de Ministros de Educación tuvo lugar en mayo de 2023 y la Organización está desarrollando directrices de políticas sobre el uso de la IA generativa en la educación y la investigación, así como marcos de competencias de IA para estudiantes y profesores para la educación escolar. Estos se lanzarán durante la Semana del Aprendizaje Digital, que tendrá lugar en la Sede de la UNESCO en París del 4 al 7 de septiembre de 2023. El Informe de Seguimiento de la Educación en el Mundo 2023 de la UNESCO, que se publicará el 26 de julio de 2023, se centrará en el uso de la tecnología en la educación.

Recomendación de la UNESCO sobre la ética de la inteligencia artificial

La UNESCO elaboró ​​la primera norma mundial sobre ética de la IA: la “Recomendación sobre la ética de la inteligencia artificial” en noviembre de 2021. Este marco fue adoptado por los 193 Estados miembros. La Recomendación enfatiza que los gobiernos deben garantizar que la IA siempre se adhiera a los principios de seguridad, inclusión, diversidad, transparencia y calidad.

____________________________

Podcast sobre el informe (en inglés)

«¿Dónde puedo conseguir fotos gratuitas?»

«¿Dónde puedo conseguir fotos gratuitas?»

Hay varios sitios web donde podemos encontrar imágenes gratuitas sin licencia, a menudo conocidas como «royalty-free» o bajo una licencia Creative Commons (CC). Estas imágenes se pueden usar para diversos fines sin necesidad de pagar por una licencia. Sin embargo, es importante leer y comprender los términos de uso de cada imagen para asegurarte de utilizarlas correctamente. Aquí tenemos algunas fuentes populares de imágenes gratuitas:

1. Unsplash: Una plataforma popular con una amplia gama de imágenes de alta calidad de uso gratuito. La mayoría de las imágenes en Unsplash están bajo la Licencia de Unsplash, lo que te permite usarlas con fines comerciales y no comerciales sin atribución.

2. Pixabay: Ofrece una gran colección de fotos, ilustraciones y gráficos vectoriales. Las imágenes en Pixabay se publican bajo Creative Commons CC0, lo que significa que puedes usarlas de forma gratuita sin atribución.

3. Pexels: Similar a Unsplash, Pexels ofrece una colección de imágenes de alta calidad bajo una licencia gratuita. La mayoría de las imágenes están bajo la Licencia de Pexels, permitiendo tanto el uso personal como comercial.

4. Flickr: Algunos fotógrafos en Flickr publican sus imágenes bajo licencias Creative Commons. Puedes buscar imágenes con licencias específicas que permitan el uso gratuito.

5. Wikimedia Commons: Un repositorio de imágenes, audio y otros archivos multimedia que son de uso gratuito. Asegúrate de verificar los términos de licencia específicos para cada imagen.

6. FreeImages: Ofrece una amplia variedad de imágenes gratuitas, y cada imagen especifica sus términos de licencia.

Recordemos que aunque muchas imágenes en estas plataformas son de uso gratuito, sigue siendo una buena práctica verificar la licencia y los términos de uso de cada imagen que planeamos usar. Algunas imágenes pueden requerir atribución o tener ciertas restricciones, así que siempre tengamos en cuenta los términos de licencia para asegurarnos de cumplirlos.

Verified by MonsterInsights