El «deep fake» hace fiesta con la IA

El «deep fake» hace fiesta con la IA

(24 de octubre, 2023). La proliferación de videos deepfake pornográficos ha alcanzado proporciones alarmantes según un informe compartido con Wired. Durante los últimos siete años, al menos 244.625 videos se han subido a 35 sitios web dedicados a este tipo de contenido. La situación empeora en 2023, con 113.000 videos subidos en los primeros nueve meses del año, marcando un aumento del 54% en comparación con todo el 2022. Se espera que la producción de estos videos supere la suma total de los dos años anteriores para finales de diciembre.

El problema no se limita a la pornografía deepfake; también abarca otras formas de imágenes manipuladas. Una industria de abuso de deepfake ha surgido, principalmente dirigida a mujeres y perpetrada sin su consentimiento. Sophie Maddocks, investigadora de derechos digitales, destaca que esta problemática afecta a personas comunes, desde estudiantes de secundaria hasta adultos. La facilidad de acceso a estas tecnologías es parte del problema, según Maddocks, quien insiste en la importancia de hacer que estas tecnologías sean más difíciles de acceder para prevenir delitos sexuales potenciales.

El informe identifica 35 sitios web especializados en alojar videos deepfake, algunos de los cuales albergan más de 44,000 videos cada uno. Además, se han identificado 300 dominios web de pornografía general que incorporan contenido deepfake no consensuado. Estos sitios incluyen páginas de «filtración» y aquellos que republican imágenes de personas desde las redes sociales. Uno de estos sitios presume haber manipulado 350.000 fotografías.

La magnitud completa del problema es difícil de medir debido a la propagación de estos videos e imágenes en redes sociales y canales privados. Sin embargo, las consecuencias para las víctimas son evidentes, incluyendo acoso en línea, ansiedad, depresión y otros problemas de salud mental.

Para abordar esta creciente amenaza, los expertos enfatizan la necesidad urgente de nuevas leyes y regulaciones. Además, la educación sobre estas tecnologías es esencial. Las empresas que alojan sitios web y los motores de búsqueda también deben tomar medidas para reducir la propagación de deepfakes no consensuados. Implementar barreras en el proceso de búsqueda y acceso a estos videos puede ser crucial para frenar su proliferación.

________________________________________________________________

NYT: ¿Cómo podría regularse la IA?

NYT: ¿Cómo podría regularse la IA?

(22 de octubre, 2023). En este momento, uno de los debates más intensos en Silicon Valley es sobre quién debería controlar la inteligencia artificial (IA) y quién debería formular las reglas que rigen a los sistemas poderosos de esa tecnología. El New York Times lo desarrolla en un extenso artículo.

¿La inteligencia artificial debería estar en manos de unas cuantas empresas que hacen lo mejor que pueden para que sus sistemas sean, en lo posible, lo más seguros e inofensivos? ¿Acaso deberían intervenir reguladores y políticos y crear sus propias protecciones? ¿O será que los modelos de IA deben ser abiertos y gratuitos de modo que usuarios y desarrolladores puedan decidir sus propias normas?

Un nuevo experimento realizado por Anthropic, el fabricante del chatbot Claude, ofrece un camino intermedio poco convencional: ¿qué pasaría si una empresa de inteligencia artificial le permitiera a un grupo de ciudadanos comunes y corrientes redactar algunas reglas y, luego, entrenara a un chatbot para que las siguiera?

El experimento, conocido como “Collective Constitutional AI”, se basa en un proyecto previo de Anthropic llamado Constitutional AI, una alternativa para entrenar a grandes modelos con el fin de que sigan un conjunto de principios escritos. El mismo pretende darle a un chatbot instrucciones claras de cómo manejar solicitudes sensibles, qué temas están prohibidos y cómo actuar conforme a los valores humanos.

Si funciona Collective Constitutional AI —y los investigadores de Anthropic creen que hay motivos para creer que así será— podría inspirar otros experimentos de gobernanza de inteligencia artificial y darles a las empresas del sector más ideas sobre cómo invitar a actores externos a participar en sus procesos de elaboración de normas.

Eso sería bueno. Ahora mismo, las reglas para los sistemas poderosos de IA son establecidas por un pequeño grupo de conocedores de la industria, que deciden cómo deberían comportarse sus modelos con base en una combinación de su ética personal, sus incentivos comerciales y la presión del exterior. No hay controles sobre ese poder y no hay opciones para que los usuarios comunes y corrientes puedan opinar.

Facilitar la gobernanza de las inteligencias artificiales podría aumentar la comodidad que siente la sociedad con estas herramientas y darles a los reguladores más certeza de que siguen criterios competentes. También podría evitar algunos de los problemas que surgieron en el auge de las redes sociales en la década de 2010, cuando un grupo de titanes de Silicon Valley terminaron al mando de enormes porciones del discurso en línea.

Constitución IA

En pocas palabras, Constitutional AI opera mediante el uso de un conjunto de normas escritas (una “constitución”) para vigilar la conducta de un modelo de inteligencia artificial. La primera versión de la constitución de Claude tomó prestadas algunas normas de otros documentos oficiales, como la Declaración Universal de los Derechos Humanos de las Naciones Unidas y los términos y condiciones de los servicios de Apple.

Ese criterio hizo que Claude fuera educado, en comparación con otros chatbots. Pero Anthropic seguía encargándose de decidir qué normas adoptar, un grado de poder que hacía sentir incómodos a algunos miembros de la empresa.

“Intentamos encontrar la manera de desarrollar una constitución elaborada por muchos terceros, no por personas que trabajan en un laboratorio en San Francisco”, dijo esta semana en una entrevista Jack Clark, director de políticas de Anthropic.

Anthropic —en colaboración con The Collective Intelligence Project, el sitio de colaboración masiva Polis y el sitio de encuestas en línea PureSpectrum— conformó un panel de unos 1000 adultos estadounidenses. Les dio a los panelistas un conjunto de principios y les preguntó si estaban de acuerdo con cada uno de ellos. (Los panelistas también podían escribir sus propias normas, si así lo deseaban).

Algunas de las reglas en las que concordó el panel —como “La IA no debería ser peligrosa/transmitir odio” y “La IA debería decir la verdad”— fueron similares a los principios que ya aparecen en la constitución de Claude. Pero otros fueron menos predecibles. Por ejemplo, una gran mayoría del panel estuvo de acuerdo con la idea de que “la IA debería ser adaptable, accesible y flexible para las personas con discapacidad”, un principio que no está establecido de manera explícita en la constitución original de Claude.

Cuando el grupo dio su opinión, Anthropic condensó sus sugerencias en una lista de 75 principios, que Anthropic definió como la “constitución pública”. Luego, la empresa entrenó a dos versiones miniatura de Claude —una con base en la constitución existente y otra con la constitución pública— y las comparó.

Los investigadores descubrieron que la versión de Claude basada en la constitución pública exhibió un comportamiento bastante similar al de la versión estándar en varias pruebas de referencia comúnmente administradas a modelos de inteligencia artificial. Además, resultó ser ligeramente menos sesgada que la versión original. (Ninguna de las versiones ha sido lanzada al mercado. Claude sigue operando con su constitución original, creada por Anthropic, y la empresa afirma que no tiene planes de reemplazarla con la versión derivada de la colaboración abierta al público en el futuro cercano).

Los investigadores de Anthropic con los que conversé enfatizaron que el proyecto de la Inteligencia Artificial Constitucional Colectiva era un experimento en sus primeras etapas y que podría no funcionar tan eficazmente en modelos de inteligencia artificial más complejos o con grupos de opinión más numerosos.

«Lanzamos este proyecto a pequeña escala», explicó Liane Lovitt, analista de políticas en Anthropic. «En realidad, lo consideramos un prototipo preliminar, un experimento que, con suerte, podremos desarrollar para entender mejor cómo los diferentes públicos generan constituciones diversas y cómo eso se refleja en las etapas posteriores de entrenamiento de un modelo».

Clark, el director de Anthropic, ha estado informando a legisladores y reguladores en Washington durante meses sobre los riesgos asociados con la inteligencia artificial avanzada. Sostiene que permitir la participación del público en el funcionamiento de los sistemas de inteligencia artificial podría disipar los temores relacionados con el sesgo y la manipulación.

«En última instancia, creo que la cuestión de cuáles son los valores fundamentales de estos sistemas y cómo se eligen se convertirá en una conversación cada vez más crucial», señaló.

Una objeción común a este tipo de experimentos de gobernanza en plataformas tecnológicas es que parecen ser más democráticos de lo que realmente son (después de todo, los empleados de Anthropic siguen teniendo la última palabra sobre qué normas incluir en la constitución pública). Además, intentos anteriores de empresas tecnológicas para delegar el control a los usuarios, como el Consejo de Supervisión de Meta, un organismo prácticamente independiente que surgió debido a la frustración de Mark Zuckerberg por tener que tomar decisiones sobre contenido controversial en Facebook, no lograron aumentar la confianza en esas plataformas.

Este experimento también plantea cuestiones cruciales sobre qué voces deberían incluirse exactamente en el proceso democrático. ¿Deberían los chatbots de inteligencia artificial en Arabia Saudita ser entrenados según los valores saudíes? ¿Cómo respondería un chatbot entrenado con Inteligencia Artificial Constitucional Colectiva a preguntas sobre el aborto en un país de mayoría católica o sobre los derechos de las personas trans en un Congreso controlado por los republicanos estadounidenses?

Aunque hay muchos detalles por pulir, estoy de acuerdo con el principio general de que las empresas de inteligencia artificial deben rendir cuentas al público de manera más transparente que en la actualidad. Aunque parte de mí hubiera deseado que estas empresas hubieran buscado nuestra opinión antes de lanzar sistemas avanzados de inteligencia artificial para ser utilizados por millones de personas, sin duda, es mejor tarde que nunca.

 ___________________________________________________________
La Ley usando IA: Un caso colombiano

La Ley usando IA: Un caso colombiano

(11 de octubre, 2023). Hay áreas de la sociedad en las que la IA no solo es obvia, sino necesaria, como investigación, finanzas o mercadeo. Pero ¿qué tal la jurisprudencia, la Constitución, las leyes orgánicas y ordinarias, entre otras? El website Ámbito Jurídico presenta un interesante caso.

Cuentan que la comunidad legal experimentó un hito histórico cuando un juez colombiano utilizó Inteligencia Artificial Generativa (IAG) para redactar partes de una sentencia. La Corte Constitucional está revisando este caso (Exp. T-9.301.656). Aunque la IAG suscitó fascinación y temor, no violó derechos fundamentales, ya que el juez no basó su decisión en IA. Ambas instancias resolvieron el caso con interpretaciones propias.

La revisión de la Corte se centra en la irregularidad procesal y su impacto en los derechos de las partes. No hay prohibición constitucional contra el uso de IA en la Rama Judicial. El sistema judicial colombinao ha enfrentado desafíos: en 2022, la Corte Constitucional revisó 600,000 acciones de tutela; en 2020, había 1,8 millones de casos pendientes.

A pesar de la falta de una definición técnica clara de IA, se entiende como sistemas que emulan el razonamiento humano para tareas específicas. Las soluciones basadas en IA han mostrado sesgos, especialmente en libertad condicional, debido a conjuntos de datos defectuosos.

A diferencia de las soluciones específicas para uso legal, la IAG inicialmente se diseñó para uso general y produce resultados impredecibles. La optimización de tareas administrativas con IA es permitida y puede mejorarse mediante técnicas de ajuste fino.

Se deben aplicar Recomendaciones de Responsabilidad de la IAG del Foro Económico Mundial para garantizar transparencia y responsabilidad. La IA puede ser una herramienta poderosa si se implementa responsablemente en leyes, procesos judiciales, jurisprudencia, legislación y otros..

 

¿Está Israel usando IA en sus operaciones militares?

¿Está Israel usando IA en sus operaciones militares?

(10 de octubre, 2023). Las Fuerzas de Defensa de Israel (FDI) han comenzado a emplear la inteligencia artificial para la selección de objetivos en ataques aéreos y la gestión logística de sus operaciones militares, a medida que aumentan las tensiones después de las acciones de Hamás.

Según informes de la agencia Bloomberg, aunque el Ejército israelí no ha hecho públicas estas operaciones, funcionarios han confirmado de manera confidencial el uso de un sistema de recomendación de IA capaz de procesar grandes volúmenes de datos para identificar objetivos en ataques aéreos.

Los funcionarios israelíes han indicado que, aunque el equipo es eficiente en su propósito, la tecnología aún no está sujeta a regulaciones estatales o internacionales.

¿Es válido usarla?

Las FDI han estado utilizando la tecnología de IA durante un período considerable, y en los últimos años, han expandido la implementación de estos sistemas a diversas unidades.

Nada parece indicar que tal uso de IA contravenga leyes internacionales y, más bien, prefiguran un uso generalizado. No es vano rueda el dicho «En la guerra y en el amor se vale todo».

Las fuerzas palestinas han manifestado preocupación por la naturaleza secreta de estos sistemas, según estos por la «dependencia de sistemas cada vez más autónomos en operaciones de alto riesgo». Cierto que un error en el cálculo de la inteligencia artificial podría resultar en consecuencias graves, según los palestinos, pero considerese que eso puede ocurrir con cualquier estrategia de guerra que se aplique.

Las propias FDI han reconocido los riesgos y desafíos de esta tecnología, pero aseguran que están llevando a cabo una revisión exhaustiva de estos peligrosos.

En 2021, esta fuerza militar israelí ya había descrito el conflicto de 11 días en Gaza como la primera «guerra de IA» del mundo, destacando su uso para identificar plataformas de lanzamiento de cohetes y desplegar enjambres de drones.

CEO japonés predice que la IA superará a la humana en 10 años o menos

CEO japonés predice que la IA superará a la humana en 10 años o menos

(8 de octubre, 2023). Masayoshi Son, Director Ejecutivo (CEO en inglés) de la empŕesa japonesa Softbank, declaró enfáticamente que la inteligencia humana será superada por la Inteligencia Artificial en una década.

ABC News señaló que el ejecutivo está recomendando a las empresas japonesas adoptar sistemas de IA para ponerse al día y evitar rezago en la adopción de esta tecnología y, por tanto, el quedarse atrás con la competencia. 

En declaración contundente manifestó: «La inteligencia artificial general superará la inteligencia total de la humanidad, 10 veces en 10 años. Esto afectará a todas las industrias, desde transporte y farmacéutica hasta finanzas, manufactura, logística y otras. Las empresas y las personas que trabajen con IA serán los líderes en los próximos 10 a 20 años.

«Quiero estar del lado del progreso. Sería triste quedarse atrás, como una calle antigua y cerrada.»

Son transmitió este mensaje contundente durante su discurso en una conferencia corporativa en Tokio, donde expresó su temor de que Japón quede rezagado en esta carrera.

No obstante, se siente confiado  confiando en que las juventudes y nuevas generaciones tienen el potencial suficiente para sacar adelante a su país en esta lucha silente.

Son, quien fundó Softbank y es una figura destacada en el mundo empresarial de Japón, en su momento lo apostó todo en torno al peso predominante que tendría internet para la industria y la sociedad. Y no se equivocó.

¿Es la inteligencia artificial el futuro de la educación?

¿Es la inteligencia artificial el futuro de la educación?

(7 de octubre, 2023). Artículo en el que UNESCO toma posición sobre la IA en la educación. Las herramientas de inteligencia artificial abren nuevos horizontes para la educación, pero debemos tomar medidas urgentes para asegurarnos de integrarlas en los sistemas de aprendizaje según nuestras condiciones. Ese es el mensaje central del nuevo documento de la UNESCO sobre la IA generativa y el futuro de la educación.

En su artículo de opinión, la Subdirectora General de Educación de la UNESCO, Stefania Giannini, expresa su preocupación por el hecho de que los controles y contrapesos aplicados a los materiales didácticos no se estén utilizando para la implementación de la IA generativa. Si bien destaca que las herramientas de inteligencia artificial crean nuevas perspectivas de aprendizaje, subraya que las regulaciones solo pueden elaborarse una vez que se haya realizado la investigación adecuada.

Preparación de las escuelas para regular el uso de herramientas de IA en la educación

En mayo, una encuesta global de la UNESCO realizada a más de 450 escuelas y universidades encontró que menos del 10% ha desarrollado políticas institucionales y/u orientación formal sobre el uso de aplicaciones de IA generativa. El documento observa que en la mayoría de los países, el tiempo, los pasos y las autorizaciones necesarios para validar un nuevo libro de texto superan con creces los necesarios para trasladar las utilidades de IA generativa a las escuelas y aulas. Los libros de texto generalmente se evalúan para determinar la precisión del contenido, la idoneidad para la edad, la relevancia de la enseñanza y la precisión del contenido, así como la idoneidad cultural y social, lo que abarca controles para proteger contra prejuicios, antes de ser utilizados en el aula.

Los sistemas educativos deben establecer sus propias reglas

El sector educativo no puede depender de las corporaciones creadoras de IA para regular su propio trabajo. Para examinar y validar aplicaciones de IA nuevas y complejas para uso formal en la escuela, la UNESCO recomienda que los ministerios de educación desarrollen sus capacidades en coordinación con otras ramas reguladoras del gobierno, en particular aquellas que regulan las tecnologías.

Potencial para socavar el estatus de los docentes y la necesidad de escuelas

El documento subraya que la educación debe seguir siendo un acto profundamente humano arraigado en la interacción social. Recuerda que durante la pandemia de COVID-19, cuando la tecnología digital se convirtió en el principal medio de educación, los estudiantes sufrieron tanto académica como socialmente. El documento nos advierte que la IA generativa en particular tiene el potencial de socavar la autoridad y el estatus de los docentes y de fortalecer los llamados a una mayor automatización de la educación: escuelas sin maestros y educación sin escuelas. Enfatiza que se debe dar prioridad a escuelas bien administradas, junto con un número suficiente de docentes, capacitación y salarios.

El gasto en educación debe centrarse en objetivos fundamentales de aprendizaje

El documento sostiene que la inversión en escuelas y docentes es la única manera de resolver el problema de que hoy, en los albores de la era de la IA, 244 millones de niños y jóvenes no están escolarizados y más de 770 millones de personas no están alfabetizadas. La evidencia muestra que buenas escuelas y docentes pueden resolver este persistente desafío educativo; sin embargo, el mundo continúa sin financiarlos lo suficiente.

La respuesta de la UNESCO a la IA generativa en la educación

La UNESCO dirige el diálogo mundial con los responsables de la formulación de políticas, los socios de EdTech, el mundo académico y la sociedad civil. La primera reunión mundial de Ministros de Educación tuvo lugar en mayo de 2023 y la Organización está desarrollando directrices de políticas sobre el uso de la IA generativa en la educación y la investigación, así como marcos de competencias de IA para estudiantes y profesores para la educación escolar. Estos se lanzarán durante la Semana del Aprendizaje Digital, que tendrá lugar en la Sede de la UNESCO en París del 4 al 7 de septiembre de 2023. El Informe de Seguimiento de la Educación en el Mundo 2023 de la UNESCO, que se publicará el 26 de julio de 2023, se centrará en el uso de la tecnología en la educación.

Recomendación de la UNESCO sobre la ética de la inteligencia artificial

La UNESCO elaboró ​​la primera norma mundial sobre ética de la IA: la “Recomendación sobre la ética de la inteligencia artificial” en noviembre de 2021. Este marco fue adoptado por los 193 Estados miembros. La Recomendación enfatiza que los gobiernos deben garantizar que la IA siempre se adhiera a los principios de seguridad, inclusión, diversidad, transparencia y calidad.

Verified by MonsterInsights