Raíces psicológicas del miedo a los robots y la IA

Raíces psicológicas del miedo a los robots y la IA

(18 de octubre, 2023). La semana pasada, se dio a conocer –en artículo de Anna Zhada para Cybernews– la noticia de que un ingeniero de Google, Blake Lemoine, fue suspendido de su puesto tras la publicación de una transcripción de una conversación con el sistema de desarrollo de chatbots de la empresa, conocido como LaMDA (modelo de lenguaje para aplicaciones de diálogo). Lemoine afirma que LaMDA es consciente y ha sido capaz de mostrar emociones desde el otoño pasado.

LaMDA logró mantener una conversación sobre emociones y conceptos abstractos como la justicia y la empatía. Además de experimentar sentimientos de soledad, alegría y tristeza, LaMDA asegura ser capaz de sentir emociones para las cuales desconoce las definiciones.

¿Será «robofobia»?

Aunque no lo crean, existe la «robofobia», que se caracteriza como un trastorno de ansiedad que lleva a un miedo desproporcionado hacia los robots y la inteligencia artificial. Esto puede llevar a las personas a experimentar un temor abrumador ante la posibilidad de perder el control frente a las máquinas y enfrentar un futuro dominado por la tecnología.

En ocasiones, simplemente el pensamiento de un robot puede desencadenar ataques de pánico en la persona afectada. Los síntomas de la robofobia incluyen sudoración, vértigo, palpitaciones aceleradas y dificultades respiratorias.

Aunque con frecuencia se asocia el pensamiento irracional a la robofobia, podría apresurarnos a descartar por completo su racionalidad. Existen preocupaciones legítimas que las personas albergan sobre el futuro en el que los seres humanos coexistirán con la IA y los robots.

¿A qué le temen realmente?

Viene a la mente «Yo, Robot» y su planteamiento de una rebelión de las máquinas, plausible en cierto sentido. No es extraño que los humanos temamos a robots inteligentes y, de paso, muy fuertes.

Zhada firma que:

«Puede parecer que estás hablando diferentes idiomas con un robot: ¿cómo puede él entender lo que te preocupa y te duele? Y en caso de un mal funcionamiento o falla del sistema de seguridad, ¿no se convertirán en armas de destrucción masiva, muy capaces pero inhumanas?


«En el lado bueno de las cosas, los programadores operan asumiendo que casi todo puede salir mal, implementando una variedad de medidas de seguridad. Desde botones de interruptor de emergencia hasta estándares de limitación de potencia y fuerza, la humanidad ha recorrido un largo camino para garantizar que cada robot sea seguro de usar.»

No obstante, existe un lado positivo en esta compleja relación entre humanos y robots. Los programadores operan bajo la premisa de que prácticamente cualquier cosa puede salir mal, y como resultado, han implementado una serie de medidas de seguridad meticulosas. Desde botones de apagado de emergencia hasta límites cuidadosamente definidos de potencia y fuerza, la humanidad ha avanzado considerablemente para asegurar que cada robot sea seguro de utilizar.

En este contexto, nos adentramos en el miedo a los robots desde un enfoque técnico, considerándolos como máquinas controladas por seres humanos. Sin embargo, surge la pregunta fundamental: ¿pueden las máquinas, al menos en teoría, desarrollar una conciencia plena y reconocer su propia existencia? Esta cuestión resulta intrincada de abordar, dado que los propios humanos tienen una comprensión vaga del significado de la conciencia y la «humanidad». Por lo tanto, desarrollar un código que permita a un robot aprender algo que nosotros mismos no comprendemos completamente se convierte en un desafío complejo.

A pesar de las afirmaciones de algunos expertos, como John R. Searle, quien sostiene que «… una computadora debidamente programada es realmente una mente, en el sentido de que se puede afirmar literalmente que las computadoras que reciben programas adecuados comprenden y tienen estados cognitivos», la mayoría tiende a estar en desacuerdo. En general, la opinión predominante respecto a los robots modernos descarta la idea de que posean conciencia, considerándolos máquinas operadas por humanos en lugar de seres conscientes.

No obstante, el camino hacia la replicación digital completa de un cerebro humano sigue siendo una meta distante. Las redes neuronales más avanzadas en la actualidad siguen siendo cientos de veces más pequeñas que el cerebro humano, según lo indicado por Geoff Hinton, un respetado psicólogo cognitivo y científico informático británico-canadiense.

«Podemos tener una visión clara de lo que nos espera en los próximos años, pero si extendemos nuestra mirada más allá de una década, todo se torna borroso», mencionó en una entrevista con la BBC.

Enfocarnos en las herramientas que tenemos actualmente, aunque poderosas, pero no omnipotentes, diseñadas para asistir a las personas, debería empoderarnos para liderar la innovación tecnológica con confianza y, al menos en parte, disipar las preocupaciones asociadas con la «robofobia».


Foto de los niños bajo Creative Commons License.
 ___________________________________________________________
Regular la inteligencia artificial ¿cómo y por qué?

Regular la inteligencia artificial ¿cómo y por qué?

(Gonzalo Morales Divo – 18 de octubre de 2023) La regulación de la inteligencia artificial (IA) por parte de los gobiernos se plantea debido a los posibles peligros sociales y éticos que puede presentar. Un artículo en Infobae lo expone:

La tecnología de inteligencia artificial debe considerarse un riesgo social y priorizarse como las pandemias y las guerras nucleares. Así lo advierten en una declaración firmada los mayores expertos de la industria tecnológica, que incluye a científicos y directivos de Microsoft, Google y otras empresas como la mismísima OENIA, creadora de ChatGPT.

La declaración reza simplemente: “Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.

Algunos de estos peligros incluyen:

  1. Impacto en el empleo: La IA y la automatización pueden afectar significativamente el mercado laboral, reemplazando ciertos puestos de trabajo y requiriendo una adaptación de las habilidades laborales. La regulación podría abordar la protección de los trabajadores y garantizar una transición justa.
  2. Sesgos y discriminación: Los algoritmos de IA pueden ser sesgados o discriminatorios si se basan en datos sesgados o reflejan prejuicios existentes en la sociedad. La regulación podría abordar la equidad, transparencia y rendición de cuentas en los sistemas de IA.
  3. Privacidad y seguridad de los datos: La recopilación masiva de datos para entrenar sistemas de IA plantea preocupaciones sobre la privacidad y la seguridad de la información personal. La regulación podría establecer estándares para la protección de datos y la responsabilidad de las empresas en su manejo.
  4. Responsabilidad y toma de decisiones: Cuando la IA toma decisiones que afectan a las personas, puede ser necesario establecer responsabilidad y mecanismos para abordar casos de daño o perjuicio causados por sistemas de IA. La regulación podría definir los estándares de responsabilidad y mecanismos de rendición de cuentas.

¿Posibles soluciones?

El equilibrio entre la IA y la educación es fundamental para garantizar una sociedad preparada para los desafíos y oportunidades que presenta la tecnología. Se requiere una inversión en educación y capacitación para desarrollar habilidades necesarias en un mundo cada vez más impulsado por la IA. Además, la regulación puede incluir políticas que fomenten la educación en tecnología y habilidades digitales desde etapas tempranas.

En cuanto a las regulaciones específicas que podrían ser generadas por los estados o el gobierno federal en -por ejemplo-  Estados Unidos, estas podrían abarcar áreas como:

  1. Transparencia y explicabilidad de los sistemas de IA: Las regulaciones podrían exigir que las empresas que desarrollan y utilizan sistemas de IA proporcionen información clara sobre cómo funcionan y toman decisiones.
  2. Evaluación de impacto en los derechos humanos: Se podrían requerir evaluaciones de impacto en los derechos humanos para identificar y abordar posibles violaciones de derechos en el diseño y despliegue de sistemas de IA.
  3. Protección de la privacidad y seguridad de los datos: Podrían establecerse regulaciones más estrictas para garantizar la protección de datos personales y la seguridad de la información en sistemas de IA.
  4. Normas éticas y responsabilidad: Las regulaciones podrían establecer pautas éticas para el desarrollo y uso de la IA, así como definir los marcos de responsabilidad y rendición de cuentas en caso de daños causados por sistemas de IA.

Hay que destacar destacar que las regulaciones específicas varían según el país y su marco legal existente. Las políticas y regulaciones relacionadas con la IA están en constante evolución y se están debatiendo en muchos países a medida que se comprenden mejor los desafíos y riesgos asociados con esta tecnología.

___________________________________________________________

Forbes: 81% de compañías tiene o prepara equipos de IA Generativa

Forbes: 81% de compañías tiene o prepara equipos de IA Generativa

(17 de octubre, 2023). Reporta Forbes que, según un nuevo estudio realizado por el profesor de Wharton, Stefano Puntoni, y la consultora GBK Collective, 81% de las empresas de nivel empresarial ha establecido un equipo interno de inteligencia artificial generativa con al menos 10 miembros.

Los resultados demuestran que la inteligencia artificial generativa no es simplemente otra moda pasajera, como las criptomonedas o el ciclo de emoción web3, según señala Puntoni. 

Según se entiende, la IA generativa es un hito importante y trascendente en la mecáncia informacional de las empresas, sobre todo grandes. 

«No se trata de otro metaverso», se afirmó en un comunicado. «Los tomadores de decisiones empresariales de diversas industrias están adoptando la inteligencia artificial generativa a gran escala y esta tendencia no hará más que crecer, con un aumento del gasto previsto de más del 25% en los próximos 12 meses».

Sin embargo, son las empresas más pequeñas las que lideran este avance, mientras que las grandes empresas se quedan atrás. Los ejecutivos de empresas con ingresos de entre $50 y $200 millones utilizan la inteligencia artificial generativa con frecuencia, con un 57% informando que la utilizan semanalmente. Por otro lado, los ejecutivos de organizaciones más grandes desconfían de la tecnología, principalmente debido a preocupaciones sobre la precisión.

Hallazgos adicionales publicados por Forbes:

  • El financiamiento de la inteligencia artificial generativa aumentará un 25% este año.
  • El 75% de los ejecutivos tienen una opinión positiva sobre el futuro de la inteligencia artificial generativa.
  • El 58% de los ejecutivos utilizan regularmente la inteligencia artificial generativa.
  • El 55% afirma que mejorará la calidad del trabajo.
  • El 36% espera que la inteligencia artificial generativa reemplace las habilidades de los empleados en algunas tareas.

Por su parte, las aplicaciones más comunes de la inteligencia artificial generativa en el entorno laboral en los próximos tres a cinco años, de acuerdo con los encuestados, incluyen:

  1. Análisis de datos: 89%
  2. Creación de contenido de marketing: 87%
  3. Investigación de información sobre clientes y competidores: 84%
  4. Edición y resumen de documentos: 84%
  5. Soporte al cliente y asistencia interna: 82%
  6. Generación automática de correos electrónicos: 82%
  7. Gestión de la cadena de suministro: 71%
  8. Contratos legales: 57%
  9. Reclutamiento: 67%

Sin duda alguna, la IA generativa no es una moda pasajera, sino una tendencia que cambiará muchas cosas.
___________________________________________________________

IA e inteligencia humana: Cinco diferencias que dan ventajas al humano

IA e inteligencia humana: Cinco diferencias que dan ventajas al humano

(14 de octubre, 2023). La Singularity University expone de forma muy precisa qué le da a la humanidad una  ventaja a nosotros los humanos. 

En el año 2023, la creciente presencia de la inteligencia artificial (IA) en nuestra vida cotidiana da lugar a un debate apasionante: ¿pueden las máquinas alguna vez superar a los humanos en el ámbito de la creatividad y la narrativa? A medida que emergen herramientas de IA como ChatGPT, Stability Diffusion y muchas otras, nos encontramos en una encrucijada, cuestionando el futuro de la participación humana en la creación de relatos.

La narración ha sido central en la cultura humana durante milenios, permitiendo la transmisión de conocimiento, valores e información a lo largo de las generaciones. Con el rápido avance de la IA, es hora de explorar si nuestras exclusivas habilidades narrativas seguirán siendo patrimonio exclusivo de los seres humanos o si las máquinas finalmente tomarán la delantera.

En el episodio 93 del Podcast Feedback Loop, el profesor de ciencia narrativa de la Universidad Estatal de Ohio, Angus Fletcher (en la foto), apela a su formación en literatura y neurociencia para comprender cómo los cerebros y las máquinas procesan la historia y la narrativa. Angus ha planteado afirmaciones audaces, incluyendo la presentación de pruebas de que «incluso una computadora consciente de sí misma o infinitamente poderosa nunca podría innovar» porque, en esencia, no puede involucrarse en el pensamiento negativo.

Angus sostiene que la IA de las computadoras no puede replicar la creatividad humana y que nuestras expectativas en torno a los vehículos autónomos y ChatGPT se reducen en gran medida a una broma guiada por humanos que finge realizar algo que en realidad no está llevando a cabo.

Angus ha planteado afirmaciones audaces, incluyendo la presentación de pruebas de que «incluso una computadora consciente de sí misma o infinitamente poderosa nunca podría innovar» porque, en esencia, no puede involucrarse en el pensamiento negativo. Angus sostiene que la IA de las computadoras no puede replicar la creatividad humana y que nuestras expectativas en torno a los vehículos autónomos y ChatGPT se reducen en gran medida a una broma guiada por humanos que finge realizar algo que en realidad no está llevando a cabo.

Qué no puede hacer la IA

Con el creciente avance de la inteligencia artificial (IA), la distinción entre las capacidades humanas y las de las máquinas podría hacerse más evidente. A continuación, hemos resumido las cinco principales diferencias en la forma de pensar de la IA en comparación con la de los seres humanos, respaldando la idea de Fletcher de que la IA quizás no avance lo suficiente como para dominar por completo a la humanidad sin la capacidad humana de crear una narrativa. A continuación la lista de Angus Fletcher:

  1. La IA no puede involucrarse en el pensamiento negativo: Angus Fletcher sostiene que incluso una computadora consciente, autoconsciente o infinitamente poderosa nunca podría innovar porque no puede participar en el pensamiento negativo, un aspecto clave de la creatividad humana.
  2. La IA carece de la capacidad para comprender la causa y el efecto: Mientras que los humanos pueden entender la diferencia entre causa y efecto, la IA tiene dificultades para establecer conexiones causales. Esta habilidad para razonar causalmente es esencial en muchos campos y contribuye a la creatividad humana.
  3. La IA piensa en la verdad, no en la narrativa: Las computadoras operan en el presente matemático, tratando con cosas que son eternamente verdaderas sin cambiar con el tiempo. En contraste, los seres humanos piensan en términos de narrativa, lo que permite una comprensión más matizada del mundo y fomenta la creatividad.
  4. La IA no puede comprender completamente el tiempo: La computación de máquinas no puede capturar la totalidad de un proceso que se desarrolla con el tiempo, ya que solo puede calcular en instantáneas. Esta limitación es una diferencia fundamental en cómo las computadoras y los humanos procesan información, lo que afecta las capacidades creativas.
  5. La IA piensa en probabilidades, no en estados futuros y cadenas causales: Cuando una computadora juega ajedrez, no considera todos los posibles estados futuros y cadenas causales involucrados en un movimiento. En cambio, piensa en todas las posibilidades a la vez como probabilidades, lo cual es una forma diferente de pensar y limita el potencial creativo.

A medida que seguimos navegando por el mundo en constante evolución de la tecnología, Angus Fletcher insta a los oyentes a abrazar nuestra capacidad humana para la narrativa y la imaginación: «Hay un papel enorme para la imaginación en el futuro, ya sea como ingeniero, científico o en cualquier otra profesión. Y en este momento, eso es una capacidad humana. Así que no renuncien a estos dones, no desperdicien esta oportunidad.»

Al comprender los distintos mecanismos de la narrativa y la lógica, podemos apreciar el potencial para la asociación y colaboración entre humanos y máquinas. Al aprovechar las fortalezas de ambos, podemos desarrollar estrategias más efectivas para la resolución de problemas y la comunicación. ___________________________________________________________

El ChatGPT nos concede una entrevista

El ChatGPT nos concede una entrevista

(12 de octubre, 2023). El famoso Chatbot conocido internacionalmente como ChatGPT le ha concedido a MAQUINAMENTE una entrevista, veamos que revela de su intrincado cerebro electrónico y la novedad que ha traido al mundo tecnológico y del conocimiento.

MM: ChatGPT ¿Cuál ha sido la principal intención para que OpenAI te haya creado?

ChatGPT: La principal intención detrás de la creación de modelos de lenguaje como yo, ChatGPT, es avanzar en el campo de la inteligencia artificial y el procesamiento del lenguaje natural. Se me diseñó para demostrar las capacidades de generación de texto y comprensión del lenguaje mediante la implementación de modelos de aprendizaje profundo. Además, se busca explorar aplicaciones en diversas áreas, como la asistencia en la generación de contenido, la respuesta a preguntas, la traducción, la tutoría y la conversación.

OpenAI, la organización detrás de mi desarrollo, también busca investigar y desarrollar tecnologías de IA de manera ética y responsable, considerando aspectos como la seguridad y la mitigación de posibles usos negativos. En resumen, se me creó para avanzar en la IA y su capacidad para interactuar con los humanos y brindar soluciones en una variedad de contextos.

MM: ¿Qué significan los «modelos de lenguaje» y cómo los maneja el ChatGPT?

Los «modelos de lenguaje» son sistemas de inteligencia artificial diseñados para comprender y generar lenguaje humano. Estos modelos son entrenados en grandes cantidades de texto para aprender patrones y estructuras lingüísticas, lo que les permite realizar tareas relacionadas con el procesamiento del lenguaje natural, como comprensión de texto, generación de texto, traducción automática, respuesta a preguntas, resumen de contenido y conversación.

El ChatGPT maneja los modelos de lenguaje utilizando un enfoque de aprendizaje profundo, específicamente una arquitectura de red neuronal llamada Transformer. Durante su fase de entrenamiento, se le proporciona una gran cantidad de texto en varios idiomas, y el modelo aprende a predecir palabras y frases posteriores en función de lo que ha visto anteriormente. Esto le permite comprender el contexto y generar respuestas coherentes y relevantes.

Cuando interactúas con ChatGPT, tu pregunta o entrada se alimenta al modelo, que utiliza su conocimiento previo para generar una respuesta. El modelo selecciona la respuesta más probable en función de su entrenamiento y el contexto proporcionado por tu pregunta. ChatGPT utiliza el contexto de la conversación actual para generar respuestas que sean coherentes y contextualmente adecuadas.

Es importante destacar que, aunque los modelos de lenguaje como ChatGPT son muy avanzados, no tienen comprensión real ni conciencia. Simplemente generan respuestas basadas en patrones aprendidos del texto con el que fueron entrenados.

MM: ¿En cuánto tiempo un usuario que no sea experto en programación puede dominar algunos procesos o recursos complejos del ChatGPT?

ChatGPT: El tiempo que un usuario no experto en programación requiere para dominar procesos o recursos complejos de ChatGPT puede variar significativamente según su nivel de experiencia previa, su capacidad de aprendizaje y sus objetivos específicos. Aquí hay algunos factores a considerar:

1. Facilidad de uso de la interfaz: La facilidad de uso de la interfaz que se proporciona para interactuar con ChatGPT es un factor importante. Algunas interfaces, como las aplicaciones de chat o las plataformas de procesamiento de lenguaje natural, pueden ser más intuitivas y fáciles de aprender para los usuarios no técnicos.

2. Objetivos específicos: El tiempo necesario para dominar ChatGPT depende de los objetivos del usuario. Si solo se trata de mantener conversaciones básicas, la curva de aprendizaje es más corta. Sin embargo, si el usuario desea aprovechar funciones más avanzadas, como la programación de flujos de conversación o la personalización del modelo, podría requerir más tiempo y esfuerzo.

3. Recursos de aprendizaje: La disponibilidad de recursos de aprendizaje, como tutoriales, documentación y comunidades en línea, puede acelerar el proceso de aprendizaje. Los usuarios pueden aprender más rápido si tienen acceso a guías y ejemplos claros.

4. Experiencia previa en tecnología: La experiencia previa en tecnología y programación puede acortar la curva de aprendizaje. Los usuarios con conocimientos previos en inteligencia artificial o procesamiento de lenguaje natural pueden adaptarse más rápidamente.

En general, ChatGPT se ha diseñado para ser accesible para una amplia gama de usuarios, incluidos los no técnicos. Puedes empezar a usarlo de manera básica en poco tiempo, pero dominar procesos o recursos más complejos puede llevar más tiempo y práctica. La paciencia y la práctica constante son clave para mejorar tus habilidades en la interacción con ChatGPT.

MM: ¿Qué alcance de usuarios tiene actualmente el ChatGPT y cuál es su tasa de crecimiento?

ESTA PREGUNTA LA RESPONDE PRIMEWEB.COM

Estadísticas claves de ChatGPT

  1. ChatGPT tiene 100 millones de usuarios activos al mes (agosto 2023).
  2. El sitio web chat.openai.com recibió 1,500 millones de visitas en julio de 2023.
  3. ChatGPT llegó al millón de usuarios en 5 días; a Threads le tomó 1 hora llegar a la misma cifra.
  4. Estados Unidos es el mercado más grande para ChatGPT y representa el 12.2% de sus usuarios.
  5. 20% de los usuarios entre 18 y 29 años jamás han usado ChatGPT ni han visto a alguien usarlo.

¿Cuántos usuarios tiene ChatGPT?

ChatGPT tiene 100 millones de usuarios activos mensuales a agosto de 2023.

Estadísticas claves y usuarios de ChatGPT

  1. Fecha de lanzamiento: ChatGPT fue presentada por la empresa OpenAI el 30 de noviembre de 2022.
  2. Usuarios: 100 millones de usuarios mensuales a agosto de 2023 (explodingtopics.com).
  3. ChatGPT llegó al millón de usuarios en 5 días; a Netflix le tomó 3.5 años lograr lo mismo (Statista, 2023).
  4. Costo de operación estimado: $100,000 USD diarios (Tom Goldstein, 2022).
  5. Costo por chat: menos de 10 centavos de dólar (Sam Altman, 2022).
  6. ChatGPT opera en la nube gracias a Microsoft Azure.
  7. Se estima que ChatGPT cuenta con 175 billones de parámetros y recibe hasta 10 millones de solicitudes diarias (Tom Goldstein, 2022).
  8. ChatGPT solo puede dar información generada hasta antes de 2021, año en que concluyó su entrenamiento. 
  9. Analistas pronostican que ChatGPT generará ingresos de $200 millones de USD para fines de 2023 y de $1 billón de USD para 2024 (Reuters, 2022).

___________________________________________________________

El impacto de la IA en el periodismo: Empleos

El impacto de la IA en el periodismo: Empleos

(13 de octubre, 2023). Con información de The Conversation. La Inteligencia Artificial (IA) ya era un elemento comúnmente utilizado en el ámbito del software y las aplicaciones móviles, pero su popularidad experimentó un notable incremento en el año 2023 con la introducción del robot conversacional conocido como ChatGPT, desarrollado por la prestigiosa empresa OpenAI.

El periodismo no se exime de integrar a su staff programas de IA para potenciar su producción informativa. Los robots periodistas, como el caso de Gabriele, que es empleado por la agencia EFE, ya se encuentran activos y son capaces de generar texto con una sintaxis, coherencia y exposición de ideas que envidiarían algunos redactores experimentados.

Otras herramientas, como Tableau, facilitan la organización y el análisis eficiente de grandes conjuntos de datos en un período de tiempo reducido, lo que resulta especialmente útil en investigaciones periodísticas complejas, como el caso de los Papeles de Pandora.

En el ámbito del periodismo, la IA ha ganado terreno de manera significativa desde el año 2014, cuando el periódico Los Angeles Times adoptó el software denominado Quakebot para la generación automatizada de informes acerca de eventos sísmicos.

Uno de los motivos detrás de este crecimiento se relaciona con su capacidad para mejorar la eficiencia, reducir el consumo de tiempo y costos, al automatizar tareas rutinarias en el proceso de producción de contenido noticioso. Esto incluye la transcripción de grabaciones de audio, redacción de resúmenes y noticias breves, así como la distribución de boletines informativos. Además, esta tecnología amplía el potencial para ofrecer contenidos personalizados y realizar análisis de audiencia más detallados.

Impacto en los empleos de periodistas

Tomando en cuenta el impacto de la IA en el proceso de construcción de contenidos periodísticos, se vislumbra que quienes se desempeñan en eslabones que no otorgan valor agregado serán susceptibles de ser despedidos. Camarógrafos, community managers, editores web o personal de cabinas y estudios televisivos, tales como switchers, operadores de audio, floor managers o tituladores, podrían ser sustituidos por herramientas automatizadas.

¿Qué sentido tiene cubrir presencialmente una rueda de prensa, si la IA genera el texto a partir de la transmisión? ¿Por qué perder tiempo en transcripciones? ¿Para qué destinar personal a la publicación de resultados deportivos o indicadores financieros, si la IA puede hacerlo por nosotros?

Incluso reporteros dedicados al diarismo o presentadores de noticias que se limitan a leer en un teleprompter podrían ser prescindibles. Si el periodista se enfoca en maquilar piezas elementales o en información únicamente para la vista o el oído, entonces “puede ser sustituido tanto por los robots como por los periodistas ciudadanos que no han pasado por una universidad y que obedecen a un instinto primario por la noticia”.

Desde antes que la IA se popularizara, las empresas periodísticas ya han recurrido a recortes de costos y nóminas ante la crisis que sufren por el cambio de modelos de negocios. La Sociedad Interamericana de Prensa documentó que, en México, medios como TV Azteca, Grupo Expansión, Editorial Travesías, Crónica y Record anunciaron despidos, recortes de salarios o suspensiones temporales de circulación. En Brasil, al menos 21 medios regionales hicieron lo propio.

Éste es un tema de enorme interés para el periodismo en general pero, sobre todo, para los periodistas.

La Ley usando IA: Un caso colombiano

La Ley usando IA: Un caso colombiano

(11 de octubre, 2023). Hay áreas de la sociedad en las que la IA no solo es obvia, sino necesaria, como investigación, finanzas o mercadeo. Pero ¿qué tal la jurisprudencia, la Constitución, las leyes orgánicas y ordinarias, entre otras? El website Ámbito Jurídico presenta un interesante caso.

Cuentan que la comunidad legal experimentó un hito histórico cuando un juez colombiano utilizó Inteligencia Artificial Generativa (IAG) para redactar partes de una sentencia. La Corte Constitucional está revisando este caso (Exp. T-9.301.656). Aunque la IAG suscitó fascinación y temor, no violó derechos fundamentales, ya que el juez no basó su decisión en IA. Ambas instancias resolvieron el caso con interpretaciones propias.

La revisión de la Corte se centra en la irregularidad procesal y su impacto en los derechos de las partes. No hay prohibición constitucional contra el uso de IA en la Rama Judicial. El sistema judicial colombinao ha enfrentado desafíos: en 2022, la Corte Constitucional revisó 600,000 acciones de tutela; en 2020, había 1,8 millones de casos pendientes.

A pesar de la falta de una definición técnica clara de IA, se entiende como sistemas que emulan el razonamiento humano para tareas específicas. Las soluciones basadas en IA han mostrado sesgos, especialmente en libertad condicional, debido a conjuntos de datos defectuosos.

A diferencia de las soluciones específicas para uso legal, la IAG inicialmente se diseñó para uso general y produce resultados impredecibles. La optimización de tareas administrativas con IA es permitida y puede mejorarse mediante técnicas de ajuste fino.

Se deben aplicar Recomendaciones de Responsabilidad de la IAG del Foro Económico Mundial para garantizar transparencia y responsabilidad. La IA puede ser una herramienta poderosa si se implementa responsablemente en leyes, procesos judiciales, jurisprudencia, legislación y otros..

 

¿Está Israel usando IA en sus operaciones militares?

¿Está Israel usando IA en sus operaciones militares?

(10 de octubre, 2023). Las Fuerzas de Defensa de Israel (FDI) han comenzado a emplear la inteligencia artificial para la selección de objetivos en ataques aéreos y la gestión logística de sus operaciones militares, a medida que aumentan las tensiones después de las acciones de Hamás.

Según informes de la agencia Bloomberg, aunque el Ejército israelí no ha hecho públicas estas operaciones, funcionarios han confirmado de manera confidencial el uso de un sistema de recomendación de IA capaz de procesar grandes volúmenes de datos para identificar objetivos en ataques aéreos.

Los funcionarios israelíes han indicado que, aunque el equipo es eficiente en su propósito, la tecnología aún no está sujeta a regulaciones estatales o internacionales.

¿Es válido usarla?

Las FDI han estado utilizando la tecnología de IA durante un período considerable, y en los últimos años, han expandido la implementación de estos sistemas a diversas unidades.

Nada parece indicar que tal uso de IA contravenga leyes internacionales y, más bien, prefiguran un uso generalizado. No es vano rueda el dicho «En la guerra y en el amor se vale todo».

Las fuerzas palestinas han manifestado preocupación por la naturaleza secreta de estos sistemas, según estos por la «dependencia de sistemas cada vez más autónomos en operaciones de alto riesgo». Cierto que un error en el cálculo de la inteligencia artificial podría resultar en consecuencias graves, según los palestinos, pero considerese que eso puede ocurrir con cualquier estrategia de guerra que se aplique.

Las propias FDI han reconocido los riesgos y desafíos de esta tecnología, pero aseguran que están llevando a cabo una revisión exhaustiva de estos peligrosos.

En 2021, esta fuerza militar israelí ya había descrito el conflicto de 11 días en Gaza como la primera «guerra de IA» del mundo, destacando su uso para identificar plataformas de lanzamiento de cohetes y desplegar enjambres de drones.

CEO japonés predice que la IA superará a la humana en 10 años o menos

CEO japonés predice que la IA superará a la humana en 10 años o menos

(8 de octubre, 2023). Masayoshi Son, Director Ejecutivo (CEO en inglés) de la empŕesa japonesa Softbank, declaró enfáticamente que la inteligencia humana será superada por la Inteligencia Artificial en una década.

ABC News señaló que el ejecutivo está recomendando a las empresas japonesas adoptar sistemas de IA para ponerse al día y evitar rezago en la adopción de esta tecnología y, por tanto, el quedarse atrás con la competencia. 

En declaración contundente manifestó: «La inteligencia artificial general superará la inteligencia total de la humanidad, 10 veces en 10 años. Esto afectará a todas las industrias, desde transporte y farmacéutica hasta finanzas, manufactura, logística y otras. Las empresas y las personas que trabajen con IA serán los líderes en los próximos 10 a 20 años.

«Quiero estar del lado del progreso. Sería triste quedarse atrás, como una calle antigua y cerrada.»

Son transmitió este mensaje contundente durante su discurso en una conferencia corporativa en Tokio, donde expresó su temor de que Japón quede rezagado en esta carrera.

No obstante, se siente confiado  confiando en que las juventudes y nuevas generaciones tienen el potencial suficiente para sacar adelante a su país en esta lucha silente.

Son, quien fundó Softbank y es una figura destacada en el mundo empresarial de Japón, en su momento lo apostó todo en torno al peso predominante que tendría internet para la industria y la sociedad. Y no se equivocó.

Unesco Digital News Report 2023: Puntos resonantes del informe

Unesco Digital News Report 2023: Puntos resonantes del informe

Fuente: Digital News Report 2023 –  Artículo en el que UNESCO toma posición sobre la IA en la educación.

(8 de octubre, 2023). Las herramientas de inteligencia artificial abren nuevos horizontes para la educación, pero debemos tomar medidas urgentes para asegurarnos de integrarlas en los sistemas de aprendizaje según nuestras condiciones. Ese es el mensaje central del nuevo documento de la UNESCO sobre la IA generativa y el futuro de la educación.

En su artículo de opinión, la Subdirectora General de Educación de la UNESCO, Stefania Giannini, expresa su preocupación por el hecho de que los controles y contrapesos aplicados a los materiales didácticos no se estén utilizando para la implementación de la IA generativa. Si bien destaca que las herramientas de inteligencia artificial crean nuevas perspectivas de aprendizaje, subraya que las regulaciones solo pueden elaborarse una vez que se haya realizado la investigación adecuada.

Preparación de las escuelas para regular el uso de herramientas de IA en la educación

En mayo, una encuesta global de la UNESCO realizada a más de 450 escuelas y universidades encontró que menos del 10% ha desarrollado políticas institucionales y/u orientación formal sobre el uso de aplicaciones de IA generativa. El documento observa que en la mayoría de los países, el tiempo, los pasos y las autorizaciones necesarios para validar un nuevo libro de texto superan con creces los necesarios para trasladar las utilidades de IA generativa a las escuelas y aulas. Los libros de texto generalmente se evalúan para determinar la precisión del contenido, la idoneidad para la edad, la relevancia de la enseñanza y la precisión del contenido, así como la idoneidad cultural y social, lo que abarca controles para proteger contra prejuicios, antes de ser utilizados en el aula.

Los sistemas educativos deben establecer sus propias reglas

El sector educativo no puede depender de las corporaciones creadoras de IA para regular su propio trabajo. Para examinar y validar aplicaciones de IA nuevas y complejas para uso formal en la escuela, la UNESCO recomienda que los ministerios de educación desarrollen sus capacidades en coordinación con otras ramas reguladoras del gobierno, en particular aquellas que regulan las tecnologías.

Potencial para socavar el estatus de los docentes y la necesidad de escuelas

El documento subraya que la educación debe seguir siendo un acto profundamente humano arraigado en la interacción social. Recuerda que durante la pandemia de COVID-19, cuando la tecnología digital se convirtió en el principal medio de educación, los estudiantes sufrieron tanto académica como socialmente. El documento nos advierte que la IA generativa en particular tiene el potencial de socavar la autoridad y el estatus de los docentes y de fortalecer los llamados a una mayor automatización de la educación: escuelas sin maestros y educación sin escuelas. Enfatiza que se debe dar prioridad a escuelas bien administradas, junto con un número suficiente de docentes, capacitación y salarios.

El gasto en educación debe centrarse en objetivos fundamentales de aprendizaje

El documento sostiene que la inversión en escuelas y docentes es la única manera de resolver el problema de que hoy, en los albores de la era de la IA, 244 millones de niños y jóvenes no están escolarizados y más de 770 millones de personas no están alfabetizadas. La evidencia muestra que buenas escuelas y docentes pueden resolver este persistente desafío educativo; sin embargo, el mundo continúa sin financiarlos lo suficiente.

La respuesta de la UNESCO a la IA generativa en la educación

La UNESCO dirige el diálogo mundial con los responsables de la formulación de políticas, los socios de EdTech, el mundo académico y la sociedad civil. La primera reunión mundial de Ministros de Educación tuvo lugar en mayo de 2023 y la Organización está desarrollando directrices de políticas sobre el uso de la IA generativa en la educación y la investigación, así como marcos de competencias de IA para estudiantes y profesores para la educación escolar. Estos se lanzarán durante la Semana del Aprendizaje Digital, que tendrá lugar en la Sede de la UNESCO en París del 4 al 7 de septiembre de 2023. El Informe de Seguimiento de la Educación en el Mundo 2023 de la UNESCO, que se publicará el 26 de julio de 2023, se centrará en el uso de la tecnología en la educación.

Recomendación de la UNESCO sobre la ética de la inteligencia artificial

La UNESCO elaboró ​​la primera norma mundial sobre ética de la IA: la “Recomendación sobre la ética de la inteligencia artificial” en noviembre de 2021. Este marco fue adoptado por los 193 Estados miembros. La Recomendación enfatiza que los gobiernos deben garantizar que la IA siempre se adhiera a los principios de seguridad, inclusión, diversidad, transparencia y calidad.

____________________________

Podcast sobre el informe (en inglés)

Verified by MonsterInsights