Inteligencia Artificial reta al pensamiento creativo

Inteligencia Artificial reta al pensamiento creativo

(8 de noviembre, 2023. Fuente: quepasaenvenezuela.org). En un mundo en constante evolución, donde la tecnología avanza a pasos agigantados, la Inteligencia Artificial (IA) surge como una herramienta fundamental en múltiples esferas, incluida la creatividad.

El debate sobre si esta tecnología va a reemplazar o no los puestos de trabajo, va quedando a un lado, mientras empresas y profesionales se preparan para sacar el mayor provecho, utilizándola para impulsar y optimizar sus procesos creativos.

“La cuestión ya no gira en torno a si las IAs desplazarán o no al trabajo humano, sino a cómo podemos entablar una colaboración enriquecedora con ellas para simplificar nuestras vidas. Un paso inicial para lograr esta sinergia es asegurarnos de que los clientes tengan una visión clara de sus objetivos. La IA no solo contribuye a definir estos objetivos con mayor precisión, sino también aporta ideas innovadoras que amplían los horizontes tradicionales”, comentó Ana Lopera, Senior Account Manager – L3 de PGD.

La IA se ha convertido en una herramienta para profesionales creativos, brindándoles la capacidad de generar contenido de alta calidad de manera eficiente. Por ejemplo, en lo que respecta a la edición de imágenes y videos, los programas de edición asistida por IA pueden automatizar tareas repetitivas, como el recorte y la corrección de color. Esta automatización no solo ahorra tiempo a los creativos, sino que también les permite concentrarse en otros aspectos conceptuales de su trabajo.

Adicional, en lo referente a calidad de audio en la postproducción de contenido, es una gran aliada para reducir el ruido, mejorar la claridad de la voz, corregir desviaciones de tono y ritmo, restaurar grabaciones antiguas, eliminar palabras o sonidos no deseados, y mejorar la calidad de la transmisión de audio con solo un clic.

Según los expertos de PGD, el gran reto al trabajar con IA en el ámbito creativo es la definición de autoría y creatividad en este contexto. ¿Quién es el autor cuando la IA desempeña un papel significativo en la creación? “Estamos comprometidos en explorar y establecer directrices sólidas para abordar este tema, considerando ejemplos de derechos de autor, políticas empresariales y restricciones necesarias para equilibrar el uso de las IA. Aún hay mucho por analizar y discutir, por ejemplo, como asegurar que hizo el creador y qué esta tecnología.”, explicó Francisco Rodríguez, Senior Motion Designer-Post Production de PGD.

En sus primeros días, muchas soluciones de IA eran de acceso gratuito, pero a medida que su potencial se materializó, el panorama cambió. Actualmente, la mayoría de las soluciones competentes en la industria son de pago. Esto ha generado brechas en el acceso y en la utilización efectiva de estas tecnologías.

Riesgos actuales y desafíos pendientes

A pesar de que la colaboración con IAs es prometedora, no está exenta de desafíos como: dependencia excesiva, pérdida de originalidad y la disminución de la diversidad creativa. Además, la evolución constante de la tecnología y la falta de regulación presentan dificultades adicionales para los creativos y las empresas.

El uso adecuado y equitativo de la inteligencia artificial radica en la ética profesional de cada individuo, su habilidad para mantenerse informado sobre cuándo y cómo integrar la inteligencia artificial en el proceso creativo, y aprender a utilizarla de manera responsable y equilibrada. La IA debe considerarse una herramienta complementaria, sin caer en la dependencia absoluta de ella. Es necesario recordar que, por ahora, la IA carece de intencionalidad, comprensión humana y emociones, por lo que puede funcionar como una fuente de inspiración y guía, más no debería reemplazar la voz y capacidad de expresión de los profesionales creativos.

“Aún estamos en zona desconocida en un trabajo cooperativo con las IAs, brecha de acceso y cuidado de su uso ante un territorio desconocido, por lo que los profesionales advierten que hay que adentrarse con cautela, respeto y sobre todo buenas prácticas. En PGD visualizamos una realidad donde la IA coexiste con la creatividad humana, impulsando la innovación y abriendo nuevas fronteras”, agregó Luis Escalante, Delivery Director, Tech de PGD.

___________________________________________
Imagen: MM.

¿Qué diferencia una aplicación de IA de una que no es de IA?

¿Qué diferencia una aplicación de IA de una que no es de IA?

(8 de noviembre, 2023).  La principal diferencia entre una aplicación computacional de inteligencia artificial (IA) y una que no es de IA es que la aplicación de IA es capaz de aprender y adaptarse a su entorno, mientras que la aplicación que no es de IA está pre-programada para realizar una tarea específica.

En términos más técnicos, la IA se basa en el aprendizaje automático, que es un campo de la informática que se ocupa de la creación de sistemas que pueden aprender sin ser explícitamente programados. Los sistemas de aprendizaje automático pueden aprender a realizar tareas a partir de datos, sin necesidad de que un humano les diga cómo hacerlo.

Por ejemplo, un sistema de aprendizaje automático puede aprender a reconocer objetos en imágenes a partir de un conjunto de datos de imágenes etiquetadas. El sistema puede aprender a identificar los objetos a partir de las características de las imágenes, como el color, la forma y el tamaño.

Un sistema que no es de IA, por otro lado, está preprogramado para realizar una tarea específica. Por ejemplo, un programa que traduce del español al inglés está preprogramado con las reglas de traducción entre los dos idiomas. El programa no puede aprender nuevas reglas de traducción a partir de los datos.

En general, las aplicaciones de IA son más flexibles y adaptables que las aplicaciones que no son de IA. Las aplicaciones de IA pueden aprender y adaptarse a nuevos entornos y situaciones, mientras que las aplicaciones que no son de IA están limitadas por las reglas que están codificadas en ellas.

Aquí hay algunos ejemplos específicos de aplicaciones computacionales de IA:

  • Reconocimiento de voz
  • Reconocimiento de imágenes
  • Traductores automáticos
  • Juegos de estrategia
  • Robótica

En todos estos casos, las aplicaciones de IA son capaces de aprender y adaptarse a su entorno de alguna manera. Por ejemplo, los sistemas de reconocimiento de voz pueden aprender a reconocer nuevos acentos o palabras, los sistemas de reconocimiento de imágenes pueden aprender a identificar nuevos objetos, y los traductores automáticos pueden aprender a traducir nuevos idiomas.

Las aplicaciones de IA tienen el potencial de revolucionar muchos campos, desde la industria hasta la medicina. A medida que la IA siga desarrollándose, veremos aplicaciones aún más sofisticadas que pueden mejorar nuestras vidas de muchas maneras.

¿Cuáles son las aplicaciones comerciales de IA más relevantes al momento, incluyendo el Bard de Google?

Las aplicaciones de IA tienen el potencial de revolucionar muchos campos, desde la industria hasta la medicina. A medida que la IA siga desarrollándose, veremos aplicaciones aún más sofisticadas que pueden mejorar nuestras vidas de muchas maneras.

Las aplicaciones comerciales de IA más relevantes al momento son aquellas que tienen un impacto significativo en los negocios y la sociedad. Estas aplicaciones incluyen:

  • Reconocimiento de voz y procesamiento del lenguaje natural. Estas tecnologías se utilizan para automatizar tareas, mejorar la experiencia del cliente y crear nuevos productos y servicios. Por ejemplo, los chatbots de IA se utilizan cada vez más para proporcionar servicio al cliente, y los sistemas de reconocimiento de voz se utilizan para controlar dispositivos domésticos inteligentes.
  • Visión artificial. Esta tecnología se utiliza para identificar objetos, analizar imágenes y realizar tareas de inspección. Por ejemplo, la visión artificial se utiliza para detectar defectos en productos, clasificar productos en almacenes y crear imágenes de realidad aumentada.
  • Aprendizaje automático. Esta tecnología se utiliza para crear modelos que pueden aprender y adaptarse a nuevos datos. Por ejemplo, el aprendizaje automático se utiliza para predecir comportamientos, personalizar ofertas y optimizar procesos.
  • Robótica. Esta tecnología se utiliza para crear máquinas que pueden realizar tareas de forma autónoma. Por ejemplo, los robots se utilizan en fábricas para ensamblar productos, en hospitales para realizar cirugías y en hogares para realizar tareas domésticas.

El Bard de Google es un ejemplo de un sistema de IA que se utiliza en aplicaciones comerciales. Bard se utiliza para generar texto, traducir idiomas, escribir diferentes tipos de contenido creativo y responder a preguntas de forma informativa. Bard se utiliza en una variedad de aplicaciones, incluyendo atención al cliente, marketing y educación.

Otras aplicaciones comerciales de IA relevantes incluyen:

  • Gestión de riesgos. La IA se utiliza para identificar riesgos, evaluar el impacto de los riesgos y desarrollar estrategias para mitigar los riesgos.
  • Ciberseguridad. La IA se utiliza para detectar amenazas cibernéticas, proteger sistemas y datos y responder a ataques cibernéticos.
  • Finanzas. La IA se utiliza para realizar análisis financieros, gestionar inversiones y proporcionar asesoramiento financiero.
  • Medicina. La IA se utiliza para diagnosticar enfermedades, desarrollar nuevos tratamientos y proporcionar atención médica personalizada.

La IA tiene el potencial de revolucionar muchos campos, desde la industria hasta la medicina. A medida que la IA siga desarrollándose, veremos aplicaciones aún más sofisticadas que pueden mejorar nuestras vidas de muchas maneras.

________________________
Imagen: Pixabay + MM.

 

Cumbre sobre Seguridad de la IA, primer gran hito de esta tecnología

Cumbre sobre Seguridad de la IA, primer gran hito de esta tecnología

(6 de noviembre, 2023 – Foto oficial del evento). Que hubo acuerdo entre representantes de OpenAI, Google, Microsoft, Anthropic,  Meta y xAI es prueba del éxito de la primera cumbre que busca regular aspectos claves de la IA. ¡La movida esta semana en el Reino Unido fue la Cumbre de Seguridad de la Inteligencia Artificial!

Las grandes empresas tecnológicas se comprometieron a colaborar con los gobiernos en las pruebas de sus nuevos juguetes de inteligencia artificial. La idea es reducir los riesgos asociados a esta tecnología, que según los presentes, podrían ser un verdadero desastre, según dijeron en un comunicado conjunto.

El primer ministro británico, Rishi Sunak, confrimó que Estados Unidos, la Unión Europea y otros países se pusieron de acuerdo con algunas empresas top para testear a fondo estos modelos de inteligencia artificial antes y después de lanzarlos al público. En estas sesiones, estuvieron los representantes de OpenAI, Anthropic, Google, Microsoft, Meta y xAI, quienes debatieron estos temas el jueves pasado.

Para darle más cuerda a esto, convocaron a Yoshua Bengio, un crack canadiense en computación y considerado uno de los padres de la inteligencia artificial, para que haga un informe sobre el «estado de la ciencia». La idea es entender mejor lo que estas tecnologías pueden hacer ahora y centrarse en los riesgos más importantes. Bengio, que ganó el Premio Turing y es parte del Consejo Asesor Científico de la ONU, se va a encargar de armar ese informe. ¡La IA se desarrolla imparablemente!

Hubo conflicto

La movida del gobierno británico es fuerte: armaron un nuevo centro global de pruebas que va a estar instalado en el Reino Unido. La idea es enfocarse en los problemas de seguridad nacional y social, ¡se la juegan totalmente!

China, sí, el mismo país gigante, está en la lista de los 28 países que firmaron la Declaración de Bletchley. Todos estos gobiernos acordaron que las empresas que hacen inteligencia artificial tienen que ser transparentes y rendir cuentas. Además, van a hacer planes para controlar y minimizar los peligros de estos bichos tecnológicos.

Pero ojo, el representante chino no apareció el jueves y no firmó el acuerdo sobre las pruebas. Sunak, el primer ministro, le mandó una invitación a China para la cumbre, y esto armó un revuelo en el parlamento británico. A algunos no les gustó nada que estén tan cerca de colaborar con Beijing, especialmente porque varios países de occidente no están muy de acuerdo en meterse en negocios tecnológicos con los chinos.

Sunak salió a bancar su decisión, argumentando que un tema tan grosso necesita que estén los jugadores más importantes. Además, insiste en que el Reino Unido puede ser el puente perfecto entre los grupos económicos de Estados Unidos, China y la Unión Europea. ¡Están que arden!

Enfrentando los riesgos

La vicepresidenta estadounidense Kamala Harris ya había insistido el miércoles en la necesidad de adoptar un «enfoque más práctico», que no se limite a evaluar los riesgos existenciales. «Hay amenazas adicionales que también exigen nuestra acción, amenazas que actualmente están causando daño y que muchas personas también consideran existenciales», dijo Harris.

La vicepresidenta citó el ejemplo de un anciano que canceló su plan de atención médica debido a un algoritmo de inteligencia artificial defectuoso. También mencionó el caso de una mujer que fue amenazada por una pareja abusiva con fotos modificadas. Hay que trabajar «en todo el espectro», dijo Harris, más allá de las amenazas existenciales sobre ciberataques masivos o armas biológicas.

La clonación de identidad, la conducción autónoma por inteligencia artificial y las campañas de desinformación figuran como otros de los peligros más cotidianos detectados en el desarrollo de esta tecnología. En este sentido, Harris anunció un nuevo instituto de seguridad de inteligencia artificial en EE. UU. Estará orientado a elaborar estándares para probar sistemas de uso público y colaborará con el centro de pruebas de Reino Unido anunciado por Sunak.

China se fue

¡El rollo es que el gobierno británico soltó que las empresas y gobiernos se están activando para crear un nuevo centro de pruebas internacional en el Reino Unido! Y la movida va a estar enfocada en la seguridad del país y la sociedad.

Resulta que China, que es uno de los 28 países que firmó la Declaración de Bletchley, está en la misma onda. Todos estos gobiernos están de acuerdo en que las empresas que se mandan con la inteligencia artificial tengan que ser transparentes y rendir cuentas. También se están armando planes para medir, monitorear y frenar los posibles problemas que se les pueden venir.

Lo insólito es que el representante de China no apareció el jueves y no le puso la firma al acuerdo sobre las pruebas. Esto generó polémica porque el primer ministro británico, Rishi Sunak, lo había invitado a la cumbre, y varios lo criticaron porque no entendía que a varios países de Occidente no les hace gracia trabajar con Beijing en temas tecnológicos.

Sunak salió a defenderse, diciendo que un tema tan clave necesita que estén todos los pesos pesados. Además, insistió en que el Reino Unido podría ser el enlace entre Estados Unidos, China y la Unión Europea en el mundo de la tecnología. ¡La cuestión está candente!

___________________________________________
Imagen: Foto oficial de la Cumbre.

Alcanzan un acuerdo «pionero en el mundo» sobre la Inteligencia Artificial en una cumbre en Reino Unido

Alcanzan un acuerdo «pionero en el mundo» sobre la Inteligencia Artificial en una cumbre en Reino Unido

(3 de noviembre, 2023, Editores de MM). Hay un Pacto Internacional sobre Inteligencia Artificial: la Declaración de Bletchley acerca de la seguridad en el ámbito de la Inteligencia Artificial (IA) representa un acuerdo histórico firmado por representantes y empresas provenientes de 28 países, incluyendo a Estados Unidos, China y la Unión Europea.

Este pacto tiene como objetivo abordar los riesgos asociados a los denominados «modelos fronterizos» de IA: los complejos modelos lingüísticos desarrollados por empresas como OpenAI.

Por su parte, gobiernos como el británico han elogiado este acuerdo como un hito sin precedentes a nivel mundial. Los signatarios se comprometen a identificar los «riesgos de seguridad compartidos» relacionados con la Inteligencia Artificial y a establecer políticas respectivas basadas en dichos riesgos entre las naciones participantes. 

El Reino Unido y Estados Unidos firmaron un acuerdo histórico para la seguridad de la Inteligencia Artificial (IA). El pacto, que aún no ha sido revelado en detalle, establece un marco para la cooperación entre ambos países en el desarrollo y uso de la IA.

Michelle Donelan, secretaria de Estado de Ciencia, Innovación y Tecnología del Reino Unido, calificó el acuerdo como un «logro histórico» que sienta las bases para las discusiones actuales. «Este acuerdo es un testimonio del compromiso compartido de ambos países para garantizar que la IA se use de manera segura y responsable», dijo Donelan.

El Gobierno británico anunció la organización de futuras cumbres enfocadas en la seguridad de la IA. Estas cumbres reunirán a expertos de ambos países para discutir temas como la ética de la IA, la prevención del uso malicioso de la IA y la regulación de la IA.

Aumenta el apoyo internacional

En un evento sin precedentes que tuvo lugar en Bletchley Park, Reino Unido, líderes globales, expertos tecnológicos y representantes de 27 naciones y la Unión Europea sellaron un acuerdo histórico sobre la seguridad en el ámbito de la inteligencia artificial (IA). Este pacto, firmado por países como EE. UU., China y varios otros, tiene como objetivo mitigar los peligros asociados a los modelos avanzados de IA, conocidos como modelos fronterizos.

El evento, descrito como una cumbre pionera a nivel mundial, tuvo lugar el miércoles y continuará hasta este jueves en el emblemático Bletchley Park, famoso por ser el lugar donde se descifraban códigos durante la Segunda Guerra Mundial.

Estas son las principales conclusiones de la primera jornada.

Y el movimiento seguirá

La evaluación del pacto internacional de Inteligencia Artificial ha sido mixta. Aunque la secretaria de Estado de Ciencia, Innovación y Tecnología del Reino Unido, Michelle Donelan, lo describió como un «hito histórico» que establece las bases para los debates actuales, el acuerdo ha sido criticado por no ir lo suficientemente lejos.

El Gobierno británico ha anunciado la organización de futuras cumbres enfocadas en la seguridad de la IA, pero algunos expertos consideran que se necesitan políticas más concretas y mecanismos de rendición de cuentas. Paul Teather, director general de la firma de investigación en IA AMPLYFI, expresó a Euronews Next su preocupación sobre la terminología imprecisa del acuerdo, que podría llevar a interpretaciones erróneas. Además, señaló que depender únicamente de la cooperación voluntaria no es suficiente para establecer prácticas éticas reconocidas a nivel mundial en el campo de la Inteligencia Artificial.

__________________________________

Imagen: MM.

Podcast: LA IA hace apenas siete meses

Podcast: LA IA hace apenas siete meses

(2 de noviembre, 2023, podcast). En marzo de este año Jesús M. Rodríguez, periodista, hombre de medios y Fernando Nunez-Noda, editor de MaquinaMente, conversaron en su ya cesado podcast «Del 305 al 310» sobre inteligencia artificial.

Pero esa conversación ocurrió y aquí les dejamos el podcast completo. Una cita de la presentación:

«Algoritmos, robótica, ChatGPT, inteligencia artificial… quien crea que esto pertenece a la ciencia-ficción y a un futuro relativamente lejano… que lo piense dos veces. Jesús y Fernando hablan del estado actual de tal inteligencia, la integración persona-máquina, los servicios que están robotizados o por estarlo… un mundo en ciernes cuyas amenazas (que las hay) y oportunidades (muchas) cambiarán sin duda el funcionamiento de la sociedad.

«Es un podcast que hacemos bien en escuchar, para estar preparados ante lo inevitable y aprovecharlo.»

Que lo disfruten:

___________________________________________
Imagen: Pixabay.

¿Se puede medir la inteligencia de un app de IA como se mide la humana?

¿Se puede medir la inteligencia de un app de IA como se mide la humana?

(1 de noviembre, 2023, Editores de MM). Una pregunta que le hicimos al ChatGPT: «Si fueras un ser humano, ¿cuál sería tu coeficiente intelectual?»

El ChatGPT, siempre eludiendo, contestó: «Como modelo de lenguaje de IA, no poseo un coeficiente intelectual ni capacidades cognitivas similares a las de los humanos. El coeficiente intelectual (coeficiente de inteligencia) es una medida diseñada para que los humanos evalúen ciertas habilidades cognitivas. Soy un modelo de aprendizaje automático que procesa y genera texto basado en patrones e información de los datos con los que fui entrenado, pero no tengo conciencia, autoconciencia ni inteligencia humana.

«Si fuera un ser humano, sería inexacto y engañoso asignarme una puntuación de coeficiente intelectual porque mis capacidades y funciones son fundamentalmente diferentes a las de un ser humano. Existo para proporcionar información y ayudar con tareas lo mejor que puedo, pero no poseo las facultades cognitivas asociadas con la inteligencia humana.»

 Ok, entendido el punto. ¿Pero qué tal si reformulábamos la pregunta para lograr una respuesta concreta (o cercana a concreta)? Le preguntamos, pues, al elusivo chabot:

MM: Ok, déjanos reformular la pregunta: Si un ser humano produce respuestas similares o equivalentes a las que genera ChatGPT, ¿cuál sería su coeficiente intelectual?

ChatGPT: «El concepto de asignar una puntuación de coeficiente intelectual a un ser humano basándose únicamente en la capacidad de producir respuestas similares o equivalentes a las que genera ChatGPT no es sencillo ni preciso. Las pruebas de coeficiente intelectual (CI) están diseñadas para evaluar una variedad de habilidades cognitivas, incluido el razonamiento lógico, la resolución de problemas, la memoria, la inteligencia espacial y más. Estas pruebas son complejas y multifacéticas.

«Si bien ChatGPT puede proporcionar respuestas que parecen inteligentes, no posee las mismas capacidades cognitivas que un ser humano. Carece de conciencia, autoconciencia, inteligencia emocional y la capacidad de comprender el contexto y los matices como lo hacen los humanos.

«Además, las puntuaciones de coeficiente intelectual no son una medida integral de la inteligencia o las habilidades generales de una persona. Proporcionan una instantánea del desempeño en un conjunto específico de tareas cognitivas, pero no capturan la totalidad del potencial intelectual o creativo de una persona.

«En esencia, no sería apropiado ni exacto asignar una puntuación de coeficiente intelectual a un ser humano basándose únicamente en su capacidad para producir respuestas similares a ChatGPT. La inteligencia humana es multifacética y va más allá del alcance de lo que un modelo de IA puede replicar.»

Quedamos a mitad de camino con la elusiva, pero brillante disertación del fabuloso chatbot, por lo cual se nos ocurrió otra idea:

«¿Y qué dice el Bard?

Una confirmación del razonamiento «bárdico» sería suficiente, pero una refutación o similitud con la opinión del chatbot de Open AI sería suficiente para cerrar el debate.

Le preguntamos al Bard: «¿Se puede medir la inteligencia de un app de IA equivalente a la de un humano?» Su respuesta nos sorprendió:

BARD: Sí, es posible medir la inteligencia de una app de IA equivalente a la de un humano. Hay varias formas de hacerlo, pero una de las más comunes es utilizar pruebas de Turing. Las pruebas de Turing son un conjunto de pruebas diseñadas para determinar si una máquina puede pensar de manera indistinguible de un humano.

Otra forma de medir la inteligencia de una app de IA es utilizando tareas que se consideran indicadores de inteligencia humana. Estas tareas pueden incluir cosas como jugar a juegos, resolver problemas o aprender de nuevas experiencias.

Sin embargo, es importante tener en cuenta que no existe un método definitivo para medir la inteligencia de una app de IA. Los métodos que se utilizan pueden variar en función de la definición de inteligencia que se utilice.

En general, se considera que una app de IA es equivalente a la inteligencia humana cuando puede realizar tareas que se consideran indicadores de inteligencia humana y cuando no se puede distinguir de un humano en una prueba de Turing.

A continuación se presentan algunos ejemplos de cómo se podría medir la inteligencia de una app de IA equivalente a la de un humano:

  • Pruebas de Turing: Una app de IA podría ser sometida a una serie de pruebas diseñadas para determinar si puede pensar de manera indistinguible de un humano. Estas pruebas podrían incluir cosas como mantener una conversación, responder a preguntas o generar texto creativo.
  • Tareas indicadoras de inteligencia: Una app de IA podría ser evaluada en su capacidad para realizar tareas que se consideran indicadores de inteligencia humana. Estas tareas podrían incluir cosas como jugar a juegos, resolver problemas o aprender de nuevas experiencias.
  • Medición de la capacidad de aprendizaje: La capacidad de aprendizaje de una app de IA podría medirse mediante la cantidad de datos que puede aprender y la rapidez con la que puede aprender.
  • Medición de la capacidad de adaptación: La capacidad de adaptación de una app de IA podría medirse mediante la capacidad de cambiar su comportamiento en respuesta a nuevas situaciones.

A medida que la IA continúa sofisticándose, es probable que se desarrollen nuevos métodos para medir la inteligencia de las apps de IA.

___________________________________________
Imagen: MM.

Verified by MonsterInsights