¿No hay política de IA en el trabajo? Los empleados la usan por su cuenta

¿No hay política de IA en el trabajo? Los empleados la usan por su cuenta

(1 de diciembre, 2023). La IA es el «buzz» actual en los negocios y oficinas de EE. UU. y, por tanto, de muchos otros países. No obstante, la cantidad de usuarios «duros» no es tan grande como uno imaginaría. Cifras de la Oficina del Censo de EE. UU. reportan que:

La inteligencia artificial (IA) está de moda estos días, pero una encuesta de la Oficina del Censo de EE. UU. muestra que las empresas aún no han adoptado ampliamente la tecnología.

Solo el 3,8% de las empresas informaron que utilizan la IA para producir bienes y servicios, según la Encuesta de Tendencias y Perspectivas Empresariales (BTOS) más reciente, pero se utiliza más ampliamente en ciertas industrias, como los sectores de la información y la tecnología.

Surge una interrogante crucial para los propietarios y directivos de empresas: «¿Acaso en su compañía no se está dando un uso extensivo y regulado de la Inteligencia Artificial (IA)?» Un llamado de atención para los ejecutivos y líderes de equipos: es importante que presten atención a lo que sigue.

Un reciente informe de Salesforce ha destapado una realidad impactante: una parte considerable de su personal está empleando IA en sus tareas laborales, y lo hacen de manera clandestina, sin contar con la autorización oficial de la empresa.

Es decir, el informe establece que:

  • El 55% de los empleados ha utilizado herramientas de IA en el trabajo sin aprobación formal.

  • El 40% incluso ha recurrido a usar herramientas de IA que están explícitamente prohibidas.

  • Un asombroso 64% ha presentado trabajo generado por IA como su propia creación.

Razones muy… razonables

¿Qué está impulsando esta adopción encubierta de IA? La respuesta es demoledora e irrrefutable: Una combinación del temor a las repercusiones y la perspectiva desalentadora de ser reemplazados por la IA.

Un par de recomendaciones a los jefes de empresas:

  • Abrace, no rechace la IA. De igual forma, le hará falta para muchas soluciones
  • Eduque sobre el uso responsable de la IA: Equipe a su fuerza laboral con el conocimiento necesario para usar herramientas de IA de manera ética y responsable. Establezca límites bien definidos para el uso de la IA dentro de su organización.
  • Cultive un ambiente que empodere la IA: Promueva y reconozca los esfuerzos de aquellos que integran la IA en su trabajo y compartan sus conocimientos con la organización más amplia.

__________________________________________________
Imágenes: MM con insumos de Pixabay.

En navidad cuídese de los «grIAnchs»

En navidad cuídese de los «grIAnchs»

(29 de noviembre, 2023, con información de NL Times y Aura). Con la llegada de las fiestas, los cibercriminales se vuelven más activos, aprovechando el incremento en las compras en línea. Empleando herramientas avanzadas de inteligencia artificial como ChatGPT, capaz de imitar el lenguaje humano, estos estafadores están perfeccionando sus técnicas para engañar a los consumidores. Según Michael Bordash de Syniverse, es cada vez más difícil diferenciar estos mensajes de spam generados por IA de las comunicaciones legítimas.

Por eso, traviesamente, hemos llamado al Grinch: «GrIAnch»… porque muchas estafas y desvaríos se realizarán por internet y con pleno uso de IA.

Los expertos en ciberseguridad alertan sobre un notable aumento en estos mensajes sofisticados. La capacidad de ChatGPT para escribir en distintos idiomas aumenta el alcance de los estafadores, permitiéndoles apuntar a víctimas en sus idiomas maternos y replicar ataques a gran escala fácilmente.

Durante la temporada festiva, se ha visto un incremento en estafas relacionadas con la logística de envíos. Los consumidores frecuentemente reciben mensajes engañosos imitando a empresas de envío conocidas, pidiendo información personal bajo la falsa premisa de un paquete retrasado.

Para identificar estas estafas, los consumidores deben estar alerta a errores ortográficos, URL sospechosas y mensajes que generan una sensación de urgencia innecesaria. Además, es importante desconfiar de anuncios en redes sociales con ofertas increíblemente atractivas que parecen demasiado buenas para ser ciertas.

Como respuesta a esta amenaza, empresas como Syniverse están utilizando inteligencia artificial para detectar y combatir estos fraudes. No obstante, la recomendación más segura para los consumidores es realizar compras directamente de fuentes oficiales o en tiendas físicas para evitar caer en estafas.

Las estafas más comunes para la Navidad de 2023

Según Aura.com muchas pueden involucrar IA y son:

  1. Sitios web que imitan a establecimientos legítimos
  2. Ads en social media que promueven negocios con un website totalmente falso
  3. Esquemas piramidales de entregas de regalos
  4. Textos y emails con notificaciones falsas de entrega de regalos
  5. Empleos temporales de navidad que no existen pero cobran el servicio
  6. Apps maliciosos con tema navideño
  7. Caridades y campañas de recolección de dinero para caridades fraudulentas
  8. Fraudes a personas de la tercera edad
  9. Estafadores en Etsy, Craigslist, o Facebook Marketplace
  10. Gift cards “gratuitas”
  11. La estafa del «perrito»
  12. Estafas de phishing con viajes de vacaciones navideñas
  13. Estafadores de tarjetas que roban su información de crédito
  14. Ladrones de los regalos de navidad que dejan en el porche de su casa

__________________________________________________
Con información de La Nación y Aura.com. Imágenes: MM.

Pequeña lista de libros y películas sobre IA

Pequeña lista de libros y películas sobre IA

(28 de noviembre, 2023). La IA ha llenado el universo de literatura y películas de ficción científica, desde sus inicios. Por ejemplo: Metrópolis (1927) de Fritz Lang o Frankenstein (1931) de James Whale. Pero hagamos un recuento más contemporáneo.  

Libros:

  • «2001: Una odisea del espacio» (1968), de Arthur C. Clarke: Una historia clásica de ciencia ficción que explora la relación entre la humanidad y la inteligencia artificial.
  • «Yo, Robot» (1950), de Isaac Asimov: Una colección de relatos cortos que exploran las posibles consecuencias de la IA.
  • «La matriz» (1999), de las hermanas Wachowski: Una película de ciencia ficción que plantea la pregunta de si la realidad que vivimos es una ilusión creada por la IA.
  • «Superintelligence» (2014), de Nick Bostrom: Un ensayo que explora los riesgos potenciales de la IA superinteligente.
  • «Life 3.0» (2018), de Max Tegmark: Un libro que explora las posibilidades y los riesgos de la IA.

Películas:

    • «2001: Una odisea del espacio» (1968): Una historia clásica de ciencia ficción que explora la relación entre la humanidad y la inteligencia artificial.

    • «Blade Runner» (1982): Una película de ciencia ficción que plantea la pregunta de si los androides son capaces de sentir emociones.

    • «Terminator» (1984): Una película de acción que presenta a un robot asesino enviado del futuro para matar a una mujer que dará a luz al líder de la resistencia humana.

  • «Matrix» (1999): Una película de ciencia ficción que plantea la pregunta de si la realidad que vivimos es una ilusión creada por la IA.

  • «Her» (2013): Una película romántica que explora la relación entre un hombre y un sistema operativo de IA.

Esta lista es solo una pequeña muestra de la gran cantidad de libros y películas que existen sobre la relación del ser humano con la IA. Hay libros y películas que exploran los posibles beneficios de la IA, así como libros y películas que exploran los posibles riesgos. Es importante leer y ver una variedad de materiales para tener una comprensión completa de este tema complejo.

__________________________________________________
Imágenes: MM.

El despido de Sam Altman genera caos en OpenAI

El despido de Sam Altman genera caos en OpenAI

(22 de noviembre, 2023, con información de SuperHuman). Como informamos ayer la salida de Sam Altman de la empresa Open AI ha generado un caos en dos direcciones: uno hacia afuera, lleno de conjeturas sobre el futuro de ejecutivo propulsor del ChatGPT. Retomemeos el recuento:

  • Más de 700 de los 770 empleados de OpenAI amenazaron con irse si la junta no renuncia.
  • Al parecer, Sam Altman está intentando volver a OpenAI como el jefe, según soltó The Verge.
  • Satya Nadella, el big boss de Microsoft, también confesó en una entrevista que no le molestaría que Altman regresara a OpenAI. No olvidemos que Microsoft es quien pone los recursos en OpenAI.
  • Pero lo que dejó a todos boquiabiertos fue que la junta de OpenAI le hizo una oferta a Anthropic, su competencia, proponiendo una fusión de las dos empresas.
  • También hay chismes de que los clientes de OpenAI están pensando en pasarse a Anthropic o a Google.
  • Reuters lanzó el «chisme» de que los inversionistas de OpenAI están pensando en demandar a la junta.
  • Con todo este alboroto, los competidores están aprovechando para atraer a los empleados que se quieren ir de OpenAI, y figuras como Elon Musk y el CEO de Salesforce, Marc Benioff, ya están haciendo sus movidas para contratarlos.
  • Y no falta quien acuse a la junta de OpenAI, como Vinod Khosla y Balaji Srinivasan, de estar influenciados por el altruismo efectivo, una corriente filosófica que, dicen, quiere ponerle el freno al progreso de la IA.

A pesar de los giros dramáticos de las últimas 24 horas, el futuro de OpenAI está en el aire. Parece que hoy nos espera otro día de tensión para la empresa, su gente y sus clientes. ¡Agárrense que vienen curvas!

_____________________________________

Un perfil de Sam Altman

Sam Altman es un empresario e inversor reconocido en el ámbito tecnológico. Comenzó su carrera co-fundando Loopt, una red social basada en la localización, que fue adquirida por Green Dot Corporation. Altman es ampliamente conocido por su rol como ex presidente de Y Combinator, una de las incubadoras de startups más influyentes del mundo. Bajo su liderazgo, Y Combinator amplió sus inversiones y apoyó a una multitud de empresas emergentes exitosas.

En 2015, Altman fue nombrado co-fundador y CEO de OpenAI, una organización de investigación de inteligencia artificial con el objetivo de promover y desarrollar IA amigable para beneficio de la humanidad de manera segura y democrática. Es un defensor de la tecnología sustentable y ha invertido en varias startups de energía limpia. Además, ha mostrado un interés particular en el desarrollo de políticas tecnológicas y en cómo la tecnología puede influir en la economía y la sociedad. Su influencia se extiende más allá de sus inversiones, siendo un pensador destacado en el futuro de la IA, el impacto social de la tecnología y la economía. Altman también ha sido parte de iniciativas que exploran el uso de monedas digitales y otras formas de impulsar la innovación en el espacio tecnológico.

__________________________________________________
Imágenes: Wikipedia y del dominio público.

Sam Altman salta de Open AI a Microsoft ¿qué ocurrió allí?

Sam Altman salta de Open AI a Microsoft ¿qué ocurrió allí?

(21 de noviembre, 2023, con información de TLDR AI). El CEO Sam Altman fue despedido de OpenAI por la junta directiva, quien afirmó que la salida de Altman siguió un proceso de revisión deliberativo por parte de la junta y que ya no tienen confianza en su capacidad para seguir liderando OpenAI. Greg Brockman también renunció rápidamente junto con muchos otros investigadores senior. Microsoft contrata al ex CEO de OpenAI Sam Altman (lectura de 3 minutos)

Después de un fin de semana de negociaciones para traer de vuelta a Sam Altman como CEO de OpenAI tras su sorpresivo despido, la junta sin fines de lucro de la compañía ha tomado otro camino completamente y ha nombrado al ex CEO de Twitch, Emmett Shear, como CEO interino. Microsoft está contratando al ex CEO de OpenAI Sam Altman y al cofundador Greg Brockman.

En 2020, en una entrevista que le hizo Azeem Azhar de TLDR, se le preguntó a Sam Altman sobre el papel de la junta de OpenAI y cómo pensaba que podría cambiar la gobernanza de la organización. Mirando hacia atrás, las respuestas de Sam fueron prescientes.

Azeem Azhar: Tengo curiosidad por saber qué piensas que podría ser un Pacto Global [para la IA] en los próximos años, donde sentimos que podemos hacer que estas tecnologías trabajen para la humanidad, pero de una manera bien gobernada.

Sam Altman: Es una pregunta súper importante. Podemos estudiar la historia y ver cómo va eso. Cuando no hay supervisión pública, cuando tienes estas compañías que son tan poderosas como, o más que, la mayoría de las naciones y son gobernadas por líderes no electos y, para ser completamente honesto, bastante irresponsables, creo que eso debería hacernos pensar a todos a medida que estas tecnologías se vuelven cada vez más poderosas.

Y creo que necesitamos encontrar alguna manera no solo de que la economía se comparta y de que tratemos con el problema de la desigualdad que enfrenta la sociedad, sino la gobernanza sobre estas decisiones muy grandes. ¿Cómo queremos que sea nuestro futuro en el mundo con una IA muy poderosa? Esa no es una decisión que 150 personas sentadas en San Francisco tomen colectivamente. Eso no va a ser bueno.

Azeem Azhar: No he encontrado buenos modelos en este momento que hagan esto. Creo que la gente habla de la idea del minilateralismo, que es que si puedes traer a suficientes personas para hablar con suficiente frecuencia, tal vez crees el núcleo de un marco al que otras personas puedan adherirse, y luego la gente copie eso.

Sam Altman: Sí, creo que eso es útil, seguro. Pero luego siempre hay una pregunta de cuánto poder real tiene.

Digamos que realmente creamos una AGI. Ahora mismo, si estoy haciendo un mal trabajo con eso, nuestra junta directiva, que tampoco es responsable ante el público, puede despedirme y decir: “Probemos con alguien más”. Pero me parece que en ese punto, a cierto nivel de poder, el mundo en su conjunto debería poder decir: hey, tal vez necesitamos un nuevo líder de esta compañía, igual que podemos votar sobre la persona que dirige el país.

Y entonces, esta cuestión de qué aspecto tendría un proceso democrático para compañías que tienen un impacto suficiente. Estoy muy lejos de ser un experto aquí, y personas mucho más inteligentes que yo han estado pensando en ello, pero se me ocurre que tenemos estos modelos, y podemos mirar los diferentes alrededor del mundo y hablar sobre algunos países donde funciona mejor y donde no funciona tan bien.

Y ahora ha sucedido. Sam ha sido despedido por la junta. Y Greg Brockman, el Presidente y Chair, también ha dejado la compañía. Es una historia en evolución. The Information tiene una buena cobertura, al igual que Bloomberg. Ron Conway, el más legendario de los inversores ángeles de Silicon Valley, lo llama «un golpe de Estado de la junta».

En MM seguiremos de cerca este caso. Por los momentos, parece un movimiento que beneficia a Microsoft y alivia de alguna forma a los ejecutivos de Open AI. Seguiremos informando.

___________________________________________
Imagen: Wikipedia.

Microsoft abre una puerta al futuro de la medicina con IA

Microsoft abre una puerta al futuro de la medicina con IA

(14 de noviembre, 2023).  Microsoft acaba de presentar una patente para una aplicación de terapia con IA. ¿Cómo te hace sentir eso?

Según la patente, el terapeuta de IA, descrito como un «método y aparato para proporcionar atención emocional en una sesión entre un usuario y un agente conversacional», está diseñado para proporcionar a los usuarios apoyo emocional, analizar sus sentimientos y almacenar cuidadosamente la información del usuario y las conversaciones, a fin de poder construir una «memoria» del usuario, su vida y sus desencadenantes emocionales.

El modelo aparentemente puede procesar tanto imágenes como texto y, lo que es importante, parece estar diseñado como un espacio general para que el usuario pueda hablar sobre su vida, más que como un servicio de emergencia.

A medida que la IA recopila más información sobre sus usuarios, la patente sugiere que puede comenzar a detectar ciertos indicios emocionales. En función de estos indicios, podría hacer algunas preguntas de sondeo e incluso, en algunos casos, hacer sugerencias sobre cómo el usuario podría abordar sus problemas.

Pero Microsoft parece creer que la IA también puede realizar un psicoanálisis más profundo. Según una figura, el usuario también tiene la opción de realizar una «prueba psicológica explícita», que según Microsoft será evaluada por un «algoritmo de puntuación predefinido por psicólogos o expertos en ámbitos psicológicos».

Ciertamente, no sería la primera vez que se intenta aplicar la IA a la atención sanitaria mental. Al parecer, existe algo llamado Woebot, y ¿quién podría olvidar la desastrosa incursión de la Asociación Nacional de Trastornos de la Alimentación en los servicios de chatbot? También es cierto que los humanos ya han recurrido a varios bots no específicos de la terapia para obtener compañía y apoyo, y muchas personas han desarrollado profundos vínculos personales con esas IAs.

Sin embargo, cabe destacar que en varios casos, estas interacciones han terminado causando mucho más daño que bien. En abril, se alegó que un hombre belga con ansiedad climática severa se suicidó después de buscar el apoyo de un chatbot. Y en 2021, un joven de 19 años intentó matar a la difunta reina Isabel II, sí, en serio, con una ballesta después de encontrar apoyo y aliento para ejecutar el complot mortal de su novia de IA.

Y en otros casos, en casos notablemente menos extremos, algunos usuarios de aplicaciones de acompañamiento de chatbot han informado sentirse angustiados cuando sus compañeros de chatbot y amantes han sido desmantelados. Si la IA de Microsoft desarrollara relaciones cercanas con los usuarios y luego se cerrara por cualquier motivo, no sería la primera vez que Microsoft eliminara un bot, podríamos imaginar que los clientes de la IA de terapia pasarían por una experiencia dolorosa similar.

También hay algunas advertencias de responsabilidad más obvias aquí. Para que una aplicación como esta sea funcional y segura, Microsoft deberá instalar algunos guardamanos de IA a prueba de balas. Y, al igual que un terapeuta humano, el bot probablemente debería estar obligado a informar el comportamiento peligroso o inquietante a las autoridades o a servicios de salud especiales.

Y aún así, independientemente de sus guardamanos, queda por ver si alguna IA actual tendrá el matiz emocional necesario para lidiar con situaciones complicadas y a menudo frágiles relacionadas con la salud mental y la enfermedad. ¿Qué pasa si le dice algo incorrecto a alguien que está luchando, o simplemente no dice lo suficiente?

Es difícil imaginar que un bot pueda ofrecerle a alguien la misma empatía y apoyo que un buen terapeuta humano, pero, según esta patente, aparentemente eso aún está por verse.

___________________________________________
Con información de Futurism. Imagen: MM.

Verified by MonsterInsights