Robots entre nosotros (2da parte)

Robots entre nosotros (2da parte)

(19 de noviembre, 2023). Fernando Nunez-Noda, Director de Maquinamente (Link a la 1er parte)

Los Robots en la Literatura y el Cine (2da parte)

(Atención: Puede haber spoilers.)

Pero los robots interesantes son los que se parecen a nosotros y, paradójicamente, tienen el potencial de hacernos añicos (así somos). Tomemos Terminator con Arnold Schwarzenegger por ejemplo. Son androides, es decir, robots humanizados que caminan, sujetan objetos, ven, escuchan y hablan, también son capaces de sensaciones táctiles.

Vale decir que ya hay androides entre nosotros, como ASIMO (suena como un tal Isaac y su foto está a la derecha), fabricado por Honda y capaz de un rango bastante amplio de movimientos. Camina como ningún robot hasta ahora, sube y baja escaleras, sortea obstáculos, reconoce objetos e incluso rostros. Responde a sonidos y cambios diversos en sus alrededores.

En cambio el de Robocop (1987) es un cyborg, al igual que Darth Vader de la famosa Guerra de las Galaxias. Son humanos a quienes se les han incorporado elementos robóticos para completarlos o mejorarlos. El primero está del lado de la ley pero no deja de tener profundos conflictos por su condición mixta. El segundo es un villano que aprovecha al máximo sus atributos robóticos para aplastar a sus enemigos.

Tan temprano como 1941, el autor estadounidense Isaac Asimov usó por primera vez el término “robótica” y predijo el advenimiento de la industria de los autómatas. En su libro de cuentos I, Robot (del cual se hizo una película en 2004 con Will Smith) Asimov expuso las famosas “3 Leyes de la Robótica”:

Primera Ley: “Un robot no hará daño a un ser humano, ni permitirá con su inacción que sufra daño.” Segunda Ley: “Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.” Tercera Ley: “Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.”

Luego le agregó una Ley Cero: “Un robot no hará daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño.”

El argumento de “I, Robot” sigue una línea común en las historias de entidades cibernéticas autoconscientes: llegan a equiparse con los humanos, sus creadores, y por supuesto en algún momento quieren independizarse y ser realmente autónomos socialmente. Un equivalente, quizá, a la emancipación de los esclavos.

Antes hablé de 2001 Odisea Espacial. Es bueno notar que HAL-9000, la computadora inteligente de la nave, tiene un conflicto ético cuando se le obliga a mentir y, eventualmente, a asesinar para poder cumplir una misión que los astronautas no conocían.

Más ligeros, aunque no ajenos a conflictos morales y de conciencia, son los autómatas de Star Wars. C3PO es un androide pero R2D2 o BB8 son “droides”, es decir, capaces de inteligencia humana pero sin aspecto humano.

Blade Runner (1983) es una obra maestra del director Ridley Scott (basada en un cuento de otro genio de la sci-fi, Phillip K. Dick) plena de dramatismo del lado de los humanoides. Fabricados a imagen y semejanza de sus creadores, capaces de razonamientos profundos y emociones, los androides de esta película son –en muchos sentidos- más humanos que los humanos mismos. El problema es que tienen un tiempo de vida prefijado y corto. En un mundo sucio, superpoblado y deprimente, el detective se da cuenta que sus perseguidos robóticos aprecian mucho más la vida que él mismo y tienen un sentido poético de la existencia que se ha perdido en ese mundo distópico.

The Matrix (1999) ofrece un tipo muy diferente de robots. Digamos: seres hechos de realidad virtual, en un mundo simulado que esconde una absoluta tiranía de las máquinas, de las computadoras que usan a los humanos como baterías vivientes y a cambio le dan la apariencia de realidad cotidiana.

En esa película el robot es también un universo ilusorio que unos pocos rebeldes tratan de desmantelar para vivir algo más real y propio. Un eco -quizá- de la ilusión del mundo que denunció Buda y a la cual hay que renunciar con una nueva conciencia con la realidad.

Decíamos, pues, que Turing se preguntó si los cerebros electrónicos llegarían a ser inteligentes. La inteligencia humana deduce, induce, infiere, imagina, adivina, especula. En 1997 Deep Blue, un sistema computacional de IBM, «derrotó» a Gary Kasparov -campeón de entonces y acaso el mejor jugador de todos los tiempos- en un match de ajedrez de varias partidas. Deep Blue produce millardos de configuraciones complejas a partir de reglas simples que se agregan y concatenan, de modo que parecen realizadas, no sólo por un humano, sino por uno superdotado. Eso sí, sólo en ajedrez.

Lo más pertinente sería pensar que Deep Blue sí demuestra inteligencia, pero no enteramente suya, sino “prestada” de sus creadores y programadores. En otras palabras, quienes ganaron fueron los creadores de los algoritmos, las reglas que sigue el sistema en todos los casos posibles. En sucesivos intentos, Kasparov no pudo derrota a su némesis electrónica.

Deep Blue no es solo una prolongación de las capacidades ajedrecísticas de sus programadores, sino una superación de sus limitaciones, dado que puede procesar información como no pueden sus hacedores individual o colectivamente. Además, Deep Blue es capaz de responder a muy complejas estrategias de engaño y sutileza. Puede simular, cambiar de plan sobre la marcha. Un genio, pues.

Kasparov protagonizó otros dos matches, en 2003, contra programas computacionales distintos a DeepBlue. Ambos resultaron tablas. En 2006 el campeón mundial de entonces, Vladimir Kramnik, jugó contra un”nieto” de DeepBlue llamado Deep Fritz. La computadora le ganó 4 juegos a 2. Wikipedia da cuenta que, según conocedores, en la última partida sencillamente lo aplastó.

Parece que la distancia crecerá a favor de la computadora como ya ha ocurrido en tantas áreas. El campeón mundial actual, el hindú Viswanathan Anand, tiene un puntaje ELO en la Federación Mundial de Ajedrez de 2.817. Un “motor ajedrecístico” de 2010, llamado Rybka, tiene un ELO estimado de 3.200 puntos. Y actualmente, por cierto, hay programas que corren en móviles a nivel de Gran Maestro.

En 2011 IBM probó Watson, una súper computadora de notoria cultura general y especializada, capaz ya no de responder a un limitado conjunto de mensajes prefijados, sino al lenguaje natural. Ese año participó en igualdad de condiciones en el programa de TV Jeopardy y lo ganó resonantemente. Como sabemos, en ese show las preguntas son ambiguas, muy variopintas, con juegos de palabras que hacen que sus ganadores sean personas muy preparadas y especiales. ¿Qué nos dice esto de los cerebros electrónicos?

El traslado de inteligencia fuera de la mente, a cerebros mecánicos que imitan algunos aspectos no tan rudimentarios del pensamiento, es lo que llamamos «inteligencia artificial». Estamos, eso sí, a enorme distancia de un pensamiento artificial autónomo, inductivo o emotivo, pero hay razones para celebrar los triunfos sobre campeones de ajedrez o concursantes nerds. Eso revela el poder de la inteligencia combinada y condesada fuera del cerebro para que «piense» por sí misma.

Epílogo

Por tanto, hay dos visiones. Una optimista: los robots nos facilitarán la vida, sustituirán al humano en todo tipo de tareas peligrosas o tediosas, nos ayudarán a ganar guerras contra terroristas, a conquistar planetas fuera del nuestro y una largo etcétera.

Los profetas del desastre resaltan los dilemas éticos, el enorme desempleo que provocarán, la tiranía de las tostadoras inteligentes para que no comamos panes genéticamente modificados y un eventual enfrentamiento cuando –cual replicantes de Blade Runner- reclamen independencia y posiblemente supremacía.

Y un científico loco diría, alumbrado desde abajo con una linterna: “¡Las máquinas malévolas nos alcanzan ja ja ja ja!”. Ahora son móviles e inmateriales…

(Link a la 1ra parte).

___________________________________________
Imagen: MM.

Video: Filosofía cognitivas de la IA

Video: Filosofía cognitivas de la IA

(18 de noviembre, 2023). Considerado como un «documental de filosofía» este video se autodefine así:

El presente documental de filosofía gira en torno a la inteligencia artificial – también denominada con el acrónimo ‘IA’: un conjunto de capacidades cognoscitivas expresadas por sistemas informáticos o combinaciones de algoritmos cuyo propósito es la creación de máquinas que imiten la inteligencia humana para realizar tareas, resolver problemas y tomar decisiones cada vez más complejas a partir de una serie de datos. ¿Puede una máquina actuar inteligentemente? ¿Es capaz de resolver cualquier problema que una persona resolvería pensando? ¿En qué se diferencia la inteligencia artificial de la humana? 

⌚ Línea temporal: 00:0006:13 – Introducción. 06:1307:50 – ¿Qué es la inteligencia artificial? 07:5015:27 – Los procesos de la IA. 15:2720:38 – IA fuerte vs. IA débil. 20:3828:09 – El problema de la inteligencia. 28:0934:16 – El test de Turing. 34:1636:59 – Conclusión.

___________________________________________
Imagen: MM.

Google lanza una ola de IA generativa en su buscador

Google lanza una ola de IA generativa en su buscador

(12 de noviembre, 2023). Google Search expande las capacidades de IA Generativa al mundo. Dice la empresa:

«Este año, hemos estado probando cómo la inteligencia artificial generativa (IA generativa) en Search puede ayudar a las personas a encontrar lo que buscan de nuevas y más rápidas maneras. Con Search Generative Experience (SGE), puede obtener descripciones generales impulsadas por IA que reúnen la información más útil y relevante disponible para su búsqueda.

«La IA generativa en Search ya nos permite atender una gama más amplia de necesidades de información, incluidas aquellas que se benefician de múltiples perspectivas. Con SGE, estamos mostrando más enlaces y enlaces a una gama más amplia de fuentes en la página de resultados, creando nuevas oportunidades para descubrir contenido.

«A medida que hemos mejorado continuamente la experiencia, también nos hemos expandido internacionalmente más allá de los Estados Unidos con lanzamientos recientes en India y Japón. Hasta ahora, la gran mayoría de los comentarios en los tres países ha sido positiva, y las personas encuentran que la IA generativa es particularmente útil para preguntas complejas que normalmente no pensarían en buscar.

«Ahora, en nuestra mayor expansión global hasta el momento, estamos llevando la IA generativa en Search a más de 120 nuevos países y territorios, junto con soporte para cuatro nuevos idiomas. Y estamos introduciendo algunas mejoras, que se lanzarán primero en los EE. UU., que harán que SGE sea más interactivo a medida que busca, incluidas seguimientos más fáciles, ayuda para la traducción impulsada por IA y más definiciones para temas como la codificación.»

Cómo se expande

Dice Google:

«A partir de hoy, llevaremos Search Labs y SGE en inglés a más de 120 nuevos países y territorios alrededor del mundo, incluidos México, Brasil, Corea del Sur, Indonesia, Nigeria, Kenia y Sudáfrica.

«Como parte de esta expansión, también habilitaremos cuatro nuevos idiomas para todos los que usen SGE: español, portugués, coreano e indonesio. Entonces, si, por ejemplo, hablas español en los EE. UU., ahora puedes usar IA generativa en la búsqueda con tu idioma preferido.

«Searchch Labs es una nueva forma de probar experimentos iniciales en la Búsqueda, disponible en la aplicación de Google (Android and iOS) y en Chrome para escritorio. Una vez que esté inscrito en Search Labs, simplemente habilite el experimento SGE para comenzar. En nuevos países, el acceso a través del escritorio Chrome está disponible hoy y el acceso a través de la aplicación de Google se habilitará durante la próxima semana.»

___________________________________________
Imagen: MM.

Cumbre sobre Seguridad de la IA, primer gran hito de esta tecnología

Cumbre sobre Seguridad de la IA, primer gran hito de esta tecnología

(6 de noviembre, 2023 – Foto oficial del evento). Que hubo acuerdo entre representantes de OpenAI, Google, Microsoft, Anthropic,  Meta y xAI es prueba del éxito de la primera cumbre que busca regular aspectos claves de la IA. ¡La movida esta semana en el Reino Unido fue la Cumbre de Seguridad de la Inteligencia Artificial!

Las grandes empresas tecnológicas se comprometieron a colaborar con los gobiernos en las pruebas de sus nuevos juguetes de inteligencia artificial. La idea es reducir los riesgos asociados a esta tecnología, que según los presentes, podrían ser un verdadero desastre, según dijeron en un comunicado conjunto.

El primer ministro británico, Rishi Sunak, confrimó que Estados Unidos, la Unión Europea y otros países se pusieron de acuerdo con algunas empresas top para testear a fondo estos modelos de inteligencia artificial antes y después de lanzarlos al público. En estas sesiones, estuvieron los representantes de OpenAI, Anthropic, Google, Microsoft, Meta y xAI, quienes debatieron estos temas el jueves pasado.

Para darle más cuerda a esto, convocaron a Yoshua Bengio, un crack canadiense en computación y considerado uno de los padres de la inteligencia artificial, para que haga un informe sobre el «estado de la ciencia». La idea es entender mejor lo que estas tecnologías pueden hacer ahora y centrarse en los riesgos más importantes. Bengio, que ganó el Premio Turing y es parte del Consejo Asesor Científico de la ONU, se va a encargar de armar ese informe. ¡La IA se desarrolla imparablemente!

Hubo conflicto

La movida del gobierno británico es fuerte: armaron un nuevo centro global de pruebas que va a estar instalado en el Reino Unido. La idea es enfocarse en los problemas de seguridad nacional y social, ¡se la juegan totalmente!

China, sí, el mismo país gigante, está en la lista de los 28 países que firmaron la Declaración de Bletchley. Todos estos gobiernos acordaron que las empresas que hacen inteligencia artificial tienen que ser transparentes y rendir cuentas. Además, van a hacer planes para controlar y minimizar los peligros de estos bichos tecnológicos.

Pero ojo, el representante chino no apareció el jueves y no firmó el acuerdo sobre las pruebas. Sunak, el primer ministro, le mandó una invitación a China para la cumbre, y esto armó un revuelo en el parlamento británico. A algunos no les gustó nada que estén tan cerca de colaborar con Beijing, especialmente porque varios países de occidente no están muy de acuerdo en meterse en negocios tecnológicos con los chinos.

Sunak salió a bancar su decisión, argumentando que un tema tan grosso necesita que estén los jugadores más importantes. Además, insiste en que el Reino Unido puede ser el puente perfecto entre los grupos económicos de Estados Unidos, China y la Unión Europea. ¡Están que arden!

Enfrentando los riesgos

La vicepresidenta estadounidense Kamala Harris ya había insistido el miércoles en la necesidad de adoptar un «enfoque más práctico», que no se limite a evaluar los riesgos existenciales. «Hay amenazas adicionales que también exigen nuestra acción, amenazas que actualmente están causando daño y que muchas personas también consideran existenciales», dijo Harris.

La vicepresidenta citó el ejemplo de un anciano que canceló su plan de atención médica debido a un algoritmo de inteligencia artificial defectuoso. También mencionó el caso de una mujer que fue amenazada por una pareja abusiva con fotos modificadas. Hay que trabajar «en todo el espectro», dijo Harris, más allá de las amenazas existenciales sobre ciberataques masivos o armas biológicas.

La clonación de identidad, la conducción autónoma por inteligencia artificial y las campañas de desinformación figuran como otros de los peligros más cotidianos detectados en el desarrollo de esta tecnología. En este sentido, Harris anunció un nuevo instituto de seguridad de inteligencia artificial en EE. UU. Estará orientado a elaborar estándares para probar sistemas de uso público y colaborará con el centro de pruebas de Reino Unido anunciado por Sunak.

China se fue

¡El rollo es que el gobierno británico soltó que las empresas y gobiernos se están activando para crear un nuevo centro de pruebas internacional en el Reino Unido! Y la movida va a estar enfocada en la seguridad del país y la sociedad.

Resulta que China, que es uno de los 28 países que firmó la Declaración de Bletchley, está en la misma onda. Todos estos gobiernos están de acuerdo en que las empresas que se mandan con la inteligencia artificial tengan que ser transparentes y rendir cuentas. También se están armando planes para medir, monitorear y frenar los posibles problemas que se les pueden venir.

Lo insólito es que el representante de China no apareció el jueves y no le puso la firma al acuerdo sobre las pruebas. Esto generó polémica porque el primer ministro británico, Rishi Sunak, lo había invitado a la cumbre, y varios lo criticaron porque no entendía que a varios países de Occidente no les hace gracia trabajar con Beijing en temas tecnológicos.

Sunak salió a defenderse, diciendo que un tema tan clave necesita que estén todos los pesos pesados. Además, insistió en que el Reino Unido podría ser el enlace entre Estados Unidos, China y la Unión Europea en el mundo de la tecnología. ¡La cuestión está candente!

___________________________________________
Imagen: Foto oficial de la Cumbre.

Alcanzan un acuerdo «pionero en el mundo» sobre la Inteligencia Artificial en una cumbre en Reino Unido

Alcanzan un acuerdo «pionero en el mundo» sobre la Inteligencia Artificial en una cumbre en Reino Unido

(3 de noviembre, 2023, Editores de MM). Hay un Pacto Internacional sobre Inteligencia Artificial: la Declaración de Bletchley acerca de la seguridad en el ámbito de la Inteligencia Artificial (IA) representa un acuerdo histórico firmado por representantes y empresas provenientes de 28 países, incluyendo a Estados Unidos, China y la Unión Europea.

Este pacto tiene como objetivo abordar los riesgos asociados a los denominados «modelos fronterizos» de IA: los complejos modelos lingüísticos desarrollados por empresas como OpenAI.

Por su parte, gobiernos como el británico han elogiado este acuerdo como un hito sin precedentes a nivel mundial. Los signatarios se comprometen a identificar los «riesgos de seguridad compartidos» relacionados con la Inteligencia Artificial y a establecer políticas respectivas basadas en dichos riesgos entre las naciones participantes. 

El Reino Unido y Estados Unidos firmaron un acuerdo histórico para la seguridad de la Inteligencia Artificial (IA). El pacto, que aún no ha sido revelado en detalle, establece un marco para la cooperación entre ambos países en el desarrollo y uso de la IA.

Michelle Donelan, secretaria de Estado de Ciencia, Innovación y Tecnología del Reino Unido, calificó el acuerdo como un «logro histórico» que sienta las bases para las discusiones actuales. «Este acuerdo es un testimonio del compromiso compartido de ambos países para garantizar que la IA se use de manera segura y responsable», dijo Donelan.

El Gobierno británico anunció la organización de futuras cumbres enfocadas en la seguridad de la IA. Estas cumbres reunirán a expertos de ambos países para discutir temas como la ética de la IA, la prevención del uso malicioso de la IA y la regulación de la IA.

Aumenta el apoyo internacional

En un evento sin precedentes que tuvo lugar en Bletchley Park, Reino Unido, líderes globales, expertos tecnológicos y representantes de 27 naciones y la Unión Europea sellaron un acuerdo histórico sobre la seguridad en el ámbito de la inteligencia artificial (IA). Este pacto, firmado por países como EE. UU., China y varios otros, tiene como objetivo mitigar los peligros asociados a los modelos avanzados de IA, conocidos como modelos fronterizos.

El evento, descrito como una cumbre pionera a nivel mundial, tuvo lugar el miércoles y continuará hasta este jueves en el emblemático Bletchley Park, famoso por ser el lugar donde se descifraban códigos durante la Segunda Guerra Mundial.

Estas son las principales conclusiones de la primera jornada.

Y el movimiento seguirá

La evaluación del pacto internacional de Inteligencia Artificial ha sido mixta. Aunque la secretaria de Estado de Ciencia, Innovación y Tecnología del Reino Unido, Michelle Donelan, lo describió como un «hito histórico» que establece las bases para los debates actuales, el acuerdo ha sido criticado por no ir lo suficientemente lejos.

El Gobierno británico ha anunciado la organización de futuras cumbres enfocadas en la seguridad de la IA, pero algunos expertos consideran que se necesitan políticas más concretas y mecanismos de rendición de cuentas. Paul Teather, director general de la firma de investigación en IA AMPLYFI, expresó a Euronews Next su preocupación sobre la terminología imprecisa del acuerdo, que podría llevar a interpretaciones erróneas. Además, señaló que depender únicamente de la cooperación voluntaria no es suficiente para establecer prácticas éticas reconocidas a nivel mundial en el campo de la Inteligencia Artificial.

__________________________________

Imagen: MM.

La UNESCO se pronuncia sobre la IA

La UNESCO se pronuncia sobre la IA

(29 de octubre, 2023). El uso de herramientas de inteligencia artificial está abriendo nuevas posibilidades en el campo de la educación. Sin embargo, es urgente tomar medidas para asegurarnos de que estas herramientas se integren en nuestros sistemas educativos de acuerdo con nuestras condiciones y necesidades. Este es el mensaje central del nuevo documento de la UNESCO sobre la inteligencia artificial generativa y el futuro de la educación.

En un artículo de opinión, Stefania Giannini, Subdirectora General de Educación de la UNESCO, expresa su preocupación por la falta de aplicación de controles y equilibrios en la implementación de la inteligencia artificial generativa en los materiales didácticos. Aunque reconoce que estas herramientas ofrecen nuevas perspectivas de aprendizaje, subraya que las regulaciones deben elaborarse solo después de una investigación adecuada.

Una encuesta global realizada por la UNESCO a más de 450 escuelas y universidades en mayo reveló que menos del 10% de estas instituciones han desarrollado políticas o directrices formales sobre el uso de aplicaciones de inteligencia artificial generativa. Además, el documento señala que el tiempo y los procedimientos necesarios para validar un nuevo libro de texto son mucho más extensos que los necesarios para introducir herramientas de inteligencia artificial generativa en las escuelas y aulas. Los libros de texto son evaluados minuciosamente para determinar su precisión, adecuación para la edad, relevancia educativa, corrección del contenido y adecuación cultural y social, incluyendo controles para evitar prejuicios, antes de ser utilizados en el aula.

La UNESCO enfatiza que el sector educativo no debe depender de las corporaciones que desarrollan inteligencia artificial para regular su propio trabajo. Recomienda que los ministerios de educación desarrollen sus capacidades en coordinación con otras autoridades gubernamentales encargadas de la regulación tecnológica para examinar y validar nuevas aplicaciones de inteligencia artificial destinadas al uso educativo formal.

El documento subraya la importancia de preservar la naturaleza profundamente humana de la educación, basada en la interacción social. Durante la pandemia de COVID-19, cuando la tecnología digital se convirtió en el principal medio de educación, los estudiantes experimentaron dificultades tanto académicas como sociales. La inteligencia artificial generativa tiene el potencial de socavar la autoridad de los docentes y fomentar llamados a una mayor automatización de la educación, lo que podría llevar a un escenario de escuelas sin maestros y educación sin escuelas. La UNESCO hace hincapié en la necesidad de priorizar escuelas bien administradas, con un número adecuado de docentes, capacitación y salarios adecuados.

El documento argumenta que la inversión en escuelas y docentes es fundamental para abordar el hecho de que actualmente, en los albores de la era de la inteligencia artificial, 244 millones de niños y jóvenes no tienen acceso a la educación y más de 770 millones de personas son analfabetas. La evidencia demuestra que escuelas y docentes de calidad pueden resolver este desafío educativo persistente. Sin embargo, el mundo aún no está proporcionando suficiente financiamiento para estos aspectos fundamentales.

En respuesta a los desafíos planteados por la inteligencia artificial generativa en la educación, la UNESCO está liderando un diálogo global con responsables políticos, socios tecnológicos, académicos y la sociedad civil. La organización celebró la primera reunión mundial de Ministros de Educación en mayo de 2023 y está desarrollando pautas de políticas sobre el uso de la inteligencia artificial generativa en la educación, así como marcos de competencia en inteligencia artificial para estudiantes y profesores de escuelas. Estos recursos se lanzarán durante la Semana del Aprendizaje Digital, que se llevará a cabo en la sede de la UNESCO en París del 4 al 7 de septiembre de 2023. Además, el Informe de Seguimiento de la Educación en el Mundo 2023 de la UNESCO, que se publicará el 26 de julio de 2023, se centrará en el uso de la tecnología en la educación.

Cabe mencionar que la UNESCO elaboró la primera norma mundial sobre ética de la inteligencia artificial, la «Recomendación sobre la ética de la inteligencia artificial», en noviembre de 2021. Este marco fue adoptado por los 193 Estados miembros de la UNESCO y enfatiza la necesidad de que los gobiernos garanticen que la inteligencia artificial siempre se adhiera a los principios de seguridad, inclusión, diversidad, transparencia y calidad.


___________________________________________
Ilustración MM.
Verified by MonsterInsights