(NunezNoda, 2 de septiembre de 2023). Un artículo de Diego Bastarrica en el sitio Digital Trends tiene como título: Todos los datos personales que recolecta de ti ChatGPT y hace un inventario de la que el sistema toma del usuario, su hardware, software y algunos datos de comportamiento: 

    • Al registrarse el usuario: “Nombre, la información de contacto, los datos de conexión como el propio navegador o la dirección IP”.

    • Al operar el software: “Todos los mensajes que se van escribiendo y las acciones que realiza el usuario. De esta manera, agrupan todas las interacciones asociándolos a los nombres de usuarios que previamente se han recopilado con el fin de realizar tareas tares de investigación o mejores y analizar los servicios que se prestan.”  

    • Según sus términos de uso los datos se entregan a «vendedores y proveedores de servicios, incluidos proveedores de servicios de alojamiento, servicios en la nube y otros proveedores de servicios de tecnología de la información, gestión de eventos servicios, software de comunicación por correo electrónico y servicios de boletines por correo electrónico, y servicios de análisis web.»

    • Con las llamadas “cookies” Se recopilan los datos personales a través del sistema de cookies utilizando proveedores externos. Y es que según este propio texto, se puede recopilar información de la navegación del usuario incluso después de acceder a la plataforma con el objetivo de saber dónde ha ido un usuario después de escribir un mensaje a ChatGPT.

¿Qué dice el ChatGPT?

Le preguntamos y respondió:

Como modelo de lenguaje, mi función es procesar y generar texto en función de la entrada de los usuarios. Como tal, no recolecto ni almaceno intencionalmente información personal de los usuarios.

Sin embargo, es cierto que las aplicaciones que utilizan mi modelo, como chatbots o asistentes virtuales, pueden requerir la recopilación de información personal de los usuarios para proporcionar una experiencia de usuario más personalizada y útil. Es importante destacar que esta recopilación de datos debe ser transparente y estar sujeta a las leyes y regulaciones de protección de datos aplicables.

En cuanto a la supuesta recolección de datos por mi parte, como modelo de lenguaje no tengo acceso a la información personal de los usuarios, ya que solo trabajo con texto en bruto y no tengo la capacidad de recopilar información por mi cuenta. Cualquier información personal que se recopile como resultado del uso de aplicaciones que utilizan mi modelo sería responsabilidad de los desarrolladores de esas aplicaciones.

En resumen, como modelo de lenguaje, no recolecto información personal de los usuarios de forma intencional o directa. 

Sin embargo, es posible que las aplicaciones que utilizan mi modelo requieran la recopilación de información personal para proporcionar una mejor experiencia de usuario, siempre y cuando se realice de manera transparente y de acuerdo con las leyes y regulaciones aplicables.

Pero otros difieren

Un artículo de Artechnical.com explica:

La recopilación de datos utilizada para entrenar ChatGPT es problemática por varias razones.

Primero, a ninguno de nosotros se nos preguntó si OpenAI podría usar nuestros datos. Esta es una clara violación de la privacidad, especialmente cuando los datos son confidenciales y pueden usarse para identificarnos a nosotros, a los miembros de nuestra familia o nuestra ubicación.

Incluso cuando los datos están disponibles públicamente, su uso puede violar lo que llamamos integridad contextual. Este es un principio fundamental en las discusiones legales sobre privacidad. Requiere que la información de las personas no se revele fuera del contexto en el que se produjo originalmente.

Además, OpenAI no ofrece procedimientos para que las personas verifiquen si la empresa almacena su información personal o para solicitar que se elimine. Este es un derecho garantizado de acuerdo con el Reglamento General Europeo de Protección de Datos (RGPD), aunque todavía se debate si ChatGPT cumple con los requisitos del RGPD.

En conclusión

Parece que, sin violar términos explícitos, hay un acceso muy amplio a los datos privados del usuario que, seguramente, no llegan a violar la ley que protege la confidencialidad más allá de lo que se puede tomar de una interacción persona-máquina. 

No obstante, es considerado excesivo por muchos expertos consultados. El peso que el acceso a datos del ChatGPT ponga sobre el usuario, determinará su decisión de usuarlo o no. Un punto que asusta a muchos usuarios es el hecho de que el Chabot da mejor servicio en la medida que tenga más datos del usuario. No hay una relación ganar-ganar.

 

_____________________________________________________
Producido por NunezNoda IA en sinergia humana y de Inteligencia Artificial.

Verified by MonsterInsights