¿Se puede confiar en Chat GPT y otras IA para proteger los datos privados?

OpenAI ha lanzado recientemente su nuevo modelo de IA, GPT-4o, para potenciar su chatbot ChatGPT. Esta versión mejorada promete resolver ecuaciones complejas, contar cuentos antes de dormir e identificar emociones a partir de expresiones faciales. Sin embargo, estas nuevas capacidades también amplían la cantidad de información que puede ser potencialmente recopilada por OpenAI, lo que ha suscitado preocupaciones sobre la privacidad.

Un historial irregular en privacidad

Desde su lanzamiento en 2020, OpenAI ha enfrentado críticas por su manejo de datos personales. Un documento técnico reveló que millones de páginas web, incluidos datos personales de usuarios, se utilizaron para entrenar su sistema de texto de IA generativa. Esto llevó a una prohibición temporal de ChatGPT en Italia el año pasado debido a preocupaciones sobre la privacidad.

La introducción de GPT-4o no ha estado exenta de problemas. Una demostración inicial de la aplicación de escritorio macOS ChatGPT mostró que el chatbot podía potencialmente acceder a la pantalla de un usuario. Además, en julio, se descubrió un problema de seguridad que permitía encontrar chats almacenados en la computadora en texto plano. Aunque OpenAI lanzó rápidamente una actualización para cifrar los chats, estas incidencias han aumentado las preocupaciones sobre la privacidad de los datos.

Política de privacidad y recopilación de datos

La política de privacidad de OpenAI indica una amplia recopilación de datos, incluyendo información personal, datos de uso y contenido proporcionado por el usuario. ChatGPT utiliza estos datos para entrenar sus modelos, a menos que el usuario desactive esta opción en la configuración o use la versión empresarial. Aunque OpenAI asegura que los datos individuales están «anonimizados», la política sigue un enfoque de «recopilar todo ahora y ordenar después», según Angus Allan, gerente de productos senior en la consultora digital CreateFuture.

De forma predeterminada, ChatGPT recopila una variedad de datos sobre los usuarios, incluyendo indicaciones y respuestas, direcciones de correo electrónico, números de teléfono, datos de geolocalización, actividad de red y el tipo de dispositivo utilizado. Estos datos se utilizan para mejorar las respuestas del modelo de IA, pero también pueden compartirse con afiliados, vendedores, proveedores de servicios y fuerzas de seguridad.

Controles de privacidad

En respuesta a las críticas, OpenAI ha presentado herramientas y controles para que los usuarios puedan gestionar sus datos. La empresa afirma que no utiliza información personal para entrenar sus modelos y no crea perfiles de usuarios para publicidad o venta de datos.

Rob Cobley, socio comercial de la firma de abogados Harper James, señala que OpenAI ha mejorado la transparencia sobre la recopilación y el uso de datos, permitiendo a los usuarios acceder, actualizar y eliminar su información personal. Angus Allan recomienda que los usuarios cancelen la suscripción al entrenamiento de modelos para evitar que sus datos se utilicen en futuros entrenamientos.

Conclusión

Aunque OpenAI ha tomado medidas para mejorar la protección de datos, las preocupaciones sobre la privacidad persisten debido a la amplia recopilación de datos y los problemas de seguridad pasados. Los usuarios deben ser conscientes de los datos que comparten y utilizar las herramientas disponibles para proteger su privacidad al interactuar con ChatGPT y otras IA.

Scroll al inicio