VER RESUMEN

Desde su lanzamiento en 2022, millones de personas alrededor del mundo utilizan chatbots de inteligencia artificial (IA) —como ChatGPT, Gemini o Copilot— para realizar diferentes tareas, tanto a nivel personal como laboral.

En este contexto, no son pocos quienes, por descuido o falta de conocimiento, comparten información delicada con la máquina.

“He aprendido mucho con ChatGPT de OpenAI en los últimos años. Y el bot ha aprendido mucho sobre mí”, reflexionó la periodista Nicole Nguyen para The Wall Street Journal (WSJ). Según explicó, a lo largo de los años, la IA ha ido aprendiendo una serie de datos específicos sobre su vida, desde sus gustos culinarios y las rutinas de su bebé hasta problemas médicos.

En efecto, los chatbots a menudo utilizan una memoria para almacenar información sobre sus usuarios, lo que puede servir para entrenar al algoritmo y entregar respuestas más precisas. No obstante, saber qué datos es mejor guardarse para uno mismo puede ser crucial en una época donde los límites, brechas de seguridad y usos de esta tecnología aún no están definidos.

“No podemos eliminar mensajes específicos de tu historial. Por favor, no compartas información confidencial en tus conversaciones”, advierte ChatGPT en su apartado de preguntas frecuentes. ¿Qué cosas no debería compartir nunca con la IA?

Cinco cosas que jamás deberías compartir con una IA

Según planteó Jennifer King, investigadora del Instituto Stanford para la Inteligencia Artificial Centrada en el Ser Humano, al WSJ, “los chatbots pueden sonar inquietantemente humanos, lo que lleva a las personas a ser sorprendentemente abiertas en sus conversaciones con ellos. Al escribir algo en un chatbot, ‘pierdes el control’”.

De acuerdo con el citado medio, deberías abstenerte de compartir con ChatGPT, o el chatbot de tu preferencia, la siguiente información:

1. Información personal: datos como tu RUT, fecha de nacimiento, dirección o trayectos habituales deben mantenerse en privado. Nunca sabes si tu cuenta podría ser hackeada, lo que daría acceso a todas tus conversaciones con la máquina.

2. Historial clínico y resultados médicos: compartir diagnósticos o condiciones médicas a una herramienta de IA que no garantiza confidencialidad, puede exponerte innecesariamente ante una posible filtración de datos.

3. Información financiera: recuerda que, a diferencia de los bancos o sitios oficiales con seguridad avanzada, las conversaciones con IA no están diseñadas para manejar datos privados de forma segura.

4. Información corporativa: algo tan simple como pedirle a la IA que redacte un mail corporativo puede exponer sin querer datos que deberían mantenerse confidenciales. No es un caso hipotético: Samsung prohibió ChatGPT en la empresa después de que un ingeniero filtrara el código fuente interno del servicio.

5. Claves de acceso: hoy en día existen herramientas de IA que pueden asistir en la realización de diferentes tareas, lo que puede hacer tentador compartir las credenciales de la cuenta con un chatbot. Según explican desde el citado medio: “estos servicios no se diseñaron como bóvedas digitales: guarde sus contraseñas, PIN y preguntas de seguridad en su administrador de contraseñas”.

En pocas palabras: no compartas con el chatbot nada con lo que no te sentirías cómodo si se hiciera público.

Según explicaron diferentes expertos al WSJ, existen algunas medidas que puedes tomar para evitar ser víctima de filtraciones de datos o exposición innecesaria de información. Por ejemplo, borra cada conversación una vez que termine. A excepción de DeepSeek —que almacena tus datos indefinidamente— la mayoría de los chatbots purgan los datos borrados después de 30 días.

También, se recomienda preferir el chat temporal en lugar del normal. En ChatGPT, este está ubicado en la esquina superior derecha de la ventana de chat. Es como utilizar la versión incógnito del navegador.