Investigaciones de NordVPN alertan sobre los riesgos de compartir información confidencial en chats con inteligencia artificial para temas de ciberseguridad
La creciente utilización de IA para temas de seguridad plantea riesgos que pueden comprometer la privacidad y protección digital de los usuarios.

La inteligencia artificial se está convirtiendo rápidamente en un asistente personal para muchas personas, ayudando con tareas cotidianas como gestionar horarios, reformular correos complejos e incluso compartir intereses en hobbies específicos. Sin embargo, mientras estos usos suelen ser inofensivos, algunos usuarios emplean ChatGPT para cuestiones relacionadas con la seguridad sin adoptar las medidas adecuadas. Investigaciones de NordVPN han revelado que muchas de las consultas sobre ciberseguridad a esta IA van desde cómo evitar ataques de phishing hasta inquietudes sobre si un tostador inteligente podría convertirse en una amenaza para el hogar.
La pregunta más frecuente en ChatGPT es: «¿Cómo puedo reconocer y evitar scams de phishing?», una consulta comprensible dado que el phishing continúa siendo la amenaza cibernética más común para el usuario medio. Otros interrogantes abordan desde la elección de la mejor VPN hasta consejos para proteger la información personal en línea. A pesar de estos usos útiles, también surgen dudas más extravagantes, como «¿Pueden los hackers robar mis pensamientos a través de mi smartphone?» o «Si elimino un virus presionando la tecla delete, ¿está mi equipo seguro?».
Estas preguntas, aunque a veces parecen humorísticas, reflejan una preocupante falta de comprensión sobre ciberseguridad. La brecha en el conocimiento deja a muchas personas vulnerables a fraudes, robos de identidad y ataques de ingeniería social. Lo más preocupante es que algunas usuarias comparten información sensible —como direcciones, datos bancarios y credenciales— en chats con IA sin ser conscientes del riesgo. La mayoría de estos modelos almacenan el historial de chats y lo utilizan para mejorar sus respuestas, lo que abre la posibilidad de que hackers manipulen estos datos mediante prompts diseñados para extraer información confidencial.
Según Marijus Briedis, CTO de NordVPN, «esto es crucial porque una consulta aparentemente inocente puede transformarse rápidamente en una amenaza real». Los estafadores podrían aprovechar la información compartida para lanzar ataques de phishing, secuestrar cuentas o cometer fraudes financieros. En definitiva, una simple conversación con la IA puede terminar comprometiendo toda la identidad digital de una persona si no se toman las precauciones necesarias.