Casi una de cada cuatro personas en el Estado reconoce haber sufrido ansiedad y seis de cada diez declaran haber experimentado episodios de estrés en el último año, según el último Estudio AXA España 2025. Estas cifras reflejan que la salud mental se ha convertido en uno de los grandes retos sociales de nuestro tiempo.
En este contexto, al hilo de haberse conmemorado Día Mundial de la Salud Mental, los expertos alertan sobre los riesgos y oportunidades que plantea el uso de la inteligencia artificial como herramienta de apoyo psicológico, recordando la importancia de combinar la innovación tecnológica con la protección de la privacidad y la seguridad digital.
El auge de herramientas basadas en inteligencia artificial ha abierto nuevas posibilidades de acompañamiento psicológico, con aplicaciones capaces de mantener conversaciones, ofrecer recursos de autocuidado o simular terapias guiadas.
Sin embargo, junto a sus beneficios emergen riesgos importantes: desde la fiabilidad de los consejos hasta la exposición de datos sensibles en plataformas que no siempre garantizan la confidencialidad.
Los especialistas advierten que, en un contexto donde la salud mental ya es especialmente vulnerable, confiar en servicios digitales sin garantías puede suponer un doble peligro: por un lado, para la privacidad de la información personal, y por otro, para la calidad y la seguridad del apoyo recibido.
“Es comprensible que muchas personas recurran a la inteligencia artificial en busca de apoyo, pero no debemos olvidar que hablamos de un terreno muy delicado. La información que compartimos sobre nuestra salud mental es extremadamente valiosa y, en manos equivocadas, puede ser utilizada con fines maliciosos. Creemos que la tecnología puede ser un aliado, siempre que se use con sentido crítico, garantizando la privacidad de los datos y sin sustituir nunca la ayuda profesional cuando esta es necesaria”, explica Josep Albors, director de Investigación y Concienciación de ESET España.
Consejos para proteger tu información
Los expertos recomiendan combinar la comodidad de las nuevas tecnologías con hábitos de seguridad sólidos:
- Activar la verificación en dos pasos y usar contraseñas únicas y robustas.
- Acceder siempre desde enlaces verificados o la app oficial de tu centro sanitario, evitando los enlaces recibidos por SMS o correo electrónico.
- Revisar los permisos de la app y configurar alertas de acceso a tu historia clínica si están disponibles.
- Descargar informes solo en dispositivos de confianza y, si necesitas compartirlos, utilizar enlaces temporales o archivos cifrados.
- Mantener actualizado tu móvil, ordenador y solución de seguridad, y recordar cerrar sesión tras cada uso.
- Si pierdes el dispositivo o detectas actividad sospechosa, cambiar la contraseña de inmediato y notifica al centro de salud.
- Evitar redes WiFi públicas abiertas y priorizar la conexión móvil o el uso de una VPN.
- Pensar antes de compartir datos confidenciales con una app de IA, ya que la información sobre tu salud mental es especialmente valiosa y puede ser usada con fines maliciosos.
La ciberseguridad en Sanidad
La digitalización ha transformado la asistencia sanitaria, desde diagnósticos hasta telemedicina, pero también ha ampliado la superficie de ataque en un entorno donde la continuidad del servicio es esencial.
Los historiales médicos concentran datos confidenciales y los hospitales integran miles de dispositivos conectados que, bajo presión asistencial, se convierten en objetivo prioritario para los ciberdelincuentes. ENISA ya advertía en su informe de 2023 que los proveedores de salud fueron los más afectados por incidentes de ciberseguridad en Europa, con el ransomware como amenaza principal por su impacto operativo y reputacional.
Extremar la precaución
El auge de herramientas basadas en inteligencia artificial como apoyo psicológico ha abierto nuevas oportunidades de autocuidado, pero también aumenta la necesidad de extremar la precaución en el manejo de datos delicados.
Además de los riesgos clásicos ligados a las plataformas de salud online –como accesos desde enlaces falsos, conexiones WiFi inseguras o dispositivos desprotegidos– ahora se suma la posibilidad de que aplicaciones de IA recopilen información emocional y clínica sin ofrecer suficientes garantías de confidencialidad.
“La clave es no dejarse llevar por la inmediatez de estas herramientas. Usar IA o plataformas digitales para cuestiones de salud puede ser positivo, siempre que se haga con sentido crítico, asegurando tanto la privacidad de los datos como la protección de los dispositivos”, concluyen.