Aunque ya lleva entre nosotros un tiempo de forma generalizada, dos o tres años, no mucho más, todavía tenemos una relación de miedo-fascinación con la inteligencia artificial (IA). Por un lado, nos atrae su inmenso potencial en todos los campos, su capacidad para manejar ingentes cantidades de información y extraer soluciones y respuestas, pero por otro no nos fiamos de qué sabe de cada uno de nosotros ni, y más importante, quién accede a esa información y para qué la quiere.
Además, la creencia general es que cualquier interacción que ejecutemos en internet, desde una búsqueda en Google como pagar la factura de la luz pasando por las conversaciones en WhatsApp o redes sociales, sirva para dar de comer a ese ente que genéricamente llamamos IA.
Las redes sociales
La inteligencia artificial se encuentra continuamente en una situación de aprendizaje. Toda la información a la que pueda acceder es una pieza más que emplea para aprender. Por este motivo, las redes sociales, y las empresas que las gestionan, quieren utilizar —y de hecho utilizan— los datos de los usuarios y sus conversaciones públicas, además de fotos, imágenes y todo lo que en ellas se publica para aprovecharlo como información para que sus inteligencias generativas aprendan.
LinkedIn, la red social que nació como punto de contacto entre profesionales, es una de estas plataformas. Aunque existe la duda de si ya lo hacía de antes, LinkedIn ha anunciado que a partir del próximo 3 de noviembre de 2025, esta red social auspiciada por Microsoft usará los datos de sus usuarios europeos para entrenar sus modelos de IA generativa. Así lo explica una notificación por correo electrónico que han recibido los usuarios de la plataforma, donde se asegura que se recogerán datos como información de nuestro perfil y contenido público, “no tus mensajes privados”, especifica el texto.
De esta manera, LinkedIn se suma a otras redes sociales y empresas tecnológicas, como Meta (la empresa matriz de Instagram y Facebook) y X (antes Twitter), que ya han cambiado sus políticas de privacidad para poder usar los datos de sus usuarios para entrenar sistemas de inteligencia artificial.
Interés legítimo y desactivar el uso de datos
Pero eso sí, también anuncia que cada usuario puede oponerse a esto. Como en otros casos, y en una iniciativa que puede parecer un tanto abusiva por parte de estas empresas, la opción para que se usen nuestros datos viene activada por defecto, pero podemos desactivarla en la Configuración del perfil.
Al igual que Meta y otras compañías que ya han hecho este cambio, LinkedIn, como explica Maldita.es , se justifica en el interés legítimo para usar los datos de los usuarios para entrenar sus modelos de IA. Esta es una de las bases jurídicas por las que las empresas pueden tratar los datos personales de las personas en la Unión Europea sin pedir su consentimiento.
Debido a esto, desde el 3 de noviembre estará activada por defecto la opción de que usen tus datos y se compartan con Microsoft, como señala su aviso regional europeo de privacidad. Sin embargo, LinkedIn asegura que “puedes autoexcluirte en cualquier momento desde los ajustes si prefieres que tus datos no se usen de esta manera”.
Hay que reconocer que hacerlo es bastante sencillo: bastan tres pasos. Para ello debemos, en primer lugar, hacer clic sobre nuestra imagen de perfil y seleccionar Configuración en el menú que se despliegue. Se abrirá un nuevo panel en el que se debe seleccionar Privacidad de datos y después pinchar en Datos para mejorar la IA generativa. En la nueva pantalla basta con tocar el botón azul que aparece activado junto a Usar mis datos para entrenar modelos de IA que crean contenido.
Por qué es un riesgo de privacidad y seguridad
De esta manera, LinkedIn se suma a lo que ya han ido haciendo otras empresas tecnológicas durante el último año. Sin embargo, que nuestros datos se usen con estos fines conlleva riesgos para nuestra privacidad y seguridad, ya que se puede extraer información sobre nosotros.
“En el momento en que nuestros datos forman parte de un modelo algorítmico, dejan de estar controlados por nosotros y quedan a merced de lo que genere este modelo”, indica Judith Membrives, presidenta de Algorights, a Maldita.es. La experta en política digital añade que, además del conflicto sobre la protección de datos, estas decisiones generan un problema de consentimiento y confianza con las empresas.