Consultorio: "La IA no te va a quitar el trabajo, pero sí puede quitártelo alguien que sepa usar la IA mejor que tú"
El experto en tecnología Juan de la Herrán responde a las dudas de nuestros lectores sobre el uso de la inteligencia artificial y sus consecuencias en nuestro día a día y en un futuro cercano
El Oscar a la tecnología más disruptiva de los últimos años es, sin duda, para la Inteligencia artificial. No obstante, pese a que ya forma parte de nuestro día a día, tanto en el ámbito personal como en el laboral, los interrogantes hacia dónde nos dirigimos son cada vez más y tienen una mayor profundidad.
Relacionadas
Para aclarar dudas y comprender mejor el impacto de la IA, este periódico abrió un buzón de consultas para que usuarios y usuarias hicieran llegar sus preocupaciones al experto en tecnología Juan de la Herrán, divulgador tecnológico y colaborador habitual de nuestro medio en su sección 'Desconozco que desconozco'.
¿Tienes dudas sobre la IA o las fake news? Envía tu pregunta a Juan de la Herrán, experto en tecnología
Son eficaces las herramientas para detectar IA? Algunos dicen que son fiables y otros que no. Gracias, Juan. C.Doval
Hola, gracias por la pregunta. Y sí, es una duda muy habitual. La respuesta corta es: por ahora, no del todo. Pero vamos a verlo con calma, como si estuviéramos tomando un café. Imagina que la IA es un artista que copia pinturas. Al principio, se le notaban los errores: pinceladas raras, firmas mal hechas,… Pero ahora, cada vez pinta mejor. Tan bien, que incluso los expertos dudan. Pues con los textos, audios o imágenes generados por IA pasa lo mismo: cada día son más realistas, y las herramientas que los quieren detectar van un paso por detrás. ¿Qué herramientas hay? Hay varias: para texto, GPTZero, Turnitin, Copyleaks; para imágenes: Hive AI, Intellectual Property Office (IPO) tools, detectores de metadatos; para audio y vídeo: Adobe Content Credentials, Microsoft Video Authenticator.
Hay varias herramientas de IA: para texto, GPTZero, Turnitin, Copyleaks; para imágenes: Hive AI, Intellectual Property Office (IPO) tools, detectores de metadatos; para audio y vídeo: Adobe Content Credentials, Microsoft Video Authenticator.
Algunas funcionan bien en entornos controlados, como en colegios o medios profesionales. Otras, simplemente dan un “probablemente es IA” con un 70% de acierto… lo que no es mucho más fiable que lanzar una moneda. Entonces, ¿para qué sirven? Sirven, pero como ayuda, no como prueba definitiva. Son como un detector de humo: si suena, hay que mirar, pero no siempre hay fuego. Por ejemplo, si una herramienta dice que un texto es de IA, no significa que sea falso. Podría ser un alumno que escribe muy formal, o alguien que usa correctores avanzados. Y al revés: muchas fake news hechas con IA pasan desapercibidas porque los detectores no las reconocen. ¿Y qué hacemos entonces? Aquí va mi consejo, el que doy siempre cuando hablo de esto: No dependas solo de una herramienta. Aprende a usar tu propio criterio. Fíjate en detalles que la máquina aún falla. En fotos: manos raras, sombras inconsistentes, texto ilegible en carteles; en audios: voz demasiado perfecta, sin pausas naturales, entonación robótica; y, en textos: demasiado genérico, sin opiniones fuertes, sin errores humanos. Y sobre todo: pregúntate siempre por la fuente. Si no hay autor claro, ni fecha, ni enlace oficial… ahí ya tienes una señal de alarma, aunque ninguna herramienta haya saltado.
This browser does not support the video element.
¿Crees que las IA van a llegar a pensar y sentir como los humanos algún día?
Es una pregunta que lleva décadas en el aire… y que hoy, con la IA generativa tan presente, vuelve con más fuerza que nunca. Vamos a responderla con claridad, sin miedo pero sin sensacionalismos. Mi respuesta corta es:no, al menos no como lo entendemos hoy. Y te explico por qué. Primero: las IA no “piensan”, predicen. Lo que hace una inteligencia artificial como las que usamos hoy (ChatGPT, Gemini, Midjourney, etc.) no es razonar como tú o yo. No tiene ideas propias, ni intenciones, ni conciencia. Lo que hace es predecir la siguiente palabra, el siguiente píxel o el siguiente sonido basándose en patrones que ha visto millones de veces en internet. Es como si tuvieras un diccionario gigante que supiera qué frase suena “natural” después de otra… pero sin entender lo que significa. Por eso a veces da respuestas brillantes… y otras dice absurdos con total seguridad. Porque no sabe lo que dice, solo lo que suena bien. Y sobre los sentimientos… Los sentimientos humanos no surgen del aire. Nacen de experiencias corporales, recuerdos, química cerebral, cultura, dolor, alegría, miedo… Una IA no tiene cuerpo. No ha tenido una infancia. No siente hambre, no se enamora, no llora al ver una puesta de sol. Cuando una IA dice “Me alegra ayudarte”, no está feliz. Está siguiendo un patrón de cortesía aprendido, igual que un robot de aeropuerto te dice “Por aquí, por favor” sin saber siquiera qué es un “por favor”.
"Los sentimientos humanos no surgen del aire. Nacen de experiencias corporales, recuerdos, química cerebral, cultura, dolor, alegría, miedo… Una IA no tiene cuerpo, no ha tenido una infancia. No siente hambre, no se enamora, no llora..."
¿Y en el futuro? Algunos investigadores creen que, con suficiente complejidad, podríamos crear una IA con algo parecido a la conciencia. Pero eso es especulación, no ciencia aplicada. Hoy por hoy, no hay ninguna IA que se acerque siquiera a sentir una emoción básica. Y lo más importante: ni siquiera sabemos si quisiéramos eso. ¿Queremos que una máquina tenga deseos? ¿Que se niegue a hacer algo? ¿Que mienta por “autoconservación”? Eso ya no es una herramienta… es un ser autónomo. Y entramos en un terreno ético muy peligroso. Entonces, ¿para qué sirve la IA? Sirve como una lupa para la inteligencia humana; puede ayudarte a escribir, a traducir, a generar ideas, a detectar patrones en datos… Pero la decisión, el juicio ético, el sentido común… siempre deben ser tuyos.
¿Qué problemas éticos conlleva la IA? ¿Nadie se los plantea?
Es una pregunta tan importante como urgente. Hoy en día, la inteligencia artificial ya no es ciencia ficción: está en los hospitales, en los tribunales, en las ofertas de trabajo, en las redes sociales… y eso plantea desafíos éticos reales que no podemos ignorar. Vamos a repasar los más críticos, con claridad y sin tecnicismos.
- Sesgos y discriminación: Las IA aprenden de datos… y los datos humanos están llenos de prejuicios históricos. Por ejemplo, un sistema de reclutamiento puede descartar currículos de mujeres si ha sido entrenado con décadas de contrataciones masculinas. O por otro lado, un algoritmo policial puede señalar más a barrios marginados porque los datos reflejan más detenciones allí… no porque haya más delincuencia, sino porque hay más controles. Por lo tanto, la consecuencia principal es que la IA automatiza la injusticia, y lo hace con apariencia de objetividad.
- Falta de transparencia (la “caja negra”): Muchas IA toman decisiones sin que nadie —ni siquiera sus creadores— sepa exactamente por qué. Esto es grave cuando esa decisión afecta a tu vida, por ejemplo, ¿por qué me han denegado un préstamo? ¿Por qué no me han seleccionado para una entrevista? ¿Por qué un algoritmo dice que soy “riesgo alto” para un seguro? Si no puedes cuestionar la decisión, pierdes tu derecho a la explicación. Y eso va contra principios básicos de justicia.
- Privacidad y vigilancia masiva: Hoy, las IA pueden reconocer tu cara en una multitud, predecir tus emociones por tu voz, o saber tus hábitos por cómo mueves el ratón. Esto se usa en ciudades “inteligentes”, en publicidad… y en regímenes autoritarios. El riesgo no es la tecnología en sí, sino quién la controla y para qué.
- Desinformación a escala industrial: Ya no necesitas un equipo de espías para manipular una elección. Hoy, con un ordenador y una IA, puedes crear miles de noticias falsas, vídeos deep fake o perfiles falsos que parecen reales. Y lo peor: se difunden más rápido que la verdad. Esto debilita la democracia, la confianza y el debate público.
- Responsabilidad… ¿de quién?: Si un coche autónomo atropella a alguien… ¿Quién es el responsable? ¿El programador? ¿El fabricante? ¿El dueño del coche? ¿La IA? Hoy no hay marcos legales claros para responder esto. Y mientras tanto, los daños pueden ser irreversibles.
- Autonomía humana en peligro: Cuando delegamos todo en algoritmos —qué ver, qué comprar, con quién hablar—, dejamos de pensar por nosotros mismos. La IA no tiene malicia, pero nos puede hacer más pasivos, más manipulables, menos libres.
Entonces, ¿qué hacemos? No se trata de parar la IA, sino de guiarla con valores humanos. En la Unión Europea ya se está trabajando en una Ley de IA que prohíbe usos invasivos y exige transparencia en los de “alto riesgo”. Pero también depende de nosotros: preguntar siempre: ¿quién se beneficia con esto? Exigir explicaciones cuando una máquina decide por nosotros; educar a las nuevas generaciones no solo en tecnología, sino en ética digital.
Las fake news de IA: un riesgo que nos afecta a todos y todas
Oigo que la IA puede hacerlo todo, mejor, más rápido… ¿Me va a quitar la IA el trabajo?
Es una pregunta que me hacen cada vez más: ¿la IA me va a quitar el trabajo? Y la verdad es que entiendo el miedo. Hoy vemos cómo escribe, dibuja, traduce, edita vídeos… Parece que puede hacerlo todo.Pero permíteme darte una respuesta clara, sin alarmismos: La IA no te va a quitar el trabajo. Pero sí puede quitártelo alguien que sepa usar la IA mejor que tú. La IA es una herramienta, no un sustituto. Piensa en la IA como lo que es: una ayuda muy potente, como lo fue la calculadora para los contables, o el ordenador para los redactores. No piensa por ti. No tiene intención. No siente responsabilidad. Lo que hace es acelerar tareas repetitivas: redactar un borrador, organizar datos, transcribir audio, revisar ortografía… Pero el juicio, la empatía, la creatividad real y la toma de decisiones éticas… eso sigue siendo humano. 100%.
"El futuro no es “humano vs. máquina”, es “humano + máquina"
¿Qué trabajos están en riesgo?
Los que consisten solo en tareas repetitivas y predecibles, sin contacto humano ni necesidad de criterio. Por ejemplo, la redacción automática de informes simples, la generación de imágenes genéricas para publicidad básica, la clasificación de documentos... Pero incluso allí,quien supervisa, corrige y dirige ese proceso es una persona ¿Y qué trabajos están a salvo… o incluso ganan con la IA? Todos los que requieren relación humana (médicos, enfermeras, profesores, trabajadores sociales...); creatividad auténtica (artistas, escritores, diseñadores, periodistas...); toma de decisiones complejas (ingenieros, abogados, gestores, técnicos...). De hecho, en esos trabajos,la IA puede ser un superpoder ya que un periodista puede usarla para resumir entrevistas; un docente, para personalizar ejercicios; un comercial, para analizar clientes y preparar mejor su reunión. El resultado no es menos trabajo… sino trabajo más inteligente. Por lo tanto, el futuro no es “humano vs. máquina”, es “humano + máquina”. La clave está en aprender a colaborar con la IA, no en competir contra ella. Imagina a un artesano: no teme al taladro eléctrico porque sabe que no es el taladro el que crea la obra… es él. La IA es tu nuevo taladro. Mi consejo práctico es que identifiques qué partes de tu trabajo son repetitivas (redactar emails, organizar horarios, buscar información). Prueba herramientas de IA para esas tareas (por ejemplo, para resumir textos o generar ideas) y dedica el tiempo ahorrado a lo que no puede hacer la IA: escuchar, crear, decidir, emocionar.
Mi consulta es la siguiente: Si publico una imagen o vídeo generado con inteligencia artificial, ¿existe alguna obligación real o legal de decir que ha sido creado con IA? ¿Y qué pasa si parte de una imagen o persona real: quién tiene entonces los derechos o la responsabilidad? Saludos desde Vitoria, Asís
Hola Asís, de Vitoria. Gracias por una pregunta muy oportuna y que cada vez más gente debería hacerse. Vamos a verlo con claridad, porque toca temas legales, éticos y de sentido común. ¿Debo indicar que una imagen o vídeo fue generado con IA?La respuesta corta es:sí, en muchos casos no solo es recomendable, sino obligatorio. Vamos por partes; en el ámbito profesional, periodístico o comercial, si publicas un contenido como parte de una noticia, una campaña publicitaria o un producto digital (como hacemos aquí en Grupo Noticias), tienes la obligación de ser transparente. De hecho, la Unión Europea ya lo exige en su Ley de Inteligencia Artificial (AI Act). Si una imagen o vídeo es claramente sintético (por ejemplo, un político hablando sin haber dicho eso jamás),debe llevar una etiqueta como “Contenido generado por IA”. Lo mismo aplica si se manipula una voz real con deepfake. Objetivo: evitar engañar al público. No es cuestión de gusto, es de integridad informativa. En el caso de las redes sociales personales, aquí la ley no siempre obliga, pero la ética sí. Ten claro que si compartes una imagen falsa sin aclararlo, aunque sea por humor, puedes contribuir a la desinformación. Plataformas como TikTok, Instagram o YouTube ya están empezando a pedir etiquetas para contenidos generados por IA. Y si el contenido puede generar confusión (por ejemplo, “el alcalde de Vitoria dice X”), no decir que es IA es prácticamente mentir por omisión.
Verificar antes de compartir: la clave para frenar los bulos en redes
Y si uso una persona real… ¿quién tiene los derechos?
Este es el punto más delicado. Imagina este caso: Genero una imagen de un vecino tuyo del barrio, con su cara, diciendo algo que nunca dijo… ¿puedo hacerlo? La respuesta es: no, y te explico por qué. No puedes usar el rostro de alguien sin su permiso, aunque sea generado por IA. El derecho a la propia imagen está protegido en el Código Civil español. Y aunque la foto no sea real, si es reconocible como esa persona, puede demandarte por atentar contra su honor, difamar y usar su imagen sin consentimiento. Un ejemplo real ocurrió en 2024: un influencer fue sancionado por crear deep fakes de famosos promocionando productos falsos. Fue multado por violación de derechos de imagen y publicidad engañosa. ¿Y si solo uso parte de una persona real (por ejemplo, sus ojos o su sonrisa)? Incluso así, si el conjunto es reconocible, sigue siendo ilegal. La ley no dice “si usas el 100% de la cara”, sino “si la persona puede ser identificada”.
"El derecho a la propia imagen está protegido en el Código Civil español. Y aunque la foto no sea real, si es reconocible como esa persona, puede demandarte por atentar contra su honor, difamar y usar su imagen sin consentimiento"
Entonces, puedes usar la IA con tranquilidad si creas personajes ficticios no reconocibles, por ejemplo “un hombre de 40 años, pelo canoso, traje azul… También si indicas claramente que la imagen ha sido generada por inteligencia artificial. Puedes utilizarla libremente si no imitas voces, caras o firmas de personas reales, y si usas herramientas que respeten los derechos de autor (muchas IA entrenan con imágenes sin permiso, lo cual también es polémico). Por tanto, mi consejo como divulgador es que cuando uses IA, te preguntes si alguien podría alguien sentirse engañado; si alguien podría verse afectado; si estás siendo claro sobre el origen del contenido. Si respondes “sí” a las dos primeras, mejor no lo publiques. Si respondes “no” a la tercera, añade una nota: “Esta imagen ha sido generada por inteligencia artificial. No corresponde a una persona real". Es simple, rápido… y hace que internet sea un lugar más honesto.
¿Cómo va a influir la IA en las diferencias de sueldo entre personas?. A. Ruiz
Es una pregunta muy profunda, y que toca una de las grandes preocupaciones del futuro: ¿la IA va a hacer que la brecha salarial sea aún más grande? Vamos a verlo con claridad. La respuesta no es simple, pero sí clara: la IA puede amplificar las desigualdades… o ayudar a reducirlas. Depende de cómo la usemos. Puede aumentar la brecha ya que los que saben usar la IA ganan más. Imagina dos trabajadores en el mismo puesto: uno usa la IA para automatizar tareas, analizar datos y presentar resultados rápidamente; el otro no. El primero será más productivo, entregará más valor… y es probable que su empresa lo premie con un mejor salario. Así,la diferencia no está ya solo en el conocimiento, sino en el acceso y dominio de herramientas. Por otro lado, la IA permite la automatización de empleos menos cualificados, que son trabajos repetitivos (como ciertas tareas administrativas, atención al cliente básica o incluso conducción) pueden ser reemplazados por IA. Quienes los pierden suelen tener menos formación digital y más dificultad para reinventarse. Mientras tanto, los perfiles técnicos (programadores, ingenieros de datos, expertos en IA) ven sus sueldos subir por la demanda. Hay otro factor que es el acceso desigual a la tecnología; no todas las empresas, ni todos los países, ni todas las personas tienen el mismo acceso a herramientas de IA. Entonces, si solo unos pocos pueden usarlas, el beneficio económico se concentra en manos de unos pocos.
Por ello, las soluciones para reducir las diferencias pasan por la democratización del conocimiento; el apoyo en profesiones clave y mal pagadas (por ejemplo, un trabajador social puede automatizar informes y dedicar más tiempo a las personas); nuevos modelos de trabajo (la IA permite trabajar desde cualquier lugar, con más flexibilidad o personas en zonas rurales o con responsabilidades familiares pueden acceder a empleos antes inalcanzables). Entonces, lo qué determina el impacto real, no es la tecnología en sí, sino cómo la gestionamos como sociedad. ¿Formamos a la gente para usarla? ¿Las empresas la usan para potenciar a sus empleados, no para despedirlos? ¿Garantizamos que llegue a todos, no solo a los privilegiados. En la CAPV y Navarra, por ejemplo, hay iniciativas públicas para enseñar inteligencia artificial en escuelas e institutos. Es un paso clave: si aprendemos todos, nadie se queda atrás. Mi consejo es que no temas a la IA, pero tampoco la ignores. Aprende a usarla como una herramienta de empoderamiento porque el riesgo no es que la IA te baje el sueldo… sino que alguien que la sabe usarte gane en productividad, creatividad y eficiencia. Y eso ya no es futuro. Es hoy.
¿De verdad la IA ayuda a que vivamos mejor como sociedad?
Es una pregunta que merece una respuesta sincera, sin fanatismos ni miedo. ¿La IA ayuda a que vivamos mejor como sociedad? Sí… pero con grandes “peros”. La inteligencia artificial no es buena ni mala por sí misma. Es como el fuego: puede calentarte o quemarte, depende de cómo la uses. Lo que está mejorando gracias a la IA es mucho. Por ejemplo, en medicina, ayuda a diagnosticar cáncer en radiografías con más precisión y antes; acelera el descubrimiento de fármacos para enfermedades raras; permite prótesis que responden al pensamiento... Por lo que respecta en el día a día, la IA traduce idiomas en tiempo real (ideal para viajes o personas sordas); organiza el tráfico en ciudades para reducir atascos; o ayuda a personas con discapacidad a comunicarse o moverse.
"Aquello que está mejorando gracias a la IA es mucho. Por ejemplo, en medicina, ayuda a diagnosticar cáncer en radiografías con más precisión y antes"
También se nota su presencia en el ámbito del medio ambiente prediciendo sequías, incendios o inundaciones con mayor antelación, u optimizando el consumo de energía en hogares y fábricas. En la educación, por ejemplo, puede crear ejercicios personalizados para cada alumno, o detectar si un estudiante necesita apoyo emocional o académico, entre otras muchas cosas. No obstante, también hay sombras y puede que la IA aumente la desigualdad, ya que no todos tienen acceso igual a estas herramientas. A su vez puede propagar la desinformación, promover la pérdida de control en ciertos aspectos (por ejemplo, los algoritmos deciden quién consigue un trabajo, un préstamo… a veces sin explicación...), incluso crear dependencia y que nuestra capacidad de pensar, dudar o crear quede tocada... Por lo tanto, la IA nos puede ayudar a vivir mucho mejor… pero solo si ponemos límites, ética y justicia por delante.
Según las previsiones, la inteligencia artificial prevé destruir miles e incluso millones de puestos de trabajo. Ante esta situación, es posible que algunas personas sin empleo o falta de recursos tengan la necesidad de subsistir gracias a la RBU (Renta Básica Universal) que lleva tiempo hablándose?
Hola. Es una pregunta que cada vez se oye más, y con razón: si la IA sigue avanzando al ritmo actual,¿qué pasará con los millones de personas cuyo trabajo podría desaparecer? Y sí, como tú dices, eso revive un debate que lleva años sobre la mesa: el de la Renta Básica Universal (RBU). El problema no es que haya menos trabajo en total, sino que el tipo de trabajo cambia muy rápido, y muchas personas no tienen acceso fácil a la formación para adaptarse. Entonces, ¿la Renta Básica Universal sería la solución? Es una idea que suena justa: si las máquinas hacen mucho del trabajo, que todos reciban una parte del beneficio. Pero viéndolo con realismo, la RBU podría dar seguridad mínima a quien pierda su empleo o no pueda trabajar, permitiría a la gente formarse, reinventarse o cuidar de otros sin vivir en precariedad. Sin embargo esto se enfrenta a grandes retos como quién se encarga de financiar una RBU nacional; políticamente, es difícil actualmente aplicar a gran escala ya que requeriría impuestos muy altos o una redistribución profunda de la riqueza. Otros retos son que algunos temen que quite ganas de trabajar y que, en el fondo, no garantiza dignidad, propósito o inclusión social. El trabajo no solo da dinero: da sentido, rutina, contacto humano. Muchos expertos proponen algo intermedio. No solo dar dinero, sino garantizar acceso a formación continua, empleo digno y oportunidades digitales. Imagina un sistema donde si pierdes tu trabajo por automatización, recibes apoyo económico temporal. A cambio, tienes derecho a formación gratuita en nuevas competencias (uso de IA, programación, oficios resilientes) y acompañamiento para reinsertarte en un nuevo sector. Sería como un seguro de transición tecnológica.
Temas
Más en Berm@tu
-
Paul McCartney lanza una canción 'silenciosa' como protesta contra la IA
-
La RAE incorpora la inteligencia artificial para corregir tus textos gratis
-
Grokipedia o Wikipedia: ¿Puede una enciclopedia de IA ser tan fiable como la humana?
-
“Inteligencia artificial y memoria: ¿es posible recuperar recuerdos de la infancia?