Inteligencia artificial y profesiones liberales: preservar el factor humano

Francisco Pérez Bes, adjunto de la Agencia Española de Protección de Datos y experto en Derecho Digital: "¿Apostamos por un futuro en el que la IA se convierte en una tecnología de sustitución de profesiones, u optamos por desarrollos más centrados en una IA asistencial que complemente -y potencie- la tarea de los nuevos profesionales del futuro?"

4 minutos

Francisco Pérez Bes es adjunto de la Agencia Española de Protección de Datos

Francisco Pérez Bes es adjunto de la Agencia Española de Protección de Datos

Comenta

Publicado

4 minutos

Más leídas

La reciente aparición de iniciativas como “ChatGPT Salud” ha reabierto el debate sobre el impacto de la inteligencia artificial (IA) en el sector sanitario. Sin embargo, esta reflexión no es nueva. Desde hace tiempo se extiende al empleo, a la ética, a la regulación y, de manera especialmente intensa, al futuro de las profesiones liberales.

A primera vista, la promesa de eficiencia, precisión y automatización que ofrecen los sistemas de IA parece una oportunidad ineludible para modernizar ámbitos como el derecho, la medicina, la ingeniería o la consultoría. No obstante, esta visión predominantemente técnica suele omitir una dimensión esencial: el valor humano insustituible que define el ejercicio de estas profesiones.

La pregunta de fondo es clara: ¿apostamos por un modelo en el que la inteligencia artificial sustituya progresivamente a los profesionales? ¿O creemos en una IA asistencial, diseñada para complementar y potenciar la labor humana?

En Europa, las profesiones liberales se caracterizan por un fuerte componente relacional y ético, así como por la responsabilidad personal que asumen quienes las ejercen frente a sus clientes, pacientes o usuarios. No se trata solo de aplicar conocimientos técnicos, sino de comprender contextos, valorar matices y tomar decisiones que incorporan juicio, experiencia y empatía.

La percepción de que una máquina sustituye esa relación humana puede erosionar la confianza pública, un riesgo que no debe subestimarse. Especialmente en colectivos de mayor edad o en ámbitos sensibles como la asistencia sanitaria, el asesoramiento financiero o el acompañamiento emocional, la confianza constituye el principal activo del servicio.

Este debate adquiere especial relevancia en el actual marco regulatorio europeo. Con la adopción del Reglamento de Inteligencia Artificial —la primera regulación general sobre IA a nivel mundial— la Unión Europea ha optado por un modelo que combina innovación tecnológica con protección de los derechos fundamentales. La norma impone requisitos de seguridad, transparencia y fiabilidad, y atribuye obligaciones específicas a quienes implementan estos sistemas, incluyendo evaluaciones de impacto sobre derechos fundamentales en los casos de mayor riesgo.

Ahora bien, la regulación general no es suficiente. Resulta urgente desarrollar marcos jurídicos —tanto generales como sectoriales— que reconozcan la singularidad de los servicios profesionales. Marcos que garanticen que la IA actúe como herramienta de apoyo, pero no como sustituto de la decisión humana, y que preserven de forma efectiva el principio de control humano.

La automatización puede mejorar la eficiencia mediante el análisis de datos, la gestión de tareas repetitivas o la simplificación de procesos administrativos. Pero no puede reemplazar la empatía, la inteligencia emocional ni la valoración ética que caracterizan la intervención profesional.

En este contexto, la transparencia y la explicabilidad de los sistemas de IA resultan esenciales. Profesionales y usuarios deben comprender cómo y por qué una herramienta produce determinados resultados. No como un ejercicio formal, sino como un mecanismo real de confianza, rendición de cuentas y supervisión humana. La llamada “IA explicable” está llamada a convertirse en un pilar de la nueva deontología profesional.

El papel de los propios profesionales liberales —y de sus colegios y asociaciones— no puede limitarse a una adaptación pasiva. Deben participar activamente en los procesos de regulación y normalización, contribuyendo a definir estándares éticos y técnicos que orienten un uso responsable de la IA.

Asimismo, el diálogo social y la negociación colectiva deben abordar con claridad qué tareas pueden automatizarse y cuáles, por su propia naturaleza, deben permanecer bajo responsabilidad humana. El objetivo no es frenar la innovación, sino integrarla de forma que refuerce, y no diluya, la autonomía profesional.

La cuestión de la responsabilidad en caso de error o daño sigue siendo uno de los grandes desafíos pendientes

Junto a la regulación de la IA, la protección de datos constituye otro eje ineludible. El uso de sistemas inteligentes en profesiones que manejan información altamente sensible —como datos médicos o financieros— exige el máximo nivel de seguridad y confidencialidad. Aunque el RGPD establece obligaciones claras, resulta necesaria una interpretación sectorial que atienda a las particularidades del asesoramiento automatizado y del apoyo a la toma de decisiones mediante IA.

Finalmente, la cuestión de la responsabilidad en caso de error o daño sigue siendo uno de los grandes desafíos pendientes. Incluso cuando la IA contribuya a mejorar resultados técnicos, la responsabilidad última recae en el profesional que adopta la decisión. La ausencia de un régimen específico y claro de responsabilidad —una cuestión aún abierta en el ámbito europeo— exige un esfuerzo adicional desde el legislador, la doctrina y los códigos deontológicos.

No se trata de temer al cambio, sino de dirigirlo. De avanzar hacia un modelo en el que la inteligencia artificial sea un aliado de las profesiones liberales, sin comprometer su esencia. Una aproximación centrada en las personas, en la que la tecnología potencie capacidades humanas, respete derechos y refuerce la confianza pública, sin sustituir la responsabilidad personal que define a estas profesiones en una sociedad democrática.

SOBRE LA FIRMA: 

Francisco Pérez Bes es adjunto de la Agencia Española de Protección de Datos. Además, fue socio en el área de Derecho Digital de Ecix Group y es ex Secretario General del Instituto Nacional de Ciberseguridad (INCIBE).