La incorporación de agentes de inteligencia artificial en funciones críticas de negocio ha situado a las compañías ante un “nuevo punto de inflexión” en materia de riesgos. Se trata de sistemas que ya no se limitan a asistir, sino que asumen un rol activo en la toma de decisiones y son capaces de observar, planificar, actuar y aprender a gran escala. Todo ello está generando riesgos elevados y, en muchos casos, todavía desconocidos, que ponen a prueba los modelos tradicionales de control y supervisión, según un informe de Boston Consulting Group (BCG).
Estas conclusiones se recogen en el estudio “What Happens When AI Stops Asking Permission?”, elaborado por la consultora estratégica BCG, que destaca la “urgencia” de replantear los enfoques de gestión del riesgo y de la calidad ante la irrupción de los agentes autónomos de IA. “La IA agencial redefine la gestión del riesgo y la calidad de los sistemas de inteligencia artificial”, ha afirmado la managing director & partner de BCG, responsable global de IA y coautora del estudio, Anne Kleppe.
Kleppe ha explicado que “los agentes autónomos amplían de forma significativa las capacidades de las organizaciones, pero pueden desviarse de los resultados empresariales previstos”. En esta línea, ha advertido de que “el principal desafío es mantenerlos alineados con la estrategia y los valores corporativos sin frenar su rapidez y autonomía”.
De acuerdo con la base de datos “AI Incidents Database”, los incidentes vinculados a la inteligencia artificial han crecido un 21% entre 2024 y 2025. Este incremento confirma que los riesgos asociados a estos sistemas ya forman parte del día a día operativo de las empresas y se traducen en exposiciones financieras, regulatorias y reputacionales de calado.
BCG ha señalado que la adopción de agentes de IA está “modificando la naturaleza del riesgo operativo en múltiples industrias”, en un contexto en el que la escasa supervisión humana directa con la que funcionan muchos de estos sistemas facilita que las desviaciones de comportamiento escalen con rapidez, tensionando los esquemas clásicos de control y vigilancia.
En aquellos ámbitos donde las decisiones impactan de forma directa en personas, clientes o cadenas de suministro, la lógica de optimización de estos sistemas ha introducido nuevas categorías de riesgo con capacidad para generar resultados no deseados.
Entre los ejemplos aportados, BCG menciona tensiones en la atención sanitaria, donde “la eficiencia puede desplazar la atención a los casos más críticos”; fricciones en la operativa bancaria por la dificultad de gestionar excepciones complejas; o desajustes en procesos industriales derivados de la falta de alineación entre agentes con objetivos distintos y no alineados, que provocan fallos emergentes vinculados a dinámicas estructurales de la propia tecnología.
Solo el 10% de las empresas delega hoy decisiones en agentes de IA
Un estudio reciente de BCG y MIT Sloan Management Review revela que, aunque actualmente solo el 10% de las compañías permite que los agentes de IA adopten decisiones de manera autónoma, esta cifra podría aumentar hasta el 35% en los próximos tres años. Paralelamente, el 69% de los directivos coincide en que la IA agencial exige modelos de gestión “fundamentalmente distintos”.
En este escenario, BCG insiste en que la gestión del riesgo en la IA agencial debe arrancar antes del despliegue de estos sistemas. La firma subraya que no siempre es imprescindible recurrir a agentes autónomos y que, en determinados casos, los objetivos pueden alcanzarse con otras soluciones de inteligencia artificial que presentan perfiles de riesgo más manejables.
El informe propone un marco estructurado para los casos en los que el uso de agentes está justificado, con el fin de ayudar a responsables de riesgos, tecnología, operaciones y otros líderes ejecutivos a gestionar estos sistemas. Entre las recomendaciones, BCG plantea “crear una taxonomía de riesgos específica para los agentes, identificando y mapeando los riesgos técnicos, operativos y relacionados con los usuarios”.
Asimismo, el documento recomienda “simular condiciones reales antes de la implementación”, mediante entornos de prueba que reproduzcan la complejidad del mundo real y permitan “detectar de forma temprana posibles modos de fallo”. Del mismo modo, propone “implementar la supervisión del comportamiento en tiempo real, desplazando el foco desde la revisión de la lógica interna hacia el seguimiento continuo del rendimiento y del comportamiento de los agentes”.
Otra línea de actuación consiste en “diseñar protocolos de resiliencia y escala que aseguren que los sistemas respondan de forma segura ante fallos, con supervisión humana por capas y procesos que garanticen la continuidad del negocio”. “La cuestión va más allá de la propia IA ya que afecta directamente a la continuidad del negocio”, ha señalado el managing director & partner de BCG, responsable de ética de IA y coautor del informe, Steven Mills.
Mills ha defendido que “los agentes de IA deben desplegarse de forma coherente con el apetito de riesgo de cada organización, incorporando controles desde la fase de diseño”. “Solo así es posible capturar todo el valor de estos sistemas y a la par gestionar los nuevos tipos de riesgo que introducen”, ha añadido.