Publicado:

22 de abril de 2025

Introducción a la gobernanza de riesgos de la IA

La adopción de la IA (inteligencia artificial) se ha extendido como la pólvora entre las organizaciones de todo el mundo, debido a las oportunidades de negocio que ofrece. Desde el atractivo de una mayor eficiencia, la reducción de los procesos manuales y el aumento de la precisión, está claro por qué el aprovechamiento de la IA atrae a los líderes empresariales. Sin embargo, la IA es un arma de doble filo. Si bien tiene el potencial de revolucionar los procesos empresariales y la eficiencia operativa, al introducir la IA, las empresas también introducen una serie de nuevos riesgos empresariales asociados. No menos importante, algunos actores malintencionados pretenden utilizar la IA con fines maliciosos y estamos viendo el auge de los ciberataques habilitados por la IA. En un informe, casi tres cuartas partes (74%) de los CISO y los responsables de seguridad afirman que las amenazas impulsadas por la IA son ahora un problema importante. Está claro que equilibrar los beneficios potenciales de la IA con los riesgos que presenta es un reto al que todas las empresas deben hacer frente. Aquí, exploramos lo que significa el auge de la IA para las empresas, proporcionamos una visión general de los riesgos de la IA y analizamos un enfoque para implementar un marco que los gestione.

Los riesgos de la adopción de la IA

La clave para aprovechar eficazmente las oportunidades de negocio que presenta la IA reside en la capacidad de una organización para sortear sus posibles escollos e implementar una gobernanza de riesgos de la IA eficaz que proteja contra los peligros éticos, legales y operativos. Para ello, las empresas deben comprender primero los posibles riesgos existentes; algunos de los más comunes son:

Sesgo e imparcialidad

En el nivel más básico, la IA se entrena “introduciéndole” un gran volumen de datos. Utilizando múltiples algoritmos, la IA identifica patrones en los datos y empieza a aprender de ellos. Cuando estos datos son incorrectos o están sesgados, la IA se entrena con datos falsos. Esto se manifiesta entonces como el algoritmo que presenta datos que contienen sesgos inherentes. Este riesgo es lo suficientemente significativo como para que la Comisión de Derechos Civiles de EE.UU. elaborara un informe al respecto en 2023.

Privacidad y seguridad

Para ofrecer resultados, las soluciones de IA deben alimentarse con datos. Sin una gobernanza adecuada, existe una posibilidad real de que un individuo comparta datos sensibles o confidenciales, lo que plantea problemas de privacidad de datos y vulnerabilidades de seguridad.

Explicabilidad y transparencia

A pesar de que el Foro Económico Mundial insta a los desarrolladores de IA a ser más transparentes sobre cómo se entrenan sus modelos de IA, los modelos de IA de “caja negra" siguen siendo la norma. Estos modelos carecen de transparencia, lo que dificulta la confianza y la rendición de cuentas.

Seguridad

La IA se utiliza cada vez más para tareas críticas que presentan un riesgo muy real para las personas. Un ejemplo es el auge de los vehículos autónomos. En estos casos, las organizaciones deben asegurarse de que los sistemas de IA priorizan la seguridad por encima de otras eficiencias operativas.

Desplazamiento de puestos de trabajo

Una de las principales preocupaciones sobre el auge de la IA es su impacto potencial en los puestos de trabajo y las funciones laborales. Si bien en la gran mayoría de los casos, la IA no se implementa para sustituir por completo los puestos de trabajo individuales, puede forzar una evolución en el alcance de los puestos de trabajo cuando se automatizan las tareas manuales. Los empleadores deben asegurarse de que cuentan con suficientes iniciativas de reciclaje profesional y mejora de las cualificaciones para apoyar a los empleados en esta transición.

Cómo están aprovechando la IA los atacantes

La otra cara de la capacidad de la IA para ayudar a las organizaciones es su capacidad para ayudar a los ciberatacantes. Están aprovechando sus puntos fuertes para lanzar ataques más sofisticados contra las empresas a mayor velocidad que nunca. Aquí hay sólo algunas maneras en que la IA está siendo utilizada por actores maliciosos:

Elaboración de ataques de phishing hiperrealistas

Los atacantes alimentan la IA con grandes cantidades de datos para crear correos electrónicos y mensajes de phishing personalizados que imitan el estilo de escritura y el tono de los remitentes legítimos. Esto hace que sean mucho más difíciles de identificar y puede engañar incluso a los empleados más cautelosos.

Automatización de ataques

Con la IA, los atacantes aceleran el ritmo al que pueden completar tareas repetitivas como el descifrado de contraseñas y el escaneo de vulnerabilidades. Al hacerlo, son capaces de lanzar ataques a gran escala en una fracción del tiempo que solía tomar.

Elusión de defensas

El malware puede estar equipado con IA que le permita aprender qué sistemas de seguridad tienen implementadas las organizaciones y adaptar su comportamiento para evadir la detección.

Extracción eficiente de datos

La IA no solo aumenta la probabilidad de un ciberataque, sino también la magnitud de las pérdidas una vez que un sistema se ve comprometido. La IA puede utilizarse para examinar datos e identificar información valiosa para robar, como registros financieros o propiedad intelectual. Dada la velocidad a la que la IA puede procesar grandes volúmenes de datos, la cantidad de información que puede extraer antes de ser detectada es significativamente mayor que en los ataques que no utilizan IA.

Ingeniería social a un nuevo nivel

La IA se utiliza para crear deepfakes que suplantan a personas reales, como un CEO o un compañero de trabajo. Esto puede utilizarse para manipular a los empleados para que revelen información confidencial o autoricen transacciones fraudulentas. Se prevé que los deepfakes se vuelvan cada vez más comunes, y un informe estima que el 90% del contenido en línea podría generarse sintéticamente para 2026.

Implementación de un marco sólido de gobernanza de riesgos de la IA

Si bien el 79% de los ejecutivos afirman que se han tomado medidas para reducir los riesgos asociados a la adopción de la IA, solo el 54% de los encuestados en puestos operativos están de acuerdo. Es evidente que los líderes empresariales necesitarán una estructura práctica para comprender y gestionar los riesgos de la IA en sus organizaciones. Aquí hay un punto de partida para un marco de gobernanza de riesgos de la IA.

1. Identificación de riesgos:

Realice una evaluación exhaustiva de los riesgos para identificar los riesgos potenciales asociados con sus casos de uso específicos de la IA. Hemos escrito nuestra guía para desbloquear el valor empresarial de las evaluaciones de riesgos cibernéticos para ayudar a los CISO a realizar evaluaciones de riesgos eficaces que aporten valor empresarial.

2. Priorización de riesgos:

Evalúe los riesgos identificados en función de la gravedad, la probabilidad y el impacto potencial en su organización. Nuestra guía para la priorización de riesgos cibernéticos proporciona información para ayudar a las organizaciones a centrar sus esfuerzos en las áreas más críticas para el negocio.

3. Estrategias de mitigación de riesgos:

Desarrolle e implemente estrategias para mitigar los riesgos priorizados. Esto puede implicar:

  • Implementar prácticas sólidas de privacidad y seguridad de los datos.
  • Invertir en soluciones de IA explicables.
  • Establecer protocolos de seguridad para aplicaciones críticas de IA.
  • Planificación de la transformación de la fuerza laboral.

4. Gobernanza y supervisión:

Establezca un comité de gobernanza de la IA específico con representantes de diversos departamentos (legal, TI, ética y unidades de negocio). Esto incluye el desarrollo de políticas y procedimientos claros para el desarrollo, la implementación y el monitoreo de la IA. Es importante recordar que una gobernanza y supervisión eficaces van mucho más allá del cumplimiento de los requisitos normativos.

5. Monitoreo y mejora continuos:

Audite periódicamente sus sistemas de IA para garantizar que se adhieran al marco de gobernanza e identificar cualquier riesgo emergente. Fomente una cultura abierta donde los empleados puedan informar sobre posibles riesgos de la IA y preocupaciones éticas, y asegúrese de que existan canales de comunicación eficaces entre los profesionales de la ciberseguridad y el resto de la empresa.

La perspectiva de X-Analytics

Las empresas deben adoptar un enfoque proactivo y realista de la gobernanza de los riesgos de la IA: la IA será cada vez más frecuente tanto en las empresas como en los ciberataques. A pesar de que la IA es la tecnología emergente más reciente que presenta riesgos empresariales, el enfoque para gestionar y mitigar el riesgo que plantea sigue estando arraigado en los mismos principios básicos de la ciberseguridad.

Los líderes empresariales deben asegurarse de que están evaluando exhaustivamente sus riesgos, priorizándolos eficazmente en función de lo que suponga la mayor amenaza para su negocio y decidiendo si mitigan, transfieren o aceptan el riesgo.

X-Analytics proporciona a las organizaciones información centrada en el negocio al alcance de su mano, para que puedan comprender rápidamente los conocimientos clave sobre IA y riesgos cibernéticos como parte de sus debates continuos sobre gobernanza, supervisión y materialidad.