Publicado el abril 12, 2024

La auditoría de algoritmos de contratación no es un mero control técnico, sino un pilar fundamental de la gobernanza corporativa para mitigar riesgos legales y reputacionales.

  • El coste de ignorar un sesgo algorítmico puede ascender a decenas de millones de euros según la nueva Ley de IA de la UE.
  • La clave no está en la complejidad del algoritmo, sino en la calidad y el origen histórico de los datos de entrenamiento.

Recomendación: Implementar un marco de «Debida Diligencia Algorítmica» que combine validación técnica, supervisión humana cualificada y cláusulas contractuales robustas para asegurar una responsabilidad demostrable.

En el competitivo entorno actual, la promesa de la Inteligencia Artificial (IA) para optimizar los procesos de contratación es innegable. Los algoritmos pueden analizar miles de currículos en minutos, identificar patrones de éxito y, en teoría, tomar decisiones objetivas. Sin embargo, para un Director de Recursos Humanos o un responsable del área legal, esta eficiencia oculta una responsabilidad latente y potencialmente devastadora. La creencia de que las máquinas son inherentemente neutrales es uno de los mitos más peligrosos de la era digital.

La conversación habitual sobre este tema se centra en soluciones técnicas como la «IA explicable» o la «limpieza de datos». Si bien son componentes necesarios, abordan los síntomas y no la causa raíz del problema. El verdadero desafío no reside en el código, sino en la gobernanza. Un algoritmo, por avanzado que sea, es un espejo que refleja los sesgos, prejuicios y desigualdades presentes en los datos históricos con los que fue entrenado. Sin un marco de control robusto, su empresa no está optimizando la contratación, sino automatizando la discriminación a una escala sin precedentes.

Este artículo adopta una perspectiva diferente, enfocada en la responsabilidad corporativa. En lugar de proponer una solución puramente técnica, plantearemos la auditoría algorítmica como un ejercicio de debida diligencia proactiva. El objetivo no es solo encontrar y corregir sesgos, sino construir un sistema de gobernanza de IA defendible, transparente y ético. Exploraremos cómo transformar el riesgo legal inminente en una ventaja reputacional, demostrando a reguladores, clientes y empleados que su compromiso con la equidad es más que una declaración de intenciones: es un proceso verificable.

Para abordar este desafío de manera estructurada, hemos dividido este análisis en varios pilares fundamentales. Cada sección le proporcionará los criterios y herramientas para construir un marco de auditoría y gobernanza algorítmica sólido y preparado para el futuro.

¿Por qué una «caja negra» algorítmica puede costarle una multa millonaria por discriminación?

La opacidad de un algoritmo de «caja negra» no es solo un problema técnico, es un riesgo legal y financiero de primer orden. Cuando un sistema toma decisiones de contratación sin que se puedan explicar sus criterios, la empresa se expone a acusaciones de discriminación que son casi imposibles de refutar. La incapacidad de demostrar que una decisión adversa (como el descarte de un candidato) se basó en factores objetivos y no discriminatorios, sitúa a la organización en una posición de extrema vulnerabilidad legal. Los reguladores, especialmente en Europa, ya no aceptan la «complejidad del algoritmo» como excusa.

El marco legal se está endureciendo a una velocidad vertiginosa. La nueva Ley de Inteligencia Artificial de la UE cataloga los sistemas de IA para la gestión de personal como de «alto riesgo», imponiendo obligaciones estrictas de transparencia, supervisión y registro. El incumplimiento puede acarrear multas de hasta 35 millones de euros o el 7% del volumen de negocio anual global. Este no es un riesgo teórico; es una contingencia financiera que debe figurar en cualquier análisis de riesgos corporativos.

El caso de Amazon es un ejemplo paradigmático. La compañía tuvo que desmantelar su herramienta de reclutamiento automatizado al descubrir que penalizaba sistemáticamente los currículos que incluían la palabra «mujer» o referencias a universidades femeninas. El algoritmo, entrenado con datos de contrataciones de la década anterior, había aprendido y automatizado los sesgos preexistentes en la propia empresa. Este escándalo no solo supuso un coste de desarrollo perdido, sino un daño reputacional incalculable, demostrando que una «caja negra» puede convertirse rápidamente en una bomba de relojería para la imagen y las finanzas de la empresa.

La conclusión es clara: desde una perspectiva legal y de gobernanza, un algoritmo inexplicable es un pasivo inaceptable. La «debida diligencia algorítmica» exige que cualquier sistema automatizado de toma de decisiones sea auditable y sus resultados, defendibles ante un tribunal.

Cómo hacer que su algoritmo explique por qué rechazó un crédito a un cliente solvente

La capacidad de un algoritmo para justificar sus decisiones, conocida como Inteligencia Artificial Explicable (XAI), ha dejado de ser una aspiración académica para convertirse en un requisito de negocio. Para un cliente o candidato rechazado, y para los reguladores que velan por sus derechos, la respuesta «el algoritmo lo decidió» ya no es válida. La verdadera transparencia no consiste en publicar el código fuente, sino en poder traducir una decisión matemática compleja a una explicación comprensible y lógicamente sólida para un no experto.

Este concepto es especialmente crítico en decisiones con alto impacto en la vida de las personas, como la contratación o la concesión de créditos. Imagine un algoritmo que rechaza a un candidato perfectamente cualificado. Un sistema XAI debería ser capaz de generar una justificación del tipo: «El candidato fue descartado porque, aunque su experiencia es relevante, carece de la certificación X, que ha sido identificada como un factor clave de éxito en el 85% de los empleados con mejor desempeño en este rol durante los últimos tres años». Esta explicación es específica, basada en datos y, crucialmente, auditable y no discriminatoria.

Implementar la explicabilidad requiere un cambio de enfoque desde el diseño del sistema. En lugar de optimizar únicamente la precisión, los modelos deben diseñarse también para la interpretabilidad. Esto implica utilizar técnicas y modelos que permitan descomponer una decisión final en sus factores contribuyentes. La visualización de estos factores es una herramienta poderosa para que los equipos de RRHH y legales puedan comprender y validar el razonamiento de la máquina.

Primer plano macro de manos diversas sosteniendo prismas de cristal que refractan luz en patrones geométricos coloridos

Como se aprecia en la metáfora visual, el objetivo es tomar la «luz blanca» de una decisión opaca y descomponerla en su espectro de factores individuales. Esto no solo satisface los requisitos legales, sino que genera confianza. Un candidato que recibe una explicación clara y lógica de por qué no fue seleccionado es menos propenso a sentir que ha sido tratado injustamente, protegiendo la reputación de la empresa como empleadora. La explicabilidad transforma la IA de una caja negra a una herramienta de decisión transparente.

En última instancia, la exigencia de explicabilidad no es un obstáculo técnico, sino una garantía de calidad y un mecanismo de control de riesgos. Si su equipo no puede explicar por qué el algoritmo tomó una decisión, usted no tiene forma de saber si esa decisión fue legal, ética o simplemente un error estadístico.

Código abierto o propietario: ¿qué enfoque genera más confianza en el consumidor final?

La elección entre una solución de IA basada en código abierto (Open Source) y una plataforma propietaria es una decisión estratégica con profundas implicaciones para la gobernanza y la gestión del riesgo. No se trata solo de una cuestión de costes, sino de control, transparencia y, en última instancia, de quién asume la responsabilidad legal en caso de una decisión discriminatoria. Para los directores de RRHH y legales, comprender estas diferencias es fundamental para realizar una debida diligencia adecuada sobre sus proveedores de tecnología.

Las soluciones de código abierto, como Fairlearn de Microsoft o AIF360 de IBM, ofrecen una transparencia total. El código es completamente auditable, lo que permite a los equipos internos (o a auditores externos) examinar cada línea para entender su funcionamiento y detectar posibles sesgos. Esto otorga un control máximo, pero también transfiere toda la responsabilidad a la empresa. Si el modelo discrimina, la responsabilidad es enteramente suya. Requiere, además, una alta capacidad técnica interna para implementar, mantener y validar estos sistemas.

Por otro lado, las soluciones propietarias de proveedores como Fiddler AI ofrecen una experiencia más gestionada, con soporte empresarial y, teóricamente, garantías de rendimiento. Sin embargo, su naturaleza de «caja negra» introduce un riesgo significativo. La empresa depende de las afirmaciones del proveedor sobre la equidad y la explicabilidad de su sistema. Para mitigar este riesgo, es imperativo que el contrato con el proveedor no sea un acuerdo de servicio estándar, sino un pacto de responsabilidad compartida. Esto implica incluir cláusulas legales específicas que garanticen el derecho a la auditoría, el acceso a los registros de decisión y la cooperación en caso de investigación regulatoria.

La siguiente matriz resume los puntos clave a considerar en esta decisión crucial:

Matriz de decisión: código abierto vs propietario para auditoría algorítmica
Criterio Código Abierto (AIF360, Fairlearn) Propietario (Fiddler AI)
Auditabilidad Total transparencia del código Caja negra, requiere confianza en el proveedor
Control Personalización completa Limitado a funcionalidades predefinidas
Coste Gratuito, pero requiere expertise interno Licencias costosas, incluye soporte
Soporte Comunidad y documentación Soporte empresarial dedicado
Riesgo legal Responsabilidad total en la empresa Compartida con el proveedor

Si opta por una solución propietaria, la negociación contractual es su principal herramienta de gobernanza. Debe asegurarse de que el acuerdo incluya cláusulas esenciales como:

  • Derecho de auditoría: Acceso garantizado para revisiones externas del algoritmo.
  • Logs de decisión: Registro completo de todas las decisiones algorítmicas.
  • Transparencia de métricas: Explicación detallada de los criterios de evaluación de equidad utilizados.
  • Cooperación regulatoria: Apoyo obligatorio por parte del proveedor en caso de investigaciones oficiales.

En términos de confianza del consumidor final (o del candidato), un enfoque de código abierto, si bien es más exigente internamente, permite una declaración de transparencia más fuerte. Sin embargo, una solución propietaria respaldada por un contrato sólido y auditorías de terceros certificadas también puede generar un alto grado de confianza. La clave no es la opción elegida, sino la capacidad de demostrar una gobernanza rigurosa sobre ella.

El sesgo histórico oculto que hace que su IA replique prejuicios de hace 20 años

Uno de los mayores peligros de la IA en la contratación es su capacidad para perpetuar y amplificar sesgos históricos que la sociedad y su propia empresa llevan años tratando de erradicar. Un algoritmo entrenado con datos de contrataciones de las últimas dos décadas inevitablemente aprenderá las correlaciones que existían en ese momento. Si históricamente los puestos de liderazgo fueron ocupados mayoritariamente por hombres, la IA aprenderá a asociar características masculinas con el éxito en esos roles, penalizando a candidatas igualmente o más cualificadas. Este es el sesgo histórico oculto, una reliquia del pasado que contamina las decisiones del futuro.

El caso de la Apple Card en 2019 ilustra este fenómeno a la perfección. El algoritmo, al determinar los límites de crédito, otorgaba sistemáticamente límites mucho más altos a los hombres que a las mujeres, incluso en matrimonios que compartían todos sus activos y tenían historiales de crédito idénticos. El algoritmo no fue programado para ser sexista; simplemente aprendió de décadas de datos financieros que reflejaban una era en la que las mujeres tenían menor acceso al crédito. Estaba replicando con precisión matemática un prejuicio social del pasado.

Para combatir esto, no basta con «limpiar» los datos eliminando variables obvias como el género. Los algoritmos son expertos en encontrar «variables proxy», es decir, otros datos que están fuertemente correlacionados con la característica que se intenta ocultar (por ejemplo, el código postal con la etnia, o la asistencia a ciertos clubs deportivos con el género). La única forma de desenterrar estos sesgos latentes es mediante un proceso que podemos denominar «Arqueología de Datos». Se trata de un análisis forense de los datasets de entrenamiento para comprender no solo qué datos contienen, sino el contexto social y temporal en el que fueron generados.

Como subraya un análisis sobre la ética de la IA, la revisión debe ser un proceso constante y adaptativo. La revista Scielo México lo expresa de forma elocuente:

Los algoritmos no pueden ser considerados como universales ni permanentes. Deben estar en constante revisión de acuerdo con cimientos firmes como la dignidad, el respeto a la diferencia que nos permitan navegar en el nuevo horizonte de la IA

– Revista Scielo México, Problemática antropológica detrás de la discriminación generada por algoritmos de IA

Su plan de acción para la «Arqueología de Datos»

  1. Mapear el origen temporal de los datos de entrenamiento y el contexto socioeconómico de su recolección.
  2. Identificar la distribución demográfica en los datasets históricos para detectar subrepresentaciones.
  3. Analizar y detectar variables proxy que puedan correlacionar con características protegidas (género, etnia, edad).
  4. Aplicar técnicas de re-muestreo (oversampling/undersampling) para equilibrar los datos antes del entrenamiento.
  5. Generar datos sintéticos (si es necesario) para compensar la falta de representación de grupos minoritarios.

La arqueología de datos no es una tarea única, sino un componente continuo de la gobernanza de la IA. Requiere que los equipos legales y de RRHH trabajen junto a los científicos de datos para cuestionar activamente el origen y la validez de la información que alimenta sus sistemas, asegurando que el futuro que construyen no esté encadenado a los errores del pasado.

Cuándo debe un humano anular una decisión algorítmica: criterios de seguridad

La implementación de la «supervisión humana» es un requisito fundamental de la Ley de IA de la UE, pero a menudo se interpreta de forma vaga. No se trata simplemente de que una persona revise y apruebe las decisiones de la máquina. Para que sea efectiva, la intervención humana debe ser un «veto humano cualificado», un proceso estructurado con criterios claros y predefinidos sobre cuándo y por qué un humano no solo puede, sino que debe, anular una decisión algorítmica. Este mecanismo es su principal red de seguridad contra errores, sesgos no detectados y situaciones atípicas que el modelo no fue diseñado para manejar.

Establecer estos criterios es una tarea de gobernanza que corresponde a los equipos legales y de RRHH en colaboración con los técnicos. Los criterios para activar el veto humano pueden incluir:

  • Decisiones de alto impacto negativo: Cualquier decisión que implique el rechazo de un candidato perteneciente a un grupo históricamente subrepresentado o protegido debe ser automáticamente marcada para revisión humana.
  • Baja confianza del modelo: Cuando el propio algoritmo indica una baja probabilidad o confianza en su propia decisión (por ejemplo, un resultado cercano al umbral de corte del 50%), debe activarse la supervisión.
  • Datos atípicos o incompletos: Si el perfil de un candidato contiene información inusual, novedosa o ausente (ej. una trayectoria profesional no convencional, experiencia en un campo emergente) que el modelo no puede procesar adecuadamente.
  • Alertas de equidad: Si los sistemas de monitoreo en tiempo real detectan que una decisión particular contribuye a un desequilibrio estadístico en las métricas de equidad del sistema.

La implementación de una supervisión humana significativa no solo es una obligación de cumplimiento, sino que tiene beneficios tangibles. Un estudio de Workday sobre la calidad de la IA en RRHH reveló que la supervisión humana es un factor clave para el éxito. Específicamente, se demuestra que mejora la aceptación de los sistemas por parte de los empleados cuando se implementan mecanismos de control humano en las decisiones de la IA, con un 65% de las empresas reportando una mejora en la experiencia del empleado como resultado directo. Esto sugiere que el veto humano no solo corrige errores, sino que también fomenta la confianza en la tecnología.

El objetivo del veto humano cualificado no es microgestionar el algoritmo, sino actuar como un control de calidad inteligente y ético. Garantiza que la eficiencia de la automatización no se logre a expensas de la justicia, el contexto y el sentido común, protegiendo tanto a los candidatos como a la propia empresa de decisiones erróneas y potencialmente dañinas.

Cómo evitar que su sistema de seguridad identifique erróneamente a empleados de minorías étnicas

Los sistemas de reconocimiento facial, a menudo implementados por razones de seguridad, representan uno de los campos más problemáticos del sesgo algorítmico. Cuando estos sistemas fallan, las consecuencias no son solo un inconveniente, sino que pueden llevar a falsas acusaciones, exclusión del lugar de trabajo y una profunda erosión de la confianza. El problema es particularmente agudo en lo que se conoce como sesgo interseccional, donde la tasa de error del algoritmo se dispara para individuos que pertenecen a múltiples grupos minoritarios (por ejemplo, mujeres de piel oscura).

La causa raíz, una vez más, son los datos de entrenamiento. Si un modelo se entrena predominantemente con imágenes de hombres de piel clara, su capacidad para identificar con precisión a una mujer de piel oscura será drásticamente inferior. El estudio fundamental Gender Shades, del MIT, puso de manifiesto esta alarmante disparidad. Descubrió que los sistemas de reconocimiento facial de gigantes tecnológicos tenían tasas de error de menos del 1% para hombres de piel clara, pero de hasta el 34% para mujeres de piel oscura. Esto no es un fallo menor; es una discriminación sistémica codificada en el software.

Para un director legal o de RRHH, desplegar un sistema de este tipo sin una auditoría rigurosa es una negligencia grave. La auditoría debe ir más allá de la precisión general del modelo y centrarse en su rendimiento en diferentes subgrupos demográficos. Esto se logra utilizando métricas de equidad específicas que miden diferentes tipos de sesgo.

La validación de estos sistemas debe hacerse contra datasets de benchmarking independientes y diversos como «Diversity in Faces», que están específicamente diseñados para evaluar el rendimiento en un amplio espectro de etnias, géneros y edades. La siguiente tabla desglosa las métricas clave que su equipo técnico debería estar midiendo y reportando:

Métricas de equidad para evaluar sesgo interseccional
Métrica Qué mide Aplicación en reconocimiento facial
Paridad demográfica Igualdad de resultados positivos entre grupos La tasa de falsos positivos (identificar erróneamente a un inocente) debe ser similar para todas las etnias.
Igualdad de oportunidades Misma tasa de verdaderos positivos para cada grupo La capacidad del sistema para identificar correctamente a un empleado debe ser igual para todos.
Equidad predictiva Precisión consistente en las predicciones positivas Cuando el sistema realiza una identificación, el nivel de confianza debe ser el mismo sin importar el grupo.
Análisis interseccional Rendimiento en la combinación de características Evalúa el rendimiento en subgrupos específicos, como «mujeres asiáticas mayores de 50 años».

La única forma de implementar estas tecnologías de forma responsable es exigiendo a los proveedores informes de rendimiento desglosados por demografía y validados por terceros. Cualquier sistema que no pueda demostrar equidad en todos los grupos, especialmente en los interseccionales, no es apto para su uso en un entorno corporativo comprometido con la diversidad y la inclusión.

El error de privacidad que cometen el 90% de las empresas al usar IA gratuita

En la carrera por adoptar la IA, muchas empresas caen en la tentación de utilizar herramientas «gratuitas» o de bajo coste basadas en la nube para procesar datos sensibles, incluidos los de los candidatos. Este es, potencialmente, el error de privacidad más costoso que una organización puede cometer. El modelo de negocio de muchos servicios de IA gratuitos se basa en el uso de los datos que los clientes proporcionan para seguir entrenando y mejorando sus propios modelos. En la práctica, esto significa que los datos personales de sus candidatos podrían estar siendo transferidos y utilizados por terceros sin un control adecuado, constituyendo una violación directa de normativas como el RGPD.

Las consecuencias de una fuga de datos o un uso no consentido son monumentales. No se trata solo del daño reputacional, sino de sanciones económicas que pueden paralizar a una empresa. Un ejemplo contundente es la histórica multa de 746 millones de euros impuesta a Amazon por incumplir el Reglamento General de Protección de Datos. Aunque este caso específico tenía múltiples facetas, subraya la seriedad con la que los reguladores europeos tratan la gestión de datos personales. Usar una IA gratuita para procesar currículos es como dejar la puerta de su archivo de RRHH abierta de par en par.

La única forma segura de utilizar la IA con datos sensibles es manteniendo un control total sobre la infraestructura y el flujo de datos. Esto implica adoptar arquitecturas que prioricen la privacidad desde el diseño. La gobernanza de datos en el contexto de la IA no es una opción, es una obligación legal. Las siguientes son medidas arquitectónicas y de procedimiento clave para evitar fugas de datos al usar IA:

  • Modelos auto-alojados (Self-hosted): Implementar los modelos de IA en la infraestructura propia de la empresa (on-premise o en una nube privada virtual) para que los datos nunca abandonen su perímetro de control.
  • Computación confidencial: Utilizar enclaves seguros que procesan los datos de forma cifrada, impidiendo el acceso incluso al proveedor de la nube.
  • Privacidad diferencial: Aplicar técnicas matemáticas que añaden «ruido» estadístico a los datos durante el entrenamiento, de modo que el modelo aprenda patrones generales sin poder identificar a individuos específicos.
  • Políticas de retención y eliminación: Establecer y automatizar la eliminación de datos de candidatos una vez que ya no son necesarios para el proceso de selección.
  • Auditoría de flujos de datos: Mapear y monitorear constantemente cómo y dónde se mueven los datos dentro de sus sistemas de IA.

Desde la perspectiva de la dirección legal, la conclusión es inequívoca: no existe la «IA gratuita» cuando se trata de datos personales. El verdadero coste se oculta en el riesgo de multas, litigios y pérdida de confianza. La inversión en una arquitectura de IA segura y privada no es un gasto, es una póliza de seguro contra un desastre anunciado.

Puntos clave a recordar

  • La auditoría algorítmica es un ejercicio de gobernanza corporativa, no solo un problema técnico; requiere un enfoque de «debida diligencia».
  • El mayor riesgo de sesgo no proviene del propio algoritmo, sino de los datos históricos con los que se entrena, que perpetúan prejuicios pasados.
  • La única estrategia de mitigación de riesgos viable es un enfoque de «Defensa en Profundidad» que combine controles en los datos, el modelo y la supervisión humana.

Cómo diseñar una arquitectura de seguridad donde un solo fallo no comprometa todo

Confiar en una única medida de seguridad para garantizar la equidad de un algoritmo es como proteger una fortaleza con una sola muralla. Un enfoque verdaderamente robusto, inspirado en los principios de ciberseguridad, es la «Defensa en Profundidad». Este concepto se basa en la creación de múltiples capas de control independientes, de modo que si una capa falla en detectar o mitigar un sesgo, las capas posteriores todavía pueden actuar como salvaguardas. Para la dirección legal y de RRHH, este enfoque sistémico es la única forma de construir una responsabilidad demostrable.

Una arquitectura de Defensa en Profundidad para la equidad algorítmica no se centra únicamente en el modelo, sino que abarca todo el ciclo de vida de la IA, desde la recolección de datos hasta la toma de decisiones final. Cada capa aborda un tipo de riesgo diferente. Por ejemplo, la limpieza de datos (Capa 1) puede fallar en eliminar sesgos sutiles, pero el monitoreo de métricas de equidad en tiempo real (Capa 4) podría detectar el desequilibrio resultante, activando a su vez la supervisión de un comité de revisión humano (Capa 5).

Este enfoque multicapa no solo es una buena práctica ética, sino que tiene un impacto directo en la calidad y fiabilidad de las operaciones. Por ejemplo, en el ámbito financiero, el uso de IA auditada con múltiples controles ha demostrado ser extremadamente eficaz. Un estudio citado por el ICAC español encontró una reducción del 75% en la incidencia de reformulaciones financieras al aplicar IA auditada en procesos de contabilidad, demostrando que la rigurosidad y el control tienen un retorno de la inversión tangible. El mismo principio se aplica a la contratación: un sistema más justo es también un sistema de mayor calidad.

La implementación de la Defensa en Profundidad para la equidad algorítmica se puede estructurar de la siguiente manera:

  • Capa 1 – Pre-procesamiento: Limpieza, equilibrado y «arqueología» de los datos de entrenamiento para mitigar sesgos históricos.
  • Capa 2 – Entrenamiento: Integración de métricas de equidad directamente en la función de optimización del modelo para que «aprenda» a ser justo.
  • Capa 3 – Post-procesamiento: Ajuste de los umbrales de decisión del modelo para diferentes grupos demográficos, garantizando la paridad en los resultados.
  • Capa 4 – Monitoreo continuo: Dashboards en tiempo real que rastrean las métricas de equidad y alertan sobre desviaciones.
  • Capa 5 – Supervisión humana cualificada: Un comité de revisión con poder de veto para analizar y corregir casos límite o de alto riesgo.

Construir un sistema resiliente requiere la implementación de múltiples capas de control interconectadas.

Para proteger su organización y convertir el riesgo algorítmico en una ventaja competitiva, el siguiente paso es iniciar la implementación de un marco de gobernanza de IA. Comience hoy por evaluar sus sistemas actuales frente a los criterios de debida diligencia y defensa en profundidad aquí descritos, sentando las bases para una contratación más justa, inteligente y, sobre todo, segura.

Escrito por Sofía Carrillo, Consultora de Ciberseguridad y Privacidad de Datos (CISO externa) con certificaciones CISSP y CISM. Cuenta con 10 años protegiendo activos corporativos y formando empleados contra amenazas de ingeniería social.