Internet

Claves para automatizar las tareas de ciberseguridad de forma fiable


Cada vez más empresas incorporan inteligencia artificial en sus servicios de seguridad cibernética. Pero si no la aplican con cuidado, con prisas o simplemente por moda, sus clientes pueden ser aún más vulnerables a los hackers. Le ofrecemos algunos consejos para usar la IA correctamente

Una de las cosas que más me llamó la atención cuanto visité la exhibición de la masiva conferencia de seguridad cibernética Black Hat celebrada este mes en Las Vegas (EE. UU.) fue el gran número de compañías que se jactan de usar el aprendizaje automático y la inteligencia artificial (IA) para que el mundo sea un lugar más seguro.

Pero algunos expertos temen que estos proveedores de ciberseguridad no estén prestando suficiente atención a los riesgos asociados a la dependencia de estas tecnologías. “Está sucediendo algo preocupante, y en algunos casos, incluso peligroso”, advierte Raffael Marty de la firma de seguridad Forcepoint.

El lógico que la industria de la seguridad quiera disponer de algoritmos. A medida que la cantidad de dispositivos conectados a internet aumenta, el mundo se enfrenta a un tsunami de ataques cibernéticos cada vez mayor (ver El “creciente y masivo” riesgo de IoT puede acabar cobrándose vidas humanas). Al mismo tiempo, el sector padece una gran escasez de expertos en ciberseguridad bien formados (ver El estrés laboral en ciberseguridad es el nuevo aliado de los hackers).

Utilizar el aprendizaje automático y la IA para automatizar la detección de ataques y responder a las amenazas puede aliviar la carga de los trabajadores y ayudar a identificar las amenazas de manera más eficiente que otros enfoques basados ​​en software (ver Este robot hacker encuentra y repara vulnerabilidades automáticamente).

Datos corrompidos

Pero Marty y otros ponentes de Black Hat afirman que muchas empresas están lanzando productos basados ​​en aprendizaje automático porque creen que deben hacerlo para complacer a los clientes seducidos por la moda de la IA. Esto podría provocar que las compañías vivan bajo una falsa sensación de seguridad aportada por algoritmos de aprendizaje automático.

Muchos productos que se están implementando se basan en el “aprendizaje supervisado”. Esta técnica requiere que las empresas seleccionen y etiqueten los conjuntos de datos para entrenar a los algoritmos. Un ejemplo sería el etiquetado de código considerado malware y el que está limpio de virus.

Marty advierte que uno de los riesgos radica en las prisas por lanzar productos al mercado, lo que puede provocar que las empresas utilicen datos con puntos anómalos que no han eliminado correctamente. Este entrenamiento imperfecto podría provocar que el algoritmo pase por alto algunos ataques. Otro de los riesgos nace de la capacidad de los hackers para acceder a los sistemas de una empresa de seguridad. Si lo logran, pueden corromper los datos cambiando las etiquetas para que algunos ejemplos de malware se etiqueten como código limpio.

Pero para cometer sus fechorías, los ciberdelincuentes ni siquiera necesitan manipular los datos. Les basta con resolver las características del código que usa un modelo para marcar el malware y luego eliminarlo de su propio código malicioso para que el algoritmo no lo detecte.

El problema del algoritmo maestro

En una de las sesiones, los investigadores de Microsoft Holly Stewart y Jugal Parikh señalaron el riesgo de depender de un único algoritmo maestro para controlar un sistema de seguridad al completo. Si ese algoritmo se ve comprometido, no habría ninguna forma de indicar que hay problemas.

Para ayudar a protegerse contra esta situación, el servicio de protección contra amenazas de la compañía, Windows Defender de Microsoft, usa un conjunto diverso de algoritmos con diferentes conjuntos de datos de entrenamiento y características. Así, si un algoritmo es pirateado, los resultados de los demás (siempre y cuando que su integridad no se haya visto comprometida) señalarán la anomalía en el primer modelo.

Y por si fuera poco, Marty también advirtió de la dificultad de entender las conclusiones de los algoritmos especialmente complejos. Este problema de “explicabilidad” puede dificultar la evaluación del problema que provoca las anomalías detectadas por el sistema de seguridad (ver El secreto más oscuro de la inteligencia artificial: ¿por qué hace lo que hace?).

A pesar de todos estos riesgos, la IA y el aprendizaje automático son buenas herramientas de todo nuestro arsenal defensivo cibernético. El mensaje de Marty y el resto de expertos fue que las compañías de seguridad deben esforzarse al máximo en monitorizar y minimizar los riesgos asociados a sus modelos algorítmicos.

Pero aunque sea fácil de decir, cumplir este objetivo es un gran reto debido a que las personas con la combinación ideal de una larga trayectoria en ciberseguridad y en ciencia de datos todavía son tan poco comunes como encontrarse un día de verano en las Vegas en el que calor resulte soportable.

Fuente: Technologyreview.es


Leave a Comment

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.