El año pasado, el equipo de seguridad de Azure de Microsoft Corp. detectó una actividad sospechosa en el uso de computación en la nube de un gran minorista: uno de los administradores de la empresa, que generalmente se registra desde Nueva York, estaba tratando de ingresar a Rumania. Y no, el administrador no estaba de vacaciones. Todo lo contrario, los hackers se habían hecho presentes.
Microsoft alertó rápidamente a su cliente, y el ataque fue frustrado antes de que el intruso llegara demasiado lejos.
Microsoft, Alphabet Inc., Google, amazon.com Inc. y varias nuevas empresas se están alejando del uso exclusivo de la antigua tecnología “basada en reglas” diseñada para responder a tipos específicos de intrusión y están implementando algoritmos de aprendizaje automático que procesan enormes cantidades de datos en los inicios de sesión, el comportamiento y los ataques anteriores para descubrir y detener a los piratas informáticos.
“El aprendizaje automático es una técnica muy poderosa para la seguridad: es dinámico, mientras que los sistemas basados en reglas son muy rígidos”, dice Dawn Song, profesora del Laboratorio de Investigación de Inteligencia Artificial de la Universidad de California en Berkeley. “Es un proceso muy manual para cambiarlos, mientras que el aprendizaje automático es automático, dinámico y se puede volver a entrenar fácilmente”.
Los hackers también son famosos y adaptables, por lo que también podrían aprovechar el aprendizaje automático para crear nuevas travesuras y abrumar a las nuevas defensas. Por ejemplo, podrían descubrir cómo es que las compañías entrenan sus sistemas y usar los datos para evadir o corromper los algoritmos.
Las grandes empresas de servicios en la nube son conscientes de que el enemigo es un objetivo móvil, pero argumentan que la nueva tecnología ayudará a inclinar la balanza a favor de los buenos.
“Veremos una capacidad mejorada para identificar amenazas antes en el ciclo de ataque y, por lo tanto, reduciremos la cantidad total de daños y restauraremos los sistemas a un estado deseable más rápidamente”, dice el director de Seguridad de la Información de Amazon, Stephen Schmidt. Él reconoce que es imposible detener todas las intrusiones, pero argumenta que su industria “será cada vez mejor en la protección de los sistemas y lo hará cada vez más difícil para los atacantes”.
Antes del aprendizaje automático, los equipos de seguridad utilizaban instrumentos más contundentes. Por ejemplo, si alguien en la sede central intentaba iniciar sesión desde una ubicación desconocida, se les prohibió la entrada. O mails de spam con varias faltas de ortografía de la palabra “Viagra” fueron bloqueados. Tales sistemas a menudo funcionan.
Pero también marcan muchos usuarios legítimos, como lo sabe cualquier persona que evite usar su tarjeta de crédito mientras está de vacaciones. Un sistema de Microsoft diseñado para proteger a los clientes de inicios de sesión falsos tuvo una tasa de falsos positivos del 2.8%, según el director de Tecnología de Azure, Mark Russinovich. Puede que no parezca mucho, pero se consideró inaceptable ya que los clientes más grandes de Microsoft pueden generar miles de millones de inicios de sesión.
Para mejorar la averiguación de quién es legítimo y quién no, la tecnología de Microsoft aprende de los datos de cada compañía que lo usa, personalizando la seguridad al comportamiento y el historial típico en línea de ese cliente. Desde el lanzamiento del servicio, la compañía ha logrado reducir la tasa de falsos positivos al .001%. Este es el sistema que superó al intruso en Rumania.
El entrenamiento de estos algoritmos de seguridad recae en personas como Ram Shankar Siva Kumar, un gerente de Microsoft quien tiene el título de Data Cowboy. Siva Kumar se unió a Microsoft hace seis años desde Carnegie Mellon después de aceptar una entrevista de segunda ronda porque su hermana era fanática de Grey’s Anatomy, el drama médico que se desarrolla en Seattle.
Administra un equipo de aproximadamente 18 ingenieros que desarrollan los algoritmos de aprendizaje automático y luego se aseguran de que sean lo suficientemente inteligentes y rápidos para frustrar a los hackers y que trabajen a la perfección con los sistemas de software de las compañías que pagan grandes sumas por los servicios de la nube de Microsoft.
Siva Kumar es una de las personas que recibe la llamada cuando los algoritmos detectan un ataque. Lo despertaron a mitad de la noche, solo para descubrir que el “equipo rojo” de hackers de Microsoft era el responsable. (Le compraron pastel para compensar el sueño perdido).
El desafío es desalentador. Millones de personas inician sesión en Gmail de Google cada día. “La cantidad de datos que debemos analizar para asegurarnos de que seas tú o un impostor sigue creciendo a una velocidad que es demasiado grande para que los humanos escriban las reglas una por una”, dice Mark Risher, director de administración de productos que ayuda a prevenir Ataques a los clientes de Google.
Google ahora busca violaciones de seguridad incluso después de que un usuario haya iniciado sesión, lo que resulta útil para atrapar a hackers que inicialmente parecen usuarios reales. Con el aprendizaje automático capaz de analizar muchos datos diferentes, la captura de inicios de sesión no autorizados ya no es una cuestión de sí o no. Más bien, Google supervisa varios aspectos del comportamiento a lo largo de la sesión de un usuario.
Alguien que parece legítimo inicialmente puede mostrar más tarde signos de que no son quienes dicen ser, dejando que el software de Google los arranque con tiempo suficiente para evitar daños mayores.
Además de utilizar el aprendizaje automático para asegurar sus propias redes y servicios en la nube, Amazon y Microsoft están proporcionando la tecnología a los clientes. El servicio Macie de Amazon utiliza el aprendizaje automático para encontrar datos confidenciales en medio de información corporativa de clientes como Netflix y luego observa quiénes acceden a ellos y cuándo, alertando a la compañía sobre actividades sospechosas.
GuardDuty de Amazon monitorea los sistemas de los clientes para detectar actividades maliciosas o no autorizadas. Muchas veces, el servicio descubre que los empleados hacen cosas que no deberían, como minar Bitcoin en el trabajo.
La compañía de seguros holandesa NN Group NV utiliza la protección avanzada contra amenazas de Microsoft para administrar el acceso a sus 27,000 trabajadores y socios cercanos, mientras mantiene a todos los demás fuera.
A principios de este año, Wilco Jansen, el gerente de servicios de lugar de trabajo de la compañía, mostró a los empleados una nueva característica en el software de la nube de Office de Microsoft que bloquea el llamado spamming CxO, en el que los spammers se hacen pasar por un alto ejecutivo e instruyen al receptor para que transfiera fondos o comparta información personal. .
Noventa minutos después de la manifestación, el centro de operaciones de seguridad llamó para informar que alguien había intentado el ataque exacto contra el CEO del Grupo NN. “Eramos como ‘oh, esta característica ya podría haber evitado que esto sucediera'”, dice Jansen. “Necesitamos estar en alerta constante, y estas herramientas nos ayudan a ver cosas que no podemos seguir manualmente”.
Los sistemas de seguridad de aprendizaje automático no funcionan en todos los casos, especialmente cuando no hay datos suficientes para capacitarlos. Y los investigadores y las empresas se preocupan constantemente de los que pueden ser explotados por hackers.
Por ejemplo, podrían imitar la actividad de los usuarios para frustrar los algoritmos que detectan el comportamiento típico. O los hackers pueden manipular los datos utilizados para entrenar los algoritmos y modificarlos para sus propios fines, lo que se denomina envenenamiento. Esa es la razón por la que es importante que las compañías mantengan sus criterios de algoritmo secretos y cambiar regularmente sus fórmulas, dijo Battista Biggio, profesora del Laboratorio de Reconocimiento de Patrones y Aplicaciones de la Universidad de Cagliari en Cerdeña, Italia.
Hasta ahora, estas respuestas aparecen más en los artículos de investigación que en la vida real. Pero es probable que eso cambie. Como se escribió en el documento pasado: “La seguridad es una carrera de armamentos, la seguridad de los sistemas de aprendizaje automático y el reconocimiento de los patrones no es una excepción”.
También lee: IBM lanza sus predicciones de inteligencia artificial para 2019
Por Bloomberg