Con simples calcomanías, investigadores de distintas instituciones, demuestran cómo sería posible hackear vehículos autónomos.
Un grupo de investigadores de cuatro universidades estadounidenses han ofrecido una inquietante muestra de cómo los vehículos autónomos podrían ser intervenidos para cometer errores peligrosos. Al modificar las señales de tránsito de formas que fueran imperceptibles al ojo humano, los investigadores pudieron alterar completamente la forma en la que éstas son interpretadas por una inteligencia artificial.
Esto no solo se trató de echar un poco de pintura sobre las señales de tránsito. Este equipo, cuyo trabajo fue reportado por Ars Technica, diseñó un algoritmo de ataque que “cose” con mucho cuidado las “perturbaciones” visuales en las señales ya existentes. Las alteraciones, hechas con impresiones estándar a color o calcomanías, lucen como grafiti o cualquier desgaste normal para el ojo humano. Por ejemplo, una calcomanía que hace que una señal de tránsito no diga “Stop” (“Alto”) sino “Love Stop Hate” (“el amor detiene al odio”), una intervención que muchos automovilistas han visto en las calles.
Hablando de la demostración de las redes neurales usadas por las investigaciones, estas alteraciones aparentemente inocuas se vuelven alucinaciones mentales. El ejemplo más dramático de esta serie de experimentos fue un signo de “Stop” (“Alto”) alterado con lo que se ve como una señal de erosión natural. Esto fue visto por la red neural como una señal que señalaba un límite de velocidad de 45 millas por hora. En otra prueba, cuatro calcomanías rectangulares cuidadosamente colocadas hicieron que un signo de “Stop” se viera también como una señal de reducción de velocidad, aunque ligeramente menos consistente.
Estas interpretaciones erróneas, que se mantuvieron constantes bajo una serie variada de condiciones, incluyendo distancias y ángulos de visión diferentes, podrían, obviamente, ser increíblemente peligrosas.
Sin embargo, en todo esto encontramos dos advertencias. La investigación ha sido compartida públicamente, pero aún no ha sido revisada ni publicada. Además, las pruebas planteadas no usaron ningún modelo autónomo ni sistema de visión comerciales (los investigadores entrenaron su propio sistema de inteligencia artificial usando una librería de señales visuales). Aunque este trabajo es una prueba fuerte en su concepto, los investigadores han escrito en una sección anexa de preguntas y respuestas que “seguramente este ataque no tendría efecto alguno en los vehículos autónomos existentes”.