La tecnología avanza, sin embargo los peligros que esta trae consigo también aumentan.
Los grandes avances tecnológicos en el tema de inteligencia artificial están haciendo que los piratas informáticos volteen a ver a este sector como un terreno donde podrían realizar prácticas ilegales.
Desde ataques automáticos en el robo de identidad, hasta causar accidentes automovilísticos o convertir los drones comerciales en armas, de acuerdo a un informe publicado por Reuters.
El estudio fue publicado por investigadores técnicos y de políticas públicas de las universidades de Cambridge, Oxford y Yale junto con expertos en privacidad y equipos militares.
Hay un vacío en la literatura sobre el uso indebido de la Inteligencia Artificial.
La razón del análisis fue la preocupación que ocasiona tan solo el hecho de saber que los delincuentes hagan un uso indebido de la Inteligencia Artificial (IA).
Los investigadores dijeron que el uso malicioso de ésta representa una amenaza inminente para la seguridad digital, física y política al permitir ataques a gran escala, finamente dirigidos y altamente eficientes.
“Todos estamos de acuerdo en que hay muchas aplicaciones positivas de la Inteligencia Artificial, sin embargo hubo un vacío en la literatura sobre el tema del uso malicioso”, dijo Miles Brundage, investigador del Instituto Future of Humanity de Oxford.
La inteligencia artificial, o AI, implica el uso de computadoras para realizar tareas que normalmente requieren inteligencia humana, como tomar decisiones o reconocer texto, voz o imágenes visuales.
Se considera una poderosa fuerza para desbloquear todo tipo de posibilidades técnicas, pero también se convirtió en un foco de debate estridente sobre si la automatización masiva que permite podría resultar en un desempleo generalizado y otros conflictos sociales.
Los riesgos
El documento de 98 páginas advierte que el costo de los ataques puede reducirse mediante el uso de la IA para completar tareas que de otra manera requerirían trabajo humano y experiencia.
Pueden surgir nuevos ataques que explotan las vulnerabilidades de los propios sistemas de inteligencia artificial.
La investigación académica revisa los riesgos de seguridad que plantea la IA y hace un llamado a los gobiernos y expertos en políticas para que colaboren y atenúen estos peligros.
Los investigadores detallan el poder de la inteligencia artificial para generar imágenes sintéticas, texto y audio para hacerse pasar por otros en línea, con el fin de influir en la opinión pública, señalando la amenaza de que los regímenes autoritarios puedan implementar dicha tecnología.
El informe también hace una serie de recomendaciones que incluyen la regulación de la inteligencia artificial como una tecnología militar o comercial de doble uso.
A su vez, hace preguntas sobre si los académicos y otros deben controlar lo que publican o divulgan sobre nuevos desarrollos en IA hasta que otros expertos en el campo tengan la oportunidad de estudiar y reaccionar ante los peligros potenciales que se puedan plantear.
“Finalmente terminamos con muchas más preguntas que respuestas”, manifestó Brundage.
El documento nació de un taller impartido a principios de 2017 y algunas de sus predicciones se cumplieron mientras se escribían.
Los autores especularon que la IA se podría usar para crear audio y video falsos altamente realistas de funcionarios públicos con fines de propaganda.