DARPA trabajando en formas de evitar que los autos sin conductor sean engañados

DARPA trabajando en formas de evitar que los autos sin conductor sean engañados

A pesar de que las compañías abogan por la necesidad de automóviles autónomos basados ​​en varias proyecciones, la confianza pública en los automóviles que conducen ellos mismos es aún muy baja. Una razón principal para esto es que la gente cree que los autos funcionan mal, o podrían ser pirateados, o incluso engañados para que hagan cosas que normalmente no harían.

GARD es un programa que DARPA acaba de anunciar esta semana. Significa Garantizar la robustez de la inteligencia artificial contra el engaño, y su objetivo principal es evitar que los sistemas de aprendizaje automático (ML) se alteren de manera maliciosa.

Como ejemplo de la necesidad del programa GARD, DARPA cita un caso en el que un auto sin conductor fue engañado por medio de alteraciones visuales para ver una señal de alto como una publicación de límite de velocidad de 45 mph.

Esta manipulación se puede hacer fácilmente sin acceso al propio ML. Al emplear herramientas de baja tecnología, uno podría alterar la forma en que se ven las señales de la calle, por ejemplo, para que el automóvil las malinterprete y decida cuál cree que es el curso de acción apropiado.

La agencia advierte que si esto sucediera en el mundo real,

DARPA llama a este tipo de actividad ataque de engaño adversario y planea combatirlo con el programa GARD.

Diseñado para las tecnologías de aprendizaje automático de diversos campos, no solo los que se instalan dentro de los automóviles, GARD se enfocará primero en ML basado en imágenes y luego pasará a video, audio e incluso sistemas más complejos.

dijo en un comunicado Hava Siegelmann, gerente de programa en la Oficina de Innovación de Información de DARPA.