El contexto: Una de las principales deficiencias no resueltas del aprendizaje profundo es la vulnerabilidad a los llamados ataques hostiles. Cuando se agregan a la entrada de un sistema de IA, estas perturbaciones, que aparentemente son aleatorias o imperceptibles para el ojo humano, pueden hacer que salga completamente mal. Por ejemplo, las calcomanías colocadas estratégicamente en una señal de alto pueden atraer a un automóvil autónomo a ver una señal de límite de velocidad a 45 millas por hora, mientras que las calcomanías en una carretera pueden hacerlo. confundir a un Tesla para entrar en el carril equivocado.

Crucial para la seguridad: La mayoría de las investigaciones contradictorias se centran en los sistemas de reconocimiento de imágenes, pero en imágenes basadas en el aprendizaje profundo. reconstrucción Los sistemas también son vulnerables. Esto es especialmente preocupante en la asistencia sanitaria, donde este último suele estar acostumbrado a reconstruir imágenes médicas tales como tomografías computarizadas o resonancias magnéticas de datos de rayos X. Un ataque hostil dirigido puede hacer que dicho sistema reconstruya un tumor en un escaneo donde no lo hay.

La investigación: Bo Li (nombrada una de las innovadoras del MIT Technology Review Innovators Under 35 de este año) y sus colegas de la Universidad de Illinois en Urbana-Champaign ahora proponen un nuevo método entrenar tales sistemas de aprendizaje en profundidad para que sean más resistentes a los errores y, por lo tanto, más confiables en escenarios críticos para la seguridad. Colocan la red neuronal responsable de la reconstrucción de la imagen contra otra red neuronal responsable de generar muestras hostiles, en un estilo similar a Algoritmos GAN. A través de rondas iterativas, la red hostil intenta engañar a la red de reconstrucción produciendo cosas que no son parte de los datos originales, o la verdad fundamental. La red de reconstrucción se ajusta constantemente para evitar ser engañada, por lo que es más seguro implementarla en el mundo real.

Los resultados: Cuando los investigadores probaron sus redes neuronales opuestamente entrenadas en dos conjuntos de datos de imágenes populares, fue capaz de reconstruir la verdad fundamental mejor que otras redes neuronales que eran «resistentes a fallas» por diferentes métodos. Sin embargo, los resultados aún no son perfectos, lo que demuestra que el método aún necesita ser refinado. El trabajo se presentará la próxima semana en el Conferencia internacional sobre aprendizaje automático. (Lea esta semana Algoritmo para obtener consejos sobre cómo navegar en conferencias de inteligencia artificial como esta).



Source link