Uso Malicioso de la IA

Un estudio publicado a finales de Febrero del 2018 por la U. de Oxford, U. de Cambridge y otras respetables Instituciones, alertan sobre los posibles escenarios de los usos maliciosos de la Inteligencia Artificial.

Este informe examina en profundidad el panorama de posibles amenazas a la seguridad derivadas de usos maliciosos de las tecnologías de inteligencia artificial y propone formas de predecir, prevenir y mitigar mejor estas amenazas.

El infome analiza, pero no resuelve de manera concluyente, la cuestión de cuál será el equilibrio a largo plazo entre los atacantes y los defensores. Se centra en los tipos de ataques que probablemente veremos pronto si no se desarrollan las defensas adecuadas.

En respuesta al panorama cambiante de las amenazas, se hace cuatro recomendaciones de alto nivel:

1. Los políticos deberían colaborar estrechamente con los investigadores técnicos para investigar, prevenir y mitigar los posibles usos maliciosos de la IA.

2. Los investigadores e ingenieros en inteligencia artificial deberían tomar en serio la naturaleza de doble uso de su trabajo, permitiendo que las consideraciones relacionadas con el uso indebido influyan en las prioridades y normas de investigación, y estableciendo contacto proactivo con los actores relevantes cuando las aplicaciones dañinas son previsibles.

3. Deben identificarse las mejores prácticas en las áreas de investigación con métodos más maduros para abordar problemas de doble uso, como la seguridad informática, e importar cuando corresponda en el caso de la IA.

4. Buscar activamente expandir el rango de partes interesadas y expertos en el dominio involucrados en las discusiones sobre estos desafíos.

Expansión de las amenazas existentes

A medida que las capacidades de IA se vuelven más poderosas y generalizadas, se espera que el uso creciente de los sistemas de IA genere los siguientes cambios en el panorama de las amenazas:

Más amenazas. El costo de los ataques puede reducirse mediante el uso escalable de los sistemas de IA para completar tareas que normalmente requerirían trabajo humano, inteligencia y experiencia. Un efecto natural sería ampliar el conjunto de actores que pueden llevar a cabo ataques particulares, la velocidad a la que pueden llevar a cabo estos ataques y el conjunto de objetivos potenciales.

Nuevas amenazas. Pueden surgir nuevos ataques mediante el uso de sistemas de IA para completar tareas que de otro modo serían poco prácticas para los humanos. Además, los actores malintencionados pueden explotar las vulnerabilidades de los sistemas de inteligencia artificial desplegados por los defensores.

Cambio del caracter tipico de las amenazas. Creemos que hay razones para esperar que los ataques permitidos por el uso creciente de la inteligencia artificial sean especialmente efectivos, estén bien focalizados, sean difíciles de atribuir y exploten las vulnerabilidades en los sistemas de inteligencia artificial.

Tres dominios de la seguridad

Estructuramos nuestro análisis considerando por separado tres dominios de seguridad e ilustramos posibles cambios a las amenazas dentro de estos dominios a través de ejemplos representativos:

Seguridad digital

El uso de la inteligencia artificial para automatizar tareas relacionadas con la realización de ataques cibernéticos aliviará la compensación existente entre la escala y la eficacia de los ataques. Esto puede ampliar la amenaza asociada con los ataques cibernéticos intensivos en mano de obra (como el spear phishing). También esperamos nuevos ataques que exploten vulnerabilidades humanas (por ejemplo, mediante el uso de síntesis de voz para suplantación), vulnerabilidades de software existentes (por ejemplo, mediante pirateo automático) o las vulnerabilidades de sistemas de inteligencia artificial (por ejemplo, a través de contaminación de datos).

Seguridad física

 El uso de inteligencia artificial para automatizar las tareas relacionadas con la realización de ataques con drones y otros sistemas físicos (por ejemplo, mediante el despliegue de sistemas autónomos de armas) puede ampliar las amenazas asociadas con estos ataques. También esperamos nuevos ataques que subviertan los sistemas ciberfísicos (por ejemplo, causen la caída de vehículos autónomos) o que impliquen sistemas físicos que no sería factible dirigir de forma remota (por ejemplo, un enjambre de miles de microdrones).

Seguridad política

El uso de AI para automatizar tareas relacionadas con la vigilancia (por ejemplo, análisis de datos recopilados en masa), persuasión (por ejemplo, creación de propaganda específica) y engaño (por ejemplo, manipulación de videos) puede ampliar las amenazas asociadas con la invasión de privacidad y la manipulación social. También esperamos ataques novedosos que aprovechen una mejor capacidad para analizar los comportamientos humanos, los estados de ánimo y las creencias sobre la base de los datos disponibles. Estas preocupaciones son más significativas en el contexto de estados autoritarios, pero también pueden socavar la capacidad de las democracias para sostener debates públicos veraces.

Recomendaciones Adicionales

Además de las recomendaciones de alto nivel enumeradas anteriormente, también proponemos la exploración de varias preguntas abiertas y posibles intervenciones dentro de cuatro áreas de investigación prioritarias:

Aprendiendo de y con la comunidad de seguridad cibernética en la intersección de la ciberseguridad y los ataques de inteligencia artificial, destacamos la necesidad de explorar y potencialmente implementar equipos rojos, verificación formal, divulgación responsable de vulnerabilidades de inteligencia artificial, herramientas de seguridad y hardware seguro

Explorando diferentes modelos de apertura a medida que la naturaleza de doble uso de AI se hace evidente, destacamos la necesidad de reimaginar normas e instituciones en torno a la apertura de la investigación, comenzando con la evaluación de riesgo previa a la publicación en áreas técnicas de especial interés, modelos de licencia de acceso central. , compartiendo regímenes que favorezcan la seguridad, y otras lecciones de otras tecnologías de doble uso.

Promover una cultura de responsabilidad. Los investigadores de AI y las organizaciones que los emplean están en una posición única para dar forma al paisaje de seguridad del mundo habilitado para AI. Destacamos la importancia de la educación, las declaraciones y los estándares éticos, los encuadres, las normas y las expectativas.

Desarrollar soluciones tecnológicas y de política. Además de lo anterior, estudiamos una gama de tecnologías prometedoras, así como intervenciones de política, que podrían ayudar a construir un futuro más seguro con IA. Las áreas de alto nivel para futuras investigaciones incluyen la protección de la privacidad, el uso coordinado de la IA para la seguridad pública, el monitoreo de los recursos relevantes para la IA, y otras medidas legislativas y
respuestas regulatorias.

Las intervenciones propuestas requieren atención y acción no solo de los investigadores y compañías de inteligencia artificial, sino también de legisladores, funcionarios, reguladores, investigadores de seguridad y educadores. El desafío es desalentador y hay mucho en juego.

El estudio está disponible, en formato PDF en idioma inglés, en el URL:
https://www.eff.org/files/2018/02/20/malicious_ai_report_final.pdf