Las agencias de inteligencia de EE. UU. Han publicado seis principios para el uso ético de la IA, con énfasis en la transparencia, la justicia y la seguridad. (IMÁGENES FALSAS)

Por el personal de AI Trends

Esta semana, la Oficina del Director de Inteligencia Nacional (ODNI) lanzó el primero de un conjunto de principios en evolución para el uso ético de la IA. Los seis principios, que van desde la privacidad hasta la transparencia y la ciberseguridad, se describieron como la versión 1.0 y fueron aprobados por John Ratcliffe, director de Inteligencia Nacional.

Los seis principios se han posicionado para guiar a las 17 agencias de inteligencia de la nación, principalmente para ayudarlas a trabajar con compañías privadas contratadas para ayudar al gobierno a construir sistemas que contengan IA, según una cuenta en Rompiendo la defensa. Los principios del servicio de inteligencia complementan el Principios de IA adoptados por el Pentágono a principios de este año.

«Esta ética de la IA no afecta nuestra capacidad para lograr nuestra misión de seguridad nacional», dijo Ben Huebner, jefe de la Oficina de Libertades Civiles, Privacidad y Transparencia de ODNI. «Por el contrario, nos ayudan a asegurarnos de que nuestra IA o el uso de la IA proporcionen formuladores de políticas de información imparciales, objetivos y procesables que son fundamentalmente nuestra misión».

Ben Huebner, Jefe de la Oficina de Libertades Civiles, Privacidad y Transparencia, ODNI

La retroalimentación sobre el principio de inteligencia artificial de la comunidad de inteligencia es bienvenida, dicen los gerentes. «Damos la bienvenida absolutamente a los comentarios y comentarios públicos sobre esto», dijo Huebner, señalando que habrá una forma de comentarios públicos sobre Intel.gov. “No hay duda de que hay aspectos de lo que hacemos que están y seguirán siendo clasificados. Sin embargo, creo que podemos hablar en términos generales sobre algunas de las cosas que hacemos. ‘

Dean Souleles, Asesor Principal de Tecnología de ODNI, dijo que «la ciencia de la IA aún no está 100% completa», pero los documentos de ética brindan a los funcionarios de inteligencia una hoja de ruta actual sobre cómo utilizar mejor esta tecnología emergente.

“Es muy temprano para elaborar una larga lista de lo que se debe y no se debe hacer. Necesitamos entender cómo funciona esta tecnología, debemos dedicar nuestro tiempo al marco y a las pautas que publicamos para asegurarnos de cumplir con las pautas. Pero este es un tren muy, muy rápido con esta tecnología «, dijo Souleles en un informe Red federal de noticias.

Comentarios son bienvenidos

La comunidad de inteligencia espera lanzar actualizaciones a sus documentos de IA a medida que la tecnología evoluciona y responde a las preguntas. Una de las cuestiones que están considerando los servicios de inteligencia es: ¿cuál es el papel del «humano en el bucle» en el lenguaje del Departamento de Defensa? Por ejemplo, si una aplicación de voz a texto está capacitada en un dialecto de una región del mundo, incluso si es el mismo idioma, ¿qué tan precisa es? «Eso es algo que necesito saber», dijo Huebner.

La retroalimentación a las agencias de inteligencia sobre sus principios de IA probablemente provenga de ejemplos en el sector privado. «Creemos que existe una gran superposición entre lo que necesita la comunidad de inteligencia y, francamente, lo que el sector privado necesita para que podamos y debamos trabajar juntos», dijo Souleles.

Dean Souleles, Asesor Principal de Tecnología, ODNI

Por ejemplo, para identificar la fuente de una amenaza, los ejemplos de la industria pueden ser útiles para la comunidad de inteligencia, lo cual es tranquilizador y siniestro.

«Hay muchas áreas de las que podemos hablar sobre el futuro, donde hay superposiciones que nuestras fuentes y métodos clasificados no exponen», dijo Souleles, «porque muchas, muchas, muchas de estas cosas son problemas realmente comunes».

Una preocupación importante con la IA, independientemente de quién la desarrolle, es el sesgo en los algoritmos, según una cuenta en C4Isrnet. El marco propone pasos que los profesionales deben tomar para descubrir los sesgos no deseados que los algoritmos pueden invadir durante el ciclo de vida de un programa de IA.

«Lo más importante para los analistas de inteligencia es comprender las fuentes de los datos que tenemos, los prejuicios inherentes a esos datos, y luego poder sacar sus conclusiones basadas en ese entendimiento», dijo Souleles. «Y eso no es fundamentalmente diferente de la misión central de la inteligencia. Siempre nos enfrentamos a la incertidumbre. ‘

Aquí están los seis principios en las propias palabras del documento:

Respeta la ley y actúa con integridad. Usaremos la IA de una manera que respete la dignidad humana, los derechos y las libertades. Nuestro uso de AI cumplirá plenamente con las autoridades legales aplicables y las políticas y procedimientos que protegen la privacidad, los derechos civiles y las libertades civiles.

Transparente y responsable. Brindaremos al público y a nuestros clientes la transparencia adecuada con respecto a nuestros métodos, aplicaciones y usos de IA dentro de los límites de seguridad, tecnología y divulgación regulatoria y reguladora, y de acuerdo con los Principios de Transparencia de Inteligencia para el CI. Desarrollaremos y utilizaremos mecanismos para identificar y dar cuenta del uso de la IA y sus resultados.

Objetivo y justo. De acuerdo con nuestro compromiso de proporcionar información objetiva, tomaremos medidas de confirmación para identificar y reducir el sesgo.

Desarrollo y uso orientado a las personas. Desarrollaremos y usaremos la inteligencia artificial para mejorar nuestra seguridad nacional y fortalecer nuestras asociaciones de confianza al amortiguar la orientación tecnológica con la aplicación del juicio humano, especialmente cuando una acción tiene el potencial de privar a las personas de los derechos constitucionales o su libre ejercicio de las libertades civiles. obstaculizar.

Seguro y resistente. Desarrollaremos y aplicaremos las mejores prácticas para maximizar la confiabilidad, seguridad y precisión del diseño, desarrollo y uso de IA. Utilizamos las mejores prácticas de seguridad para crear resiliencia y minimizar el potencial de influencia hostil.

Informado por la ciencia y la tecnología. Aplicaremos rigurosamente nuestro desarrollo y uso de IA trabajando activamente en todo el IC, así como con las comunidades científicas y tecnológicas más amplias para aprovechar los avances en investigación y mejores prácticas de los sectores público y privado.

Leer en los artículos fuente Rompiendo la defensa, Red federal de noticias y C4Isrnet. Lea los principios de IA de la comunidad de inteligencia Intel.gov.



Source link