INTELIGENCIA ARTIFICIAL Y OTAN: ADOPCIÓN DINÁMICA, USO RESPONSABLE

 

El adjunto al jefe de la Unidad de Innovación de OTAN expone los esfuerzos actuales para desarrollar la política de inteligencia artificial (AI) en la Alianza.

Conforme se ha apuntado en este primer artículo de esta serie sobre innovación en OTAN, la Alianza se enfrenta a una carrera global de adopción de tecnología. Potencia rivales están potenciando nuevas tecnologías para perseguir el doble objetivo de una mayor competencia económica junto con una mayor capacidad militar. Los aliados se enfrentan a una serie de problemas cuando intentan explotar las nuevas y disruptivas tecnologías. Estos problemas se basan en dos temas interrelacionados: asegurar una adopción dinámica de las nuevas tecnologías y gestionarlas con responsabilidad. AI está en el fondo de estas consideraciones.

AI es la capacidad de que las máquinas ejecuten tareas que típicamente requieren inteligencia humana –por ejemplo, reconocer modelos, aprender de la experiencia, llegar a conclusiones, realizar predicciones, o adoptar acciones- sea digitalmente o como programas “inteligentes” que hay detrás de los sistemas físicos autónomos (Science &Technology Trends 2020-2040 – Exploring the S&T Edge).

Como propuesto por el foro de pensamiento RAND en el informe sobre la postura del ministerio de Defensa para AI, Assessment and Recommendations (2019), bueno será distinguir entre tres amplios tipos de aplicaciones: AI empresarial, AI de apoyo a misiones y AI de operaciones.

AI empresarial incluye aplicaciones tales como sistemas empresariales de gestión de personal o financieros, que se despliegan en situaciones de profundo control, donde las consecuencias de fallos técnicos son bajas (en términos de peligro inmediato y mortalidad potencial).

AI de operaciones, en contraste, puede ser desplegada en misiones y operaciones, esto es en situaciones considerablemente menos controladas  y tales que las consecuencias de los fallos pueden ser críticamente altas. Los ejemplos incluyen loa programas de control de sistemas estáticos o de vehículos no tripulados.

AI de apoyo a misiones, una categoría intermedia en términos de control de situaciones y consecuencias de fallos, incluye una serie diversa de aplicaciones, por ejemplo aplicaciones relacionadas con inteligencia o logística y  mantenimiento.

Estas distinciones pueden resultar  útiles al establecer prioridades, tanto para medidas de adopción como para principios de uso responsable, teniendo en cuenta los diferentes niveles de riesgo inherentes a estas categorías.

La situación contemporánea de AI, o AI de segunda ola, se centra en el aprendizaje de las máquinas (ML). ML implica el desarrollo y uso de algoritmos estadísticos para encontrar modelos de datos. Por ejemplo un algoritmo de clasificación puede ser aplicado sobre una larga serie de ejemplos correctamente etiquetados para determinar a qué categoría previamente encontrada pertenece un objeto nuevamente observado. El aprendizaje profundo es una subserie de ML que usa capas múltiples informáticas (Redes Neuronales Artificiales con capaz múltiples) para el manejo de problemas de reconocimiento o predicción de modelos informáticamente exigentes, por ejemplo Redes Neuronales Convolutivas para detección de objetos dentro de imágenes.

El aprendizaje profundo puede ser usado para detectar objetos concretos dentro de imágenes.

ML se apoya en series largas de datos exactos y funciona pobremente con series pequeñas de datos o datos inexactos. Con buenas condiciones de una amplia gama de usos ML sobrepasa a los seres humanos en términos de tanto realización predictiva como, por supuesto, velocidad. Sobre una creciente gama de tareas estrictas de reconocimiento y predicción de modelos. He aquí la razón fundamental para la creciente adopción de ML en las vastas áreas de la actividad humana.

Hacia la adopción dinámica

Tradicionalmente los economistas han modelado el producto como una función del trabajo y el capital (factores de producción) y los factores materiales. Para AI los factores de producción son el talento de los especialistas muy formados y la infraestructura de las Tecnologías de Información y Comunicación (ICT) para cálculo y almacenamiento, en tanto que los datos son el factor clave.

Entonces, ¿son los datos el nuevo petróleo? Fundamentalmente, no. Mientras que los datos necesitan ser “extraídos” y, luego, “pulidos” antes de su uso, su disponibilidad aumenta con el volumen del producto. Los datos son también específicos, no fungibles. Para cualquier caso de uso específico se necesitan series de datos específicos que capturan exactamente las observaciones de la vida real (o simulaciones). Para asegurar un punto de partida sólido las instalaciones de defensa aliadas necesitarán asegurar su digitación adicional. En conjunto, la política de datos necesita gestionar una cadena completa de valores, que comprende su recogida, acceso, participación, almacenamiento, metadatos, documentación, control de calidad (incluyendo limpieza de datos y reducción de desviaciones) y procesos para asegurar el cumplimiento de los requisitos legales.

El apoyo a las medidas para los factores de producción –talento e infraestructura- debería incluir recursos humanos correctos y flexibles y medidas de contratación para atraer y nutrir el mejor talento humano así como el despliegue de una capacidad relevante y segura de cálculo y almacenamiento de datos.

Después está la productividad. A través de los tiempos los actores de la economía han buscado el mejor modo de combinar los factores de producción. ¿Son complementarios? ¿Son sustituibles? ¿Qué combinación da los mejores rendimientos? ¿Qué procesos y prácticas de producción y gestión dan los mejores resultados? Para AI, mientras en cierta medida existen las interrelaciones, los factores de producción son bastante más complementos que sustitutos: para triunfar se necesitan inversiones sustanciales en todos los tres factores.

En cuanto a procesos y gestión, la mejor práctica de la industria de programación indica que el desarrollo y la disponibilidad de soluciones de AI deberían descansar en el punto de vista Agil, más bien que en el tradicional modelo Waterfall. Esto implica procesos altamente dinámicos y repetitivos, partiendo de un planteamiento inicial y flexible del problema más bien que un planteamiento detallado y rígido de los requisitos. En la industria existen diversas variantes de Agil y algunas de ellas son perseguidas activamente en ciertas comunidades de OTAN.

El compromiso con un uso responsable

El éxito de la Alianza con AI dependerá también de nuevos y bien diseñados principios y prácticas relativos a una buena gobernanza y un uso responsable. Algunos países aliados han suscrito ya compromisos públicos en el campo del uso responsable tratando conceptos tales como legalidad, responsabilidad, confianza y gobernabilidad entre otros.

Al mismo tiempo, los aliados han formado parte del Grupo de Expertos Gubernamentales sobre Sistemas de Armas Letales Autónomas bajo los auspicios de Naciones Unidas para la formulación de once principios directrices.

Se dispone de un buen caso para ver el trabajo para adoptar AI y el trabajo sobre los principios de uso responsable como complementarios y sinérgicos. En efecto, hay determinados principios u objetivos fundamentales que apoyarán y facilitarán tanto la aplicación de una buena práctica como un comportamiento responsable de los países.

Algunos principios nacionales implican la necesidad de requisitos específicos de diseño. Por ejemplo, un principio de gobernabilidad puede estar ligado a la capacidad técnica para detectar y evitar consecuencias imprevistas y desactivar en caso de un comportamiento imprevisto.

Las características técnicas necesarias para asegurar la consecución de estos y otros objetivos formarán necesariamente parte de las fases de diseño y prueba de los sistemas correspondientes. A su vez, el trabajo técnico correspondiente será una oportunidad para pulir la comprensión, conduciendo a principios más granulares y completos. Será fundamental el trabajo adicional en el campo de Probar, Evaluar, Verificar y Validar (TEVV) así como el apoyo del correspondiente esfuerzo de Modelación y Simulación. El esfuerzo bien establecido de OTAN en el campo de la normalización ayudará a estructurar estas líneas de esfuerzo mientras, también, asegura la interoperabilidad entre las fuerzas aliadas.

Mientras, la aplicación de principios tales como los desarrollados en algunos casos nacionales, así como bajo los auspicios de ONU, ofrecen una base de partida para más consultas entre aliados así como puntos de referencia relativas a las posiciones nacionales existentes.

Edward Hunter Christie es jefe delegado de la Unidad de Innovación, de la Dvisión de Nuevos Problemas de Seguridad.

NATO Review, 24 de noviembre de 2020

Por la trascripción:

Leopoldo Muñoz Sánchez

Coronel de Intendencia ET (R)