Trae Stephens construyó armas de inteligencia artificial y trabajó para Donald Trump. Tal como él lo vio, Jesús aceptaría

Cuando escribí sobre Anduril en 2018, la empresa afirmó claramente que no fabricará armas letales. Ahora construyes aviones de combate, drones submarinos y otras armas de guerra mortales. ¿Por qué hiciste este giro?

Respondimos a lo que vimos, no sólo dentro de nuestro propio ejército sino en todo el mundo. Queremos adaptarnos y proporcionar las mejores capacidades de la forma más adecuada. La otra cosa es que alguien más va a hacer eso y creemos que podemos hacerlo bien.

¿Hubo alguna conversación emocional antes de cruzar esa línea?

Hay constantes discusiones internas sobre qué construir y si existe un alineamiento moral con nuestros objetivos. No veo que haya mucha actividad en tratar de fijar nuestra propia línea cuando el gobierno está fijando esa línea. Han dado orientaciones claras sobre lo que va a hacer el ejército. Seguimos el liderazgo de nuestro gobierno elegido democráticamente para contarnos sus problemas y cómo podemos ayudar.

¿Cuál es el papel adecuado de la IA autónoma en combate?

Afortunadamente, el Departamento de Defensa de los Estados Unidos ha trabajado más en esto que quizás cualquier otra organización en el mundo, con la excepción de las grandes empresas de infraestructura de IA. Existen reglas claras de participación que mantienen a las personas comprometidas. Quiere sacar a la gente de trabajos aburridos, sucios y peligrosos, y tomar decisiones de manera eficiente y, al mismo tiempo, mantener a alguien responsable al final del día. Es el objetivo de toda la estrategia implementada, independientemente de los avances de la independencia en los próximos cinco o diez años.

En el combate puede resultar tentador no esperar a que las personas se vuelvan pesadas, cuando los objetivos se presentan inmediatamente, especialmente con armas como los aviones de combate autónomos.

Un programa independiente en el que estamos trabajando para el avión Fury. [a fighter used by the US Navy and Marine Corps] se llama CCA, Avión de Combate. Hay un hombre en el avión que controla y ordena a los robots de combate y decide lo que hacen.

¿Qué pasa con los drones que construyes y que flotan en el aire hasta que detectan un objetivo y disparan?

Hay una clase de drones llamados municiones merodeadoras, que son drones que buscan objetivos y pueden moverse cinéticamente hacia esos objetivos, como un kamikaze. Además, hay un responsable a cargo.

La guerra es complicada. ¿No existe una preocupación real de que esos principios sean dejados de lado una vez que comiencen las hostilidades?

La gente pelea guerras y comete errores. Cometemos errores. Incluso cuando estábamos en fila disparándonos unos a otros con mosquetes, había una manera de juzgar el delito de asociación. Creo que eso continuará. ¿Creo que nunca habrá un caso en el que se le pida a algún sistema independiente que haga algo que sea claramente una grave violación de los principios morales? No, porque ellos siguen siendo quienes tienen el control. ¿Creo que tiene sentido cargar un conflicto caótico y peligroso con robots que son más precisos, más exigentes y potencialmente menos peligrosos? Sí. Para tomar una decisión no Hacer esto es seguir poniendo a la gente en peligro.

Foto de : Peyton Fulford

Estoy seguro de que conoce el último mensaje de Eisenhower sobre los peligros de que un complejo militar-industrial sirva a sus propias necesidades. ¿Esa advertencia afecta tu forma de trabajar?

Ése es uno de los mejores discursos de todos los tiempos; lo leo al menos una vez al año. Eisenhower hablaba de un complejo militar-industrial donde el gobierno ya no es tan diverso como contratistas como Lockheed Martin, Boeing, Northrop Grumman y General Dynamics. Hay una puerta giratoria en la cima de estas empresas, y se convierten en potencias debido a esa interconexión. Anduril está impulsando un modelo de negocio que no depende de una estrecha estructura de incentivos. Estamos diciendo: “Construyamos cosas muy baratas, usemos la última tecnología y hagámoslo de una manera que implique muchos riesgos”. Eso evita algunos de los conflictos potenciales que Eisenhower imaginó.

Fuente