Cómo Trump gana podría crear una IA peligrosa

Los requisitos de presentación de informes son importantes para alertar al gobierno sobre nuevas capacidades potencialmente peligrosas en los modelos de IA emergentes, afirma un funcionario del gobierno de EE. UU. que trabaja en cuestiones de IA. El funcionario, que pidió el anonimato para hablar libremente, señaló Adopción de OpenAI sobre su último modelo de “incertidumbre que niega solicitudes para combinar agentes nerviosos”.

El funcionario dice que el requisito de presentar informes no es demasiado gravoso. Argumentan que, a diferencia de las regulaciones de IA en la Unión Europea y China, la EO de Biden refleja un “enfoque más amplio y ligero que continúa fomentando la innovación”.

Nick Reese, quien se desempeñó como primer director de tecnologías emergentes del Departamento de Seguridad Nacional de 2019 a 2023, negó acusaciones serias de que el requisito de presentación de informes pondría en riesgo la propiedad intelectual de las empresas. Y dice que podría ayudar a las nuevas empresas animándolas a desarrollar modelos de IA “más eficientes” y con menos datos que caigan por debajo del umbral de presentación de informes.

El poder de la IA hace que la regulación gubernamental sea esencial, dice Ami Fields-Meyer, quien ayudó a redactar la EO de Biden como responsable de tecnología de la Casa Blanca.

“Estamos hablando de empresas que dicen que están construyendo los sistemas más potentes de la historia del mundo”, afirma Fields-Meyer. “El primer deber del gobierno es proteger al pueblo. “Créanme, lo tenemos” no es un argumento muy fuerte. “

Los expertos elogian las directrices de seguridad del NIST como una herramienta importante para desarrollar la seguridad en torno a las nuevas tecnologías. Señalan que los modelos incorrectos de IA pueden crear riesgos graves para la sociedad, incluida la discriminación en la contratación y los préstamos y la pérdida indebida de beneficios gubernamentales.

El primer pedido de inteligencia artificial de Trump requería que los sistemas federales de IA respetaran los derechos humanos, lo que requeriría una investigación de los riesgos públicos.

La industria de la IA tiene gran bienvenida El programa de seguridad de Biden. Un funcionario estadounidense dice: “Lo que creemos es que es muy importante explicar esta cuestión”. Para las nuevas empresas con equipos pequeños, “amplía la capacidad de su gente para resolver estos problemas”.

Revertir la orden ejecutiva de Biden enviaría una señal ominosa de que “el gobierno de EE. UU. va a retirar sus protecciones a la IA”, dice Michael Daniel, ex asesor cibernético del presidente que ahora dirige Cyber ​​Threat Alliance, una organización de participación en las ganancias.

En cuanto a la competencia con China, los defensores de la EO dicen que las reglas de seguridad ayudarán a Estados Unidos a ganar al garantizar que los modelos de IA estadounidenses superen a sus rivales chinos y estén protegidos del espionaje económico de Beijing.

Dos maneras muy diferentes

Si Trump gana la Casa Blanca el próximo mes, se espera un cambio radical en la forma en que el gobierno aborda la seguridad de la IA.

Los republicanos quieren limitar el riesgo de la IA mediante el uso de “leyes legales y de daños existentes” en lugar de imponer nuevas y radicales restricciones a la tecnología, dice Helberg, y están a favor de “un mayor enfoque en aumentar las oportunidades que brinda la IA, en lugar de centrarse más en el riesgo”. reducción.” Eso podría significar un desastre para el requisito de presentación de informes y posiblemente incluso para las pautas del NIST.

El requisito de presentación de informes también puede enfrentar desafíos legales ahora que la Corte Suprema ha reducido la deferencia que los tribunales solían otorgar a las organizaciones para revisar sus leyes.

Y el rechazo del Partido Republicano podría poner en problemas al NIST Asociaciones voluntarias para pruebas de IA. y empresas líderes. “¿Qué pasa con ese compromiso en el nuevo sistema?” preguntó el funcionario estadounidense.

Esta polarización en torno a la IA ha frustrado a los tecnólogos que temen que Trump socave el deseo de encontrar especies seguras.

Nicol Turner Lee, director del Centro de Innovación Tecnológica de la Brookings Institution, dice: “Además de las promesas de la IA, existen peligros, y es importante que el próximo presidente continúe garantizando la seguridad de estos sistemas”.

Fuente