El lunes, el presidente de Estados Unidos, Joe Biden, publicó una orden ejecutiva ambiciosa y de amplio alcance sobre inteligencia artificial (IA), catapultando a Estados Unidos al frente de las conversaciones sobre la regulación de la IA.
Al hacerlo, EE. UU. está adelantándose a otros estados en la carrera por gobernar la IA. Europa anteriormente lideró el camino con su Ley de IA, que fue aprobada por el Parlamento Europeo en junio de 2023, pero que no entrará en pleno efecto hasta 2025.
La orden ejecutiva presidencial es un conjunto de iniciativas para regular la IA (algunas de las cuales son buenas y otras parecen más bien a medias) y tiene como objetivo abordar daños que van desde los inmediatos, como los deepfakes generados por la IA, hasta los daños intermedios. como la pérdida de empleos, hasta daños a más largo plazo, como la muy controvertida amenaza existencial que la IA puede representar para los humanos.
El ambicioso plan de Biden
El Congreso de los Estados Unidos ha tardado en aprobar una regulación importante para las grandes empresas tecnológicas. Es probable que esta orden ejecutiva presidencial sea tanto un intento de eludir un Congreso que a menudo está estancado como de poner en marcha medidas. Por ejemplo, la orden pide al Congreso que apruebe legislación bipartidista sobre privacidad de datos.
¿Apoyo bipartidista en el clima actual? Buena suerte con eso, señor presidente.
Según se informa, la orden ejecutiva se implementará en los próximos tres meses a un año y cubre ocho áreas:
- Estándares de seguridad y protección para la IA.
- protecciones de privacidad
- derechos civiles y equidad
- derechos del consumidor
- trabajos
- innovación y competencia
- liderazgo internacional
- Gobernanza de la IA.
Por un lado, la orden cubre muchas preocupaciones planteadas por académicos y el público. Por ejemplo, una de sus directivas es emitir una guía oficial sobre cómo se puede colocar una marca de agua en el contenido generado por IA para reducir el riesgo de deepfakes.
También requiere que las empresas que desarrollan modelos de IA demuestren que son seguros antes de que puedan implementarse para un uso más amplio. El presidente Biden dijo: «Eso significa que las empresas deben informar al gobierno sobre los sistemas de IA a gran escala que están desarrollando y compartir resultados rigurosos de pruebas independientes. para demostrar que no representan ningún riesgo para la seguridad nacional o la seguridad del pueblo estadounidense».
El uso potencialmente desastroso de la IA en la guerra
Al mismo tiempo, la orden no aborda una serie de cuestiones urgentes. Por ejemplo, no aborda directamente cómo abordar los robots asesinos con inteligencia artificial, un tema desconcertante que se debatió durante las últimas dos semanas en la Asamblea General de las Naciones Unidas.
Esta preocupación no debe ignorarse. El Pentágono está desarrollando enjambres de drones autónomos de bajo costo como parte de su programa Replicator recientemente anunciado. De manera similar, Ucrania ha desarrollado drones de ataque impulsados por inteligencia artificial de fabricación propia que pueden identificar y atacar a las fuerzas rusas sin intervención humana.
¿Podríamos terminar en un mundo donde las máquinas deciden quién vive o muere? La orden ejecutiva simplemente pide que los militares utilicen la IA de manera ética, pero no estipula lo que eso significa.
¿Y qué hay de proteger las elecciones de las armas de persuasión masiva impulsadas por la IA? Varios medios han informado sobre cómo las recientes elecciones en Eslovaquia pueden haber estado influenciadas por deepfakes. Muchos expertos, incluido yo mismo, también están preocupados por el uso indebido de la IA en las elecciones. próximas elecciones presidenciales de Estados Unidos.
A menos que se implementen controles estrictos, corremos el riesgo de vivir en una época en la que no se puede confiar en nada de lo que se ve o se oye en línea. Si esto suena como una exageración, considere que el Partido Republicano de EE. UU. ya ha publicado un anuncio de campaña que parece generado íntegramente por IA.
Oportunidades perdidas
Muchas de las iniciativas de la orden ejecutiva podrían y deberían replicarse en otros lugares, incluida Australia. Nosotros también deberíamos, como exige la orden, brindar orientación a los propietarios, los programas gubernamentales y los contratistas gubernamentales sobre cómo garantizar que los algoritmos de IA no se utilicen para discriminar. contra individuos.
También deberíamos, como lo exige la orden, abordar la discriminación algorítmica en el sistema de justicia penal, donde la IA se utiliza cada vez más en entornos de alto riesgo, incluso para sentencias, libertad condicional y libertad vigilada, libertad y detención preventiva, evaluaciones de riesgos, vigilancia y vigilancia policial predictiva. . , por nombrar algunos.
La IA también se ha utilizado de manera controvertida para este tipo de aplicaciones en Australia, como en el Plan de Gestión de Búsqueda de Sospechosos utilizado para monitorear a los jóvenes en Nueva Gales del Sur.
Quizás el aspecto más controvertido de la orden ejecutiva es el que aborda los daños potenciales de los modelos más poderosos de inteligencia artificial llamados «de frontera». Algunos expertos creen que estos modelos, que están siendo desarrollados por empresas como Open AI, Google y Anthropic, representan una amenaza existencial para la humanidad.
Otros, incluido yo mismo, creemos que esas preocupaciones son exageradas y podrían distraer la atención de daños más inmediatos, como la desinformación y la inequidad, que ya están perjudicando a la sociedad.
La orden de Biden invoca poderes de guerra extraordinarios (específicamente la Ley de Producción de Defensa de 1950 introducida durante la Guerra de Corea) para exigir a las empresas que notifiquen al gobierno federal cuando entrenen tales modelos fronterizos. También requiere que compartan los resultados de las pruebas de seguridad del «equipo rojo», internas. Los piratas informáticos utilizan ataques para detectar errores y vulnerabilidades en un software.
Yo diría que va a ser difícil, y tal vez imposible, controlar el desarrollo de modelos fronterizos. Las directivas anteriores no impedirán que las empresas desarrollen dichos modelos en el extranjero, donde el gobierno de EE. UU. tiene poder limitado. La comunidad de código abierto también puede desarrollarlos. de una manera distribuida, una que hace que el mundo tecnológico sea «sin fronteras».
El impacto de la orden ejecutiva probablemente tendrá el mayor impacto en el propio gobierno y en cómo utiliza la IA, en lugar de las empresas.
Sin embargo, es una acción bienvenida: la Cumbre de Seguridad de la IA del Primer Ministro del Reino Unido, Rishi Sunak, que tendrá lugar durante los próximos dos días, ahora parece ser una especie de festival de conversaciones diplomáticas en comparación.
Uno siente envidia del poder presidencial para hacer las cosas.
Proporcionado por La Conversación
►La entrada Estados Unidos emite medida sobre regulación de la IA se publicó primero en MxPolítico.◄