La administración del presidente Joe Biden quiere medidas más estrictas para probar la seguridad de las herramientas de inteligencia artificial como ChatGPT antes de que se publiquen, aunque no ha decidido si el gobierno tendrá un papel en la investigación.
El Departamento de Comercio de EE. UU. dijo el martes que pasará los próximos 60 días presentando opiniones sobre la posibilidad de auditorías de inteligencia artificial, evaluaciones de riesgos y otras medidas que podrían aliviar las preocupaciones de los consumidores sobre estos nuevos sistemas.
«Hay un mayor nivel de preocupación ahora, dado el ritmo de la innovación, que debe ocurrir de manera responsable», dijo el subsecretario de Comercio, Alan Davidson, administrador de la Administración Nacional de Telecomunicaciones e Información.
La NTIA, más un asesor que un regulador, está buscando comentarios sobre qué políticas podrían hacer que las herramientas comerciales de IA sean más responsables.
Biden dijo la semana pasada durante una reunión con su consejo de asesores de ciencia y tecnología que las empresas tecnológicas deben asegurarse de que sus productos sean seguros antes de lanzarlos al público.
La administración de Biden también reveló el año pasado un conjunto de objetivos de gran alcance destinados a evitar los daños causados por el aumento de los sistemas de IA, pero eso fue antes del lanzamiento de ChatGPT, de la startup OpenAI de San Francisco, y productos similares de Microsoft y Google condujeron a una mayor conciencia de las capacidades de las últimas herramientas de IA que pueden generar pasajes de texto similares a los humanos, así como nuevas imágenes y videos.
“Estos nuevos modelos de lenguaje, por ejemplo, son realmente poderosos y tienen el potencial de generar un daño real”, dijo Davidson en una entrevista. «Creemos que estos mecanismos de rendición de cuentas realmente podrían ayudar al proporcionar una mayor confianza en la innovación que está ocurriendo».
El aviso de la NTIA se basa en gran medida en la solicitud de comentarios sobre las medidas de «autorregulación» que probablemente lideren las empresas que desarrollan la tecnología. Eso contrasta con la Unión Europea, donde los legisladores están negociando este mes la aprobación de nuevas leyes que podrían establecer límites estrictos a las herramientas de inteligencia artificial dependiendo del riesgo que representen.
►La entrada Biden administration seeks input on AI safety measures se publicó primero en MxPolítico.◄