Esta semana, el ministro federal de Industria y Ciencia, Ed Husic, anunció la respuesta del gobierno australiano a la consulta sobre IA segura y responsable en Australia.
La respuesta aborda los comentarios de la consulta del año pasado sobre inteligencia artificial (IA). Recibió más de 500 presentaciones, destacando el «entusiasmo por las oportunidades» de las herramientas de IA, pero también planteando preocupaciones sobre los riesgos potenciales y las expectativas de los australianos sobre «salvaguardias regulatorias para prevenir daños».
En lugar de promulgar una única ley reguladora de la IA como lo ha hecho la Unión Europea, el gobierno australiano planea centrarse en áreas de alto riesgo de implementación de la IA, aquellas con mayor potencial de daño. Esto podría incluir ejemplos como la discriminación en el lugar de trabajo, el sistema judicial, la vigilancia o los vehículos autónomos.
El gobierno también planea crear un grupo asesor temporal de expertos para apoyar el desarrollo de estas barandillas.
¿Cómo definiremos la IA de «alto riesgo»?
Si bien algunos pueden acoger con agrado esta respuesta proporcional, centrarse en áreas de alto riesgo con solo un órgano asesor temporal plantea preguntas importantes:
¿Cómo se definirán las áreas de alto riesgo y quién toma esa decisión?
¿Deberían las aplicaciones de IA de bajo riesgo enfrentar una regulación similar, cuando algunas intervenciones (como exigir marcas de agua para el contenido generado por IA) podrían combatir ampliamente la desinformación?
Sin un consejo asesor permanente, ¿cómo pueden las organizaciones anticipar los riesgos de las nuevas tecnologías de IA y las nuevas aplicaciones de herramientas de IA en el futuro?
Evaluar el «riesgo» del uso de nuevas tecnologías no es algo nuevo. Contamos con muchos principios, directrices y regulaciones que pueden adaptarse para abordar las preocupaciones sobre las herramientas de IA.
Por ejemplo, muchos sectores australianos ya están altamente regulados para abordar los problemas de seguridad, como los vehículos y los dispositivos médicos.
En todas las investigaciones que involucran personas, los investigadores australianos deben cumplir con las pautas nacionales donde las prácticas de evaluación de riesgos están bien definidas:
identificar los riesgos y quiénes podrían estar en riesgo de sufrir daños;
evaluar la probabilidad, gravedad y magnitud del riesgo;
considerar estrategias para minimizar, mitigar y/o gestionar riesgos;
identificar beneficios potenciales y quiénes pueden beneficiarse; y
sopesar los riesgos y determinar si los riesgos están justificados por los beneficios potenciales.
Esta evaluación de riesgos se realiza antes de realizar la investigación, con una revisión y supervisión significativas por parte de los Comités de Ética de la Investigación en Humanos. Se podría utilizar un enfoque similar para la evaluación de riesgos de la IA.
►La entrada Australia planea regular la IA de «alto riesgo». He aquí cómo hacerlo con éxito se publicó primero en MxPolítico.◄