En un esfuerzo conjunto por promover el desarrollo seguro de la inteligencia artificial (IA), el Gobierno de Estados Unidos, encabezado por Joe Biden, ha unido fuerzas con más de 200 entidades líderes en el campo de la IA.
Este esfuerzo colaborativo ha dado lugar al surgimiento del Consorcio del Instituto de Seguridad de IA (AISIC por sus siglas en inglés), con el objetivo claro de respaldar el despliegue seguro de tecnologías basadas en IA en el país.
Entre las empresas y entidades destacadas que conforman este consorcio se encuentran gigantes tecnológicos como OpenAI, Google de Alphabet, Anthropic, Microsoft, Meta, Apple, Amazon, Nvidia, Palantir, Intel, JPMorgan Chase y Bank of America, BP, Cisco Systems, IBM, Hewlett Packard, Northop Grumman, Mastercard, Qualcomm y Visa. Además, se han sumado instituciones académicas y agencias gubernamentales clave en el avance de la IA.
La secretaria de Comercio de Estados Unidos, Gina Raimondo, subraya la importancia de la colaboración gubernamental y empresarial para establecer estándares y desarrollar herramientas necesarias para mitigar riesgos y aprovechar el inmenso potencial de la inteligencia artificial.
Objetivos del AISIC de EE. UU.
La formación del AISIC responde a las acciones prioritarias delineadas en la orden ejecutiva de IA emitida por la Administración de Biden en octubre de 2023. Con esta iniciativa, el presidente Biden busca concretar la promesa de la IA y mitigar los riesgos asociados.
El consorcio se compromete a llevar a cabo diversas tareas, entre las que se incluyen el desarrollo de pautas para la formación de equipos rojos destinados a abordar nuevos riesgos, evaluaciones de capacidades, gestión de riesgos, seguridad y protección, y la implementación de marcas de agua en el contenido artificial. Microsoft, por ejemplo, ha manifestado su compromiso de añadir sellos y metadatos en las imágenes generadas con IA para distinguir entre contenido real y falso.
A grandes rasgos, la visión de Biden es que las agencias establezcan estándares para las pruebas realizadas por desarrolladores de IA, abordando riesgos en ámbitos como química, biología, radiología, nucleares y ciberseguridad.
La creación del AISIC representa un paso significativo hacia la consolidación de prácticas seguras en el desarrollo y despliegue de la inteligencia artificial, mostrando la determinación de Estados Unidos de liderar en la creación de estándares y salvaguardas necesarios en este campo en constante evolución.
Comentarios