OpenAI y otras empresas dan un paso significativo en la gobernanza de la IA

OpenAI, junto con otros laboratorios líderes en IA, se comprometieron voluntariamente a mejorar la seguridad, la protección y la confiabilidad de la tecnología y los servicios de IA.   Esta iniciativa, coordinada por el gobierno de Estados Unidos, marca un paso significativo hacia el avance de una gobernanza efectiva de la IA, tanto en los Estados Unidos como a nivel global.

El viernes pasado, 21 de Julio de 2023, la Administración de Biden-Harris anunció el compromiso voluntario de las empresas Amazon, Anthropic, Google, Inflection, Meta, Microsoft y por supuesto OpenAI, para avanzar hacia el desarrollo seguro, protegido y transparente de la tecnología de IA.

Inteligencia Artificial
Creado con ClipDrop Stable-Doodle

De acuerdo con OpenAI, conocida por su misión de construir una inteligencia general artificial (AGI) segura y beneficiosa, este laboratorio de IA continuará pilotando y refinando prácticas de gobernanza específicamente adaptadas a los modelos de base altamente capaces. Además, también invertirá en áreas de investigación que pueden ayudar a informar la regulación, como técnicas para evaluar capacidades potencialmente peligrosas en los modelos de IA.

Compromisos voluntarios de IA

Los compromisos realizados por estas empresas están diseñados para promover el desarrollo y uso seguro, protegido y transparente de la tecnología de IA. Son consistentes con las leyes y regulaciones existentes y están destinados a avanzar en un régimen legal y político de IA generativa. Estos compromisos permanecerán en vigor hasta que se promulguen regulaciones que cubran sustancialmente los mismos problemas.

Los compromisos se centran en tres áreas clave: seguridad, protección y confianza.

Seguridad

Las empresas se comprometen a realizar equipos rojos internos y externos de modelos o sistemas en áreas que incluyen el mal uso, los riesgos sociales y las preocupaciones de seguridad nacional. También se comprometen a avanzar en la investigación en curso en seguridad de IA, incluyendo en la interpretabilidad de los procesos de toma de decisiones de los sistemas de IA y en aumentar la robustez de los sistemas de IA contra el mal uso.

También puedes leer:  LinkedIn lanza Vista Previa de su aplicación para Windows 11

Protección

Las empresas invertirán en salvaguardas de ciberseguridad y amenazas internas para proteger los pesos de modelos propietarios y no publicados. También se comprometen a incentivar el descubrimiento y la notificación de problemas y vulnerabilidades por parte de terceros.

Confianza

Las empresas desarrollarán y desplegarán mecanismos que permitan a los usuarios entender si el contenido de audio o visual es generado por IA, incluyendo una procedencia robusta, marcas de agua, o ambas. También se comprometen a informar públicamente sobre las capacidades, limitaciones y dominios de uso apropiado e inapropiado del modelo o sistema, incluyendo la discusión de riesgos sociales, como los efectos en la equidad y el sesgo.

Un esfuerzo colaborativo

Esta iniciativa es parte de la colaboración continua de OpenAI con gobiernos, organizaciones de la sociedad civil y otros en todo el mundo para avanzar en la gobernanza de la IA. Anna Makanju, vicepresidenta de Asuntos Globales, enfatizó que los compromisos de hoy aportan prácticas específicas y concretas a la discusión en curso sobre las leyes para sistemas de IA altamente capaces.

La lista completa de compromisos y más detalles se pueden encontrar en la publicación del blog de OpenAI.



Siguenos por Twitter a través de @Geeksroom y no te pierdas todas las noticias, cursos gratuitos y demás artículos. También puedes seguirnos a través de nuestro canal de Youtube para ver nuestros vídeos y a través de Instagram para ver nuestras imágenes! ¿Pinterest? Allí también podrás disfrutar de Geek's Room.