Joe Biden impulsa normas para el uso ético de la inteligencia artificial generativa

La administración estadounidense avanza hacia un marco regulador para la aplicación y la seguridad de tecnologías emergentes

El gobierno de Joe Biden establece la primera fecha límite para la contribución pública en normativas de IA. (Imagen Ilustrativa Infobae)

La administración de Joe Biden ha iniciado recientemente los procesos para el desarrollo de normas y directrices clave que garantizarán la implementación segura de la inteligencia artificial generativa, así como la evaluación y protección de estos sistemas avanzados. La solicitud de aportes públicos, anunciada por el Departamento de Comercio de EE.UU. a través del Instituto Nacional de Estándares y Tecnología (NIST), tiene como fecha límite el 2 de febrero.

Esta iniciativa es una respuesta directa a la orden ejecutiva de Biden de octubre sobre IA, con el propósito de establecer “estándares de la industria en cuanto a la seguridad, seguridad y confianza en la IA que permitirán a América seguir liderando el mundo en el desarrollo responsable y el uso de esta tecnología que evoluciona rápidamente”, según reportó Reuters.

La inteligencia artificial generativa enciende el debate sobre su impacto en la fuerza laboral y la estabilidad política. (Imagen Ilustrativa Infobae)

El NIST está trabajando en la elaboración de pautas de evaluación, la promoción del desarrollo de estándares y la provisión de entornos de pruebas para sistemas de IA. La agencia busca comentarios tanto de compañías especializadas en IA como del público general. Estos aportes se centrarán en la gestión de riesgos de IA generativa y la reducción de los riesgos del engaño generado por IA.

La tecnología de IA generativa es capaz de crear texto, fotos y videos en respuesta a prompts abiertos y ha generado tanto entusiasmo como preocupación por su potencial impacto en la obsolescencia de empleos, la inestabilidad electoral y efectos potencialmente catastróficos por superpotencias humanas.

La orden de Biden instruye a las agencias a establecer normas para las pruebas y abordar riesgos químicos, biológicos, radiológicos, nucleares y de ciberseguridad relacionados. El NIST está en proceso de definir lineamientos para pruebas que incluyen “red-teaming”, donde es más beneficioso para la evaluación y gestión de riesgos de IA, y en establecer las mejores prácticas para hacerlo.

El “red-teaming” externo se ha utilizado durante años en ciberseguridad para identificar nuevos riesgos, un término que se refiere a las simulaciones de la Guerra Fría donde el enemigo se denominaba el “equipo rojo”.

Sectores especializados y ciudadanos están llamados a delinear el futuro de la inteligencia artificial en EE.UU. (Imagen Ilustrativa Infobae)

En agosto, se llevó a cabo el primer evento de evaluación pública “red-teaming” en una importante conferencia de ciberseguridad, organizado por AI Village, SeedAI, Humane Intelligence. Miles de participantes intentaron provocar fallos en los sistemas para “mejor comprender los riesgos que estos sistemas presentan”, según la Casa Blanca. El evento “demostró cómo el red-teaming externo puede ser una herramienta efectiva para identificar nuevos riesgos de IA”.

– Infobae

Compartir ésta nota:
Facebook
Twitter
LinkedIn
WhatsApp