El presidente de Estados Unidos, Joe Biden, emitió la semana pasada una regulación integral para proteger a los ciudadanos, las agencias gubernamentales y las empresas para garantizar los estándares de seguridad de la IA. Si bien el reglamento establece seis nuevos estándares para la seguridad y el uso ético de la IA, algunos expertos de la industria han expresado su preocupación sobre cómo el reglamento podría impedir que las empresas desarrollen modelos de alta gama.
Adam Struck, cofundador de Struck Capital e inversor en IA, dijo que la regulación muestra seriedad sobre el potencial de la IA para remodelar todas las industrias. Sin embargo, dijo que la regulación es menos directiva para la comunidad de código abierto, lo que la convierte en un desafío para las empresas y los desarrolladores.
Si bien la regulación se implementará bajo la guía de personas con experiencia en IA y gobernanza de la IA, algunos han expresado temor de que las empresas más pequeñas se sientan confundidas por los requisitos exigidos a las empresas más grandes.
El director ejecutivo y cofundador de Nanotronics, Matthew Putman, afirmó que la regulación requiere marcos regulatorios para la seguridad del consumidor y el desarrollo ético de la IA. Putman afirmó que el potencial del "escenario apocalíptico" de la IA se ha exagerado en función de sus efectos positivos a corto plazo.
Aunque la regulación aún es nueva, el Instituto Nacional de Estándares y Tecnología (NIST) de EE. UU. y el Departamento de Comercio han comenzado a reclutar miembros para el recién formado Consorcio del Instituto de Seguridad de Inteligencia Artificial (IA).
¿Cómo cree que esta regulación puede afectar el desarrollo de la IA? Comparte tus comentarios con nosotros.
