W zeszłym tygodniu prezydent USA Joe Biden wydał kompleksowe rozporządzenie mające na celu ochronę obywateli, agencji rządowych i firm w celu zapewnienia standardów bezpieczeństwa sztucznej inteligencji. Chociaż rozporządzenie ustanawia sześć nowych standardów bezpieczeństwa i etycznego wykorzystania sztucznej inteligencji, niektórzy eksperci branżowi wyrazili obawy dotyczące tego, w jaki sposób rozporządzenie to może uniemożliwiać firmom opracowywanie modeli z najwyższej półki.
Adam Struck, współzałożyciel Struck Capital i inwestor AI, powiedział, że rozporządzenie pokazuje, jak poważnie podchodzi się do potencjału sztucznej inteligencji w zakresie zmiany kształtu każdej branży. Stwierdził jednak, że rozporządzenie jest mniej dyrektywne dla społeczności open source, co stanowi wyzwanie dla firm i programistów.
Choć rozporządzenie będzie wdrażane pod kierunkiem osób posiadających doświadczenie w zakresie sztucznej inteligencji i zarządzania sztuczną inteligencją, niektórzy wyrazili obawy, że mniejsze przedsiębiorstwa zostaną zdezorientowane wymogami wymaganymi wobec większych przedsiębiorstw.
Dyrektor generalny i współzałożyciel firmy Nanotronics, Matthew Putman, stwierdził, że regulacje wymagają ram regulacyjnych dotyczących bezpieczeństwa konsumentów i etycznego rozwoju sztucznej inteligencji. Putman stwierdził, że potencjał sztucznej inteligencji w zakresie „scenariusza zagłady” został przesadzony ze względu na jej krótkoterminowe pozytywne skutki.
Chociaż rozporządzenie jest wciąż nowe, amerykański Narodowy Instytut Standardów i Technologii (NIST) oraz Departament Handlu rozpoczęły rekrutację członków do nowo utworzonego konsorcjum Instytutu Bezpieczeństwa Sztucznej Inteligencji (AI).
Jak według Ciebie to rozporządzenie może wpłynąć na rozwój sztucznej inteligencji? Podziel się z nami swoimi komentarzami.
