Narzędzia sztucznej inteligencji wykorzystuje wiele osób. Trudno śledzić do jakich celów oraz kontrolować działania tego narzędzia. OpenAI powiedziało dość chcąc podjąć rękawice ochrony i bezpieczeństwa sztucznej inteligencji.
OpenAI powołuje specjalny “sztab”
Firma ogłosiła utworzenie niezależnej rady nadzorczej, która skupi się na kwestiach mających chronić AI. Świeżo powołana rada ma otrzymała bezprecedensowe uprawnienia, w tym prawo do zawieszenia publikacji modeli AI ze względów bezpieczeństwa. Wśród członków rady znajdują się starsi dyrektorzy OpenAI, tacy jak Zico Colter, Adam D’Angelo, Paul Nakasone i Nicole Seligman. Co ciekawe dyrektor generalny OpenAI, Sam Altman nie znalazł się na liście.
Nowa struktura będzie słuchać kierownictwa firmy o ocenie bezpieczeństwa głównych wydań modeli AI i nadzorować ich uruchomienie razem z całą radą. Pełna rada OpenAI będzie również otrzymywać regularne raporty na temat kwestii bezpieczeństwa i ochrony. Z informacji od The Verge dowiadujemy się, że stopień niezależności nowej rady jest wątpliwy, ponieważ wszyscy jego członkowie zasiadają w zarządzie OpenAI. Jako przykład bardziej udanej implementacji tego kontekstu dziennikarze przytaczają radę nadzorczą Meta, której członkowie są całkowicie niezależni od zarządu giganta IT. Sztuczna inteligencja powinna być wykorzystywana tylko do celów zgodnych z prawem nie mogących zrobić nikomu krzywdy.
Źródło: The Verge
Chcesz być na bieżąco? Śledź ROOTBLOG w Google News!