![Zarządzanie AI_CN1](https://coinatory.com/wp-content/uploads/2023/11/AI-Governance_CN1.png)
Osiemnaście krajów, w tym Stany Zjednoczone, Wielka Brytania, Australia, Kanada, Francja, Niemcy, Izrael, Włochy, Japonia, Nowa Zelandia, Nigeria, Norwegia, Korea Południowa i Singapur, wspólnie opublikowały zestaw wytycznych mających na celu wzmocnienie bezpieczeństwa modeli sztucznej inteligencji. Opublikowany 26 listopada 20-stronicowy dokument wzywa firmy zajmujące się sztuczną inteligencją do nadania priorytetu cyberbezpieczeństwu, podkreślając potrzebę stosowania praktyk „bezpiecznych od samego początku”. Inicjatywa ta, której przewodniczy Sekretarz Bezpieczeństwa Wewnętrznego USA Alejandro Mayorkas, podkreśla kluczową rolę cyberbezpieczeństwa w szybko rozwijającej się dziedzinie sztucznej inteligencji.
Dokument zawiera szerokie zalecenia, takie jak rygorystyczna kontrola nad infrastrukturą sztucznej inteligencji i ciągłe monitorowanie pod kątem potencjalnych manipulacji. Podkreśla także znaczenie szkolenia personelu w zakresie cyberbezpieczeństwa. Nie porusza jednak niektórych kontrowersyjnych kwestii związanych ze sztuczną inteligencją, takich jak regulacja modeli generujących obrazy, deepfake i wykorzystanie danych w modelach szkoleniowych, co doprowadziło do pozwów o naruszenie praw autorskich przeciwko kilku firmom zajmującym się sztuczną inteligencją.
Mayorkas podkreślił kluczowy moment w rozwoju sztucznej inteligencji, uznając sztuczną inteligencję za technologię o ogromnym wpływie, w której cyberbezpieczeństwo jest niezbędne do zapewnienia jej bezpieczeństwa i niezawodności.
Niniejsze wytyczne wpisują się w szerszy trend zaangażowania rządów w regulacje dotyczące sztucznej inteligencji. Na początku miesiąca w Londynie odbył się szczyt dotyczący bezpieczeństwa sztucznej inteligencji, skupiający się na umowach dotyczących rozwoju sztucznej inteligencji. Jednocześnie Unia Europejska udoskonala swoją ustawę o sztucznej inteligencji, aby uregulować ten sektor, a prezydent USA Joe Biden wydał w październiku zarządzenie wykonawcze ustanawiające standardy bezpieczeństwa i ochrony sztucznej inteligencji. Zarówno inicjatywy UE, jak i USA spotkały się z oporem branży sztucznej inteligencji w związku z obawami dotyczącymi tłumienia innowacji.
Największe firmy zajmujące się sztuczną inteligencją, takie jak OpenAI, Microsoft, Google, Anthropic i Scale AI, również odegrały rolę w kształtowaniu tych nowych wytycznych dotyczących bezpieczeństwa.