Stworzenie ram prawnych dla szerokiego wykorzystywania generatywnej sztucznej inteligencji to obecnie absolutna konieczność. Ten krok mają już dawno za sobą Chiny, a niedawno stosowne regulacje wprowadziły również Stany Zjednoczone. W tyle pozostała Unia Europejska – prace nad słynnym AI Act wciąż trwają i trudno przewidzieć, kiedy się zakończą – komentuje radca prawny Kamila Bury, General Counsel, Ethics and Compliance Officer, Country Board Member, Capgemini Polska.
Europejskie firmy nie mogą pozwolić sobie na bezczynne czekanie. Aby budować godny zaufania rynek usług opartych na AI, muszą wprowadzać wewnętrzne regulacje. Jak widać na przykładzie ostatnich wydarzeń w OpenAI, utrata zaufania do osób zajmujących się rozwojem sztucznej inteligencji może być katastrofalna w skutkach.
Kiedy OpenAI uruchomiło ChatGPT pierwszą reakcją, na równi z zainteresowaniem, była obawa. Media długo zastanawiały się, czy mechanizmy oparte na sztucznej inteligencji odbiorą pracę ludziom i czy będą w stanie działać niezależnie od ludzkiej kontroli. Po roku, kiedy wydawało się, że nastoje się uspokoiły, nastąpiła rewolucja personalna w OpenAI. Od zeszłego piątku, kiedy to Sam Altman, CEO i współzałożyciel firmy został zwolniony, nie ustają spekulacje na ten temat. I znowu można zauważyć wzrost obaw. Komentatorzy sugerują, że przyczyną zwolnienia był niekontrolowany rozwój badan nad AGI, czyli tzw. silną sztuczną inteligencją, która potencjalnie mogłaby wymknąć się spod ludzkiej kontroli. Mimo, że Altman wrócił do OpenAI, niepokoje wywołane niedawną sytuacją szybko nie ucichną.
Zagrożeniem brak zaufania
Ta sytuacja bardzo dobrze obrazuje największe zagrożenie, które stoi przed rozwojem biznesowym mechanizmów opartych na AI. W mojej opinii, jest nim brak zaufania zarówno do najnowszych mechanizmów technologicznych, ich twórców, jak i (a być może przede wszystkim) do stojącego za nimi kapitału.
Aby ten, skądinąd naturalny i zrozumiały, strach nie zatrzymał rewolucji cyfrowej, konieczna jest interwencja państwa i regulacja mechanizmów AI. Rządy i struktury ponadkrajowe nie mogę wycofać się z tego obszaru, w końcu to ich rolą jest zapewnienie bezpieczeństwa obywatelom i obywatelkom. To one mają również ogromny wpływ na zarządzanie silnymi emocjami, które pojawiają się wokół tego tematu.
Instytucje publiczne oczywiście zdają sobie sprawę ze swojej roli. Chiny jako pierwsze wprowadziły zapisy prawne regulujące problematykę AI, w momencie, w którym ani Europa, ani Stany Zjednoczone nie myślały jeszcze na ten temat. W ostatnich tygodniach zapisy wprowadziły również USA. Oczywiście każdy z tych dokumentów ma swoje ograniczenia i nie można zapominać, że powstaje w bardzo konkretnym kontekście politycznym.
Wiemy, że Unia Europejska pracuje nad swoim AI Act, jednak na ten moment nie jest jasne, kiedy wejdzie on w życie. Firmy działające na terenie Wspólnoty nie powinny czekać. W obecnej sytuacji, aby zbudować zaufanie do swoich działań, konieczne jest tworzenie dobrych i transparentnych firmowych regulacji wewnętrznych.
Najistotniejszym zagadnieniem wydaje się zadbanie o najwyższą możliwą transparentność działań i wysoki poziom kontroli. Aby zbudować zaufanie zarówno instytucji, jak i użytkowników, konieczne jest zapewnienie im dostępu do wiedzy. To z powodu braku wiedzy oraz pewnego stopnia nieufności wielu ludzi wobec uczciwości działań biznesowych, pojawiają się obawy i lęki. Oczywistym jest ponadto, że kiedy brakuje przejrzystości, ograniczona jest możliwość kontroli.
Jak łatwo zauważyć, podobnie myśli na ten temat ustawodawca. Jednym z kluczowych zapisów AI Act, nad którym pracuje UE, jest kwestia przejrzystości baz danych, na których opierają się algorytmy AI. Nie czekając na wprowadzenie tego dokumentu, Capgemini, w oparciu o rekomendacje niezależnej grupy ekspertów powołanej przez Komisję Europejską, wypracowało własny kodeks rozwoju i wykorzystania sztucznej inteligencji, czyli Code of Ethics for AI, który podkreśla wagę transparentnych działań.
Jasne zasady dotyczące pracy z AI to nie tylko ochrona przed zagrożeniami, które może przynieść przyszłość. To przede wszystkim zobowiązanie na dziś. Mechanizmy oparte na sztucznej inteligencji już w tym momencie są naszą codziennością, i właśnie teraz musimy zadbać o to, żeby w żaden sposób nie dyskryminowały, aby miały najmniejszy możliwy wpływ na środowisko naturalne i żeby ich twórcy pamiętali, że mają służyć realizacji potrzeb ludzkości.