REGULACJE

Osobną stronę postanowiłem poświęcić regulacjom w temacie sztucznej inteligencji. a właściwie ich braku biorąc pod uwagę jak nośny jest to temat i jak wielkie konsekwencje i skutki rodzi brak uregulowań co do AI.

STAN OBECNY

Jak obecnie wyglądają regulacje w temacie AI? W zasadzie nie wyglądają wcale. Każdy liczący się podmiot który zajmuje się AI ma co prawda swój kodeks (zestaw zasad) niektórzy nawet nazywają go konstytucją AI ale to szumne słowa z których niewiele wynika. Jak wszystko co nowe AI też potrzebuje regulacji ale na skale ogólnoświatową. Jasne prawo które będzie chronić zarówno użytkowników AI jak i firmy zajmujące się jej wdrażaniem. Jedynym prawem jakie obecnie dotyczy AI jest AI Act ale dotyczy on tylko Europy. Pozostałe regulacje to raczej luźne wytyczne których nieprzestrzeganie nie prowadzi do żadnych konsekwencji.

SKUTKI BRAKU REGULACJI I CHAOS W DZIAŁANIACH

Obecnie brak takich regulacji powoduje bardzo różne podejście do wykorzystywania twórczości, AI i brak jednolitych standardów. Są takie produkty które pozwalają użytkowi tworzyć niemal wszystko GROK 4.1, a z drugiej strony są takie produkty jak CHAT GPT które w zasadzie mają tyle filtrów że nie sposób z nich korzystać, wręcz momentami popada się w frustracje, gdy generator obrazów odrzuca nasze wszystkie prompty mimo tego że są neutralne. Brak zasad powoduje że każdy podmiot ma własną politykę jedni tak boja się że zostaną pozwani że ich filtry nie pozwalają na nic, a inni wręcz odwrotnie nie przejmują się tym do czego ich dzieła zostaną wykorzystane. Dopiero wprowadzenie jednolitych zasad na bazie których powstanie prawo krajowe w wszystkich państwach może zmienić i uspokoić trochę ten chaos, ale pytanie czy to się zadzieje i kiedy ? na razie o AI mówi się tylko w kontekście kolejnych „osiągnieć” które często prowadzą do kolejnych wtop (nadużyć ze strony użytkowników).

CZYM JEST AI ACT I KTO POWINIEN SIĘ GO BAĆ ?

Skupmy się na chwile na samym AI Act, choć jest to zbiór zasad to jednak dotyczy on dostawców AI, a nie użytkowników którzy naruszają prawo przy wykorzystywaniu AI. Oczywiście często przestępstwa przy użyciu AI wyczerpują zwykłe znamiona oszustwa lub innego przestępstwa z kodeksu karnego, ale jednak brak konkretnych regulacji w zakresie wykorzystywania AI jest problematyczny. Każdy kraj powinien mieć własną ustawę o AI która opisuje wszystkie możliwe przestępstwa i grożące za nie kary. Bo co w zasadzie grozi obecnie za sianie dezinformacji w mediach przy użyciu wizerunku innej osoby ? W zasadzie jakby się ktoś uparł to można by to potraktować jako podszywanie się pod inną osobę ale to wszystko niestety jest płynne i zależne od interpretacji sądu 🙂 No właśnie i chodzi o to żeby nie było zbyt wielkiego pola do interpretacji . Natomiast jeśli chodzi o dostawców to o ile będą

transparentni w swoich działaniach i uczciwi to w zasadzie też nic im nie grozi. kary zapisane choć są wielkie np:

  • 35 milionów euro lub 7% globalnego obrotu (wyższa z kwot) za Stosowanie AI, które jest całkowicie zakazane – np. social scoring, manipulacja podprogowa, nielegalne rozpoznawanie twarzy w czasie rzeczywistym
  • 15 mln € lub 3% globalnego obrotu – za Brak spełnienia obowiązków: dokumentacji, oceny ryzyka, human oversight, jakości danych, audytów, rejestracji
  • 7,5 mln € lub 1% globalnego obrotu – Podanie fałszywych, niepełnych lub wprowadzających w błąd informacji organom nadzoru podczas audytu lub w procesie rejestracji

I właśnie tu dochodzimy do sedna, kary są ogromne, ale uderzają głównie w duże korporacje i dostawców systemów. Zwykły użytkownik, który użyje AI do popełnienia przestępstwa, odpowiada nadal wyłącznie na podstawie „starego prawa” np. kodeksu karnego czy prawa cywilnego. NIestety AI Act nie wprowadza nowych typów przestępstw, nie mówi też wprost, co zrobić, gdy ktoś stworzy deepfake, podszyje się pod inną osobę albo rozpęta kampanię dezinformacyjną.
Dlatego można odnieść wrażenie, że AI Act to dopiero pierwszy krok – ważny, bo porządkuje rynek i zmusza firmy do transparentności, ale niewystarczający. Potrzebne będą kolejne przepisy, tym razem skierowane wprost do użytkowników AI i opisujące, jakie zachowania są zabronione i jak będą karane. Dopiero wtedy prawo nadąży za technologią i zamknie lukę, która dziś pozwala sprawcom chować się za starymi, niedopasowanymi paragrafami.

Po krótce jakie niebezpieczeństwa czyhają na nas w związku z brakiem tych regulacji – ofiarą jakich nadużyć możemy się stać ?

  • deepfake z naszym udziałem – jest to zwykle atak na nasze dobre imie w celu oczernienia nas lub kompromitacji. w tym:
    • może to być fałszowanie dowodów które będą nas obciążały np w sądzie.
    • fałszowanie materiałów które mogą posłużyć do próby szantażu, w tym niewybrednych zdjęć i filmów.
    • możemy stać się bohaterami całej kampanii dezinformacyjnej.
  • Kradzież tożsamości cyfrowej – generowanie dokumentów, zdjęć, profili społecznościowych z użyciem AI, w celu przestępczym np:
    • wyłudzanie pieniędzy przez lipne kampanie crowdfoundingowe które zbierają pieniądze na szczytny cel wykorzystując naszą popularność, dobre imie, czy zaufanie które zdobyliśmy w sieci wcześniej.
    • tworzenie kont na portalach randkowych wykorzystujących naszą ciekawą aparycje żeby wyłudzać pieniądze jako „dama w opałach” albo książe. 🙂
    • wykorzystywanie wygenerowanego przy użyciu LLM wizerunku lub głosu w kampanii reklamowej bardzo zbliżonego do naszego celem omijania konieczności opłat licencyjnych za wykorzystanie wizerunku modelki czy głosu lektora.

To tylko te zagrożenia których możemy stać się bezpośrednim bohaterem, ale jest jeszcze mnóstwo takich których możemy paść ofiarą. Tu jednak lista jest bardzo długa.

I CO Z TEGO DLA NAS WYNIKA?

Na razie żyjemy w świecie, w którym AI rozwija się szybciej niż prawo. Dostawcy częściowo dostali już bat w postaci AI Act, ale zwykły człowiek wciąż zostaje sam na sam z deepfake’ami, kradzieżą tożsamości czy dezinformacją. Dlatego warto:

  • Patrzeć na ręce twórcom AI – im więcej transparentności wymusimy, tym mniej pola do nadużyć.
  • Nie ufać ślepo technologii – deepfake, fałszywy profil czy „dama w opałach” mogą wyglądać przekonująco, ale to wciąż tylko cyfrowa kreacja.
  • Domagać się prawa dla użytkowników – bo bez jasnych paragrafów każdy sąd będzie interpretował te sprawy po swojemu, a sprawcy będą się śmiać.

Bo jeśli prawo nie nadąży, to nie AI będzie największym zagrożeniem, tylko ludzie, którzy wiedzą, jak wykorzystać tę lukę.