U neobičnom i pomalo filmskom slučaju iz Kanade, 74-godišnji poduzetnik Jean Laprade kažnjen je s 5000 kanadskih dolara nakon što je na sudu pokušao dokazati svoju nevinost – uz pomoć umjetne inteligencije. Međutim, materijali koje je priložio kao dokaze pokazali su se potpuno izmišljenima.
Sudac Luc Morin s višeg suda u Quebecu upozorio je da ovakvi incidenti predstavljaju ozbiljnu prijetnju integritetu pravnog sistema i da “korištenje generativne umjetne inteligencije bez provjere rezultata može dovesti do teških posljedica”.
Kako je AI “izmislio” sudske presude
Laprade je optužen u vezi s ugovorom o najmu tri helikoptera i jednog aviona u zapadnoafričkoj državi Gvineji. Nakon što je došlo do greške u ugovoru, on je zadržao avion koji je, prema procjenama, bio mnogo vredniji od dogovorenog.
Kada je međunarodna arbitražna komora u Parizu 2021. godine presudila da mora platiti 2,7 miliona kanadskih dolara, Laprade je odlučio da se brani sam – bez advokata.
Kako bi pripremio svoju odbranu, oslonio se na AI alat za pravnu pomoć. Ipak, vještačka inteligencija je generisala potpuno nepostojeće slučajeve, izmišljene presude i kontradiktorne pravne citate.
“Sud uvažava da je gospodin Laprade pokušao braniti sebe najbolje što može koristeći umjetnu inteligenciju, ali mora snositi posljedice zbog oslanjanja na halucinacije AI sistema”, rekao je sudac Morin u presudi.
Halucinacije u umjetnoj inteligenciji – kako nastaju?
Fenomen koji je presudio Lapradeu u korist kazne poznat je kao AI halucinacija – situacija u kojoj modeli poput ChatGPT ili sličnih AI alata generišu podatke koji zvuče uvjerljivo, ali nemaju stvarnu osnovu u činjenicama.
Ove greške nastaju kada algoritam pokušava “popuniti rupe” u podacima, stvarajući rečenice koje se čine logičnim, ali nisu provjerene. To je česta pojava kod generativnih modela koji su trenirani na ogromnim količinama tekstualnih podataka, bez stvarnog razumijevanja konteksta.
Slučaj iz Kanade još jednom je pokazao da umjetna inteligencija ne može u potpunosti zamijeniti ljudski nadzor, posebno u oblastima kao što su pravo, medicina ili javna sigurnost.
Pravosudne institucije upozoravaju: “AI nije advokat”
Sudija Morin u svojoj odluci podsjetio je na upozorenje koje su kanadski sudovi izdali još 2023. godine, u kojem se advokatima i javnosti savjetuje stroga provjera svih AI generisanih informacija.
“Informacije koje daje umjetna inteligencija mogu biti korisne, ali moraju biti podložne ljudskoj kontroli i logičkoj provjeri”, stoji u saopštenju kanadskog suda.
Ovo nije izolovan slučaj – već su zabilježeni brojni incidenti širom svijeta u kojima su advokati, studenti prava i novinari koristili AI alate za istraživanje, ali bez adekvatne provjere izvora.
Takvi primjeri ponovo otvaraju pitanje primjene umjetne inteligencije u osjetljivim društvenim sferama i granica između automatizacije i odgovornosti.
Kada AI pređe granicu – etika i odgovornost
Slučaj Jeana Lapradea pokrenuo je raspravu o tome ko je odgovoran kada AI pogriješi – korisnik, programer ili kompanija koja stoji iza tehnologije.
Stručnjaci upozoravaju da, iako AI sistemi mogu pomoći u obradi velikih količina podataka i predviđanju trendova, oni ne razumiju moralne, emocionalne i pravne nijanse ljudskih odluka.
Prema definiciji, što je umjetna inteligencija – riječ je o sistemima koji oponašaju ljudske misaone procese, ali bez svijesti ili etičkog rasuđivanja. To znači da rezultat uvijek mora biti pregledan i potvrđen od strane stručnjaka.
Pouka: Umjetna inteligencija je moćan, ali ne i nepogrešiv alat
Iako se AI tehnologije sve češće koriste u obrazovanju, zdravstvu, financijama i pravosuđu, ovaj slučaj podsjeća da potpuno povjerenje u generativne modele može imati ozbiljne posljedice.
Laprade je kasnije priznao da “njegovi podnesci vjerovatno nisu savršeni”, ali je dodao da mu je AI bio ključan jer nije imao pravnu pomoć.
Sudska odluka pokazuje da “neznanje o tehnologiji” ne oslobađa odgovornosti – baš suprotno, može je povećati.
Kako zaključuju eksperti, umjetna inteligencija može ubrzati rad, pomoći u istraživanjima i analizi podataka, ali mora biti alat pod kontrolom čovjeka, a ne njegov zamjenik.