vir: https://www.damiencharlotin.com/hallucinations/
Po podatkih iz baze pravnih halucinacij, ki spremlja to metriko, je bilo vsaj 671 primerov pravnih odločitev, v katerih je generativna umetna inteligenca ustvarila halucinacijske vsebine. Večina teh je bila lažnih citatov, vendar so bili tudi drugi tipi argumentov, ki jih je ustvarila umetna inteligenca. V enem od odmevnih primerov je bil odvetnik nedavno kaznovan z 10.000 dolarji, ker je vložil pritožbo, v kateri je navedel 21 lažnih primerov, ki jih je ustvaril ChatGPT.
Baza primerov halucinacij generativne umetne inteligence v pravnih odločbah sledi 693 dokumentiranim primerom iz 30+ jurisdikcij.
-
Damien Charlotin vzdržuje interaktivno zbirko primerov, kjer generativna AI ustvari lažne citate ali argumente v pravnih dokumentih.
-
Baza vključuje filtre po državah (npr. ZDA 471, Avstralija 43), straneh (odvetniki 282, pro se tožniki 390), vrstah halucinacij (izmišljene 548) in sankcijah.
-
Nedavni primeri iz decembra 2025 kažejo opozorila, globe (do 59.500 USD) in prepovedi vložitev.
-
Ponuja orodje PelAIkan za preverjanje referenc in CSV prenos; baza je citirana v medijih in sodnih odločbah.
-
Stran promovira Substack “Artificial Authority” za analize.
DEJSTVA
-
Identificiranih 693 primerov iz 30+ držav, večinoma ZDA (471), Kanada (50), Izrael (33).
-
Glavne vrste: izmišljene sodne odločbe (583), lažni citati (191), napačno predstavljene (302).
-
Stranke: odvetniki (282), pro se tožniki (390), sodniki (8); orodja pogosto implicirana ali ChatGPT.
-
Sankcije: monetarne globe (npr. 59.500 USD v Jordan v. CHA), prepovedi vložitev, napotitve na disciplinske odbore.
-
Zadnji primeri (dec. 2025): Liza Gardner v. Combs (6.000 USD globe), Couvrette v. Wisnovsky (15.500 USD).