vir: https://www.damiencharlotin.com/hallucinations/

Po podatkih iz baze pravnih halucinacij, ki spremlja to metriko, je bilo vsaj 671 primerov pravnih odločitev, v katerih je generativna umetna inteligenca ustvarila halucinacijske vsebine. Večina teh je bila lažnih citatov, vendar so bili tudi drugi tipi argumentov, ki jih je ustvarila umetna inteligenca. V enem od odmevnih primerov je bil odvetnik nedavno kaznovan z 10.000 dolarji, ker je vložil pritožbo, v kateri je navedel 21 lažnih primerov, ki jih je ustvaril ChatGPT.

Baza primerov halucinacij generativne umetne inteligence v pravnih odločbah sledi 693 dokumentiranim primerom iz 30+ jurisdikcij.

  • Damien Charlotin vzdržuje interaktivno zbirko primerov, kjer generativna AI ustvari lažne citate ali argumente v pravnih dokumentih.

  • Baza vključuje filtre po državah (npr. ZDA 471, Avstralija 43), straneh (odvetniki 282, pro se tožniki 390), vrstah halucinacij (izmišljene 548) in sankcijah.

  • Nedavni primeri iz decembra 2025 kažejo opozorila, globe (do 59.500 USD) in prepovedi vložitev.

  • Ponuja orodje PelAIkan za preverjanje referenc in CSV prenos; baza je citirana v medijih in sodnih odločbah.

  • Stran promovira Substack “Artificial Authority” za analize.

DEJSTVA

  1. Identificiranih 693 primerov iz 30+ držav, večinoma ZDA (471), Kanada (50), Izrael (33).

  2. Glavne vrste: izmišljene sodne odločbe (583), lažni citati (191), napačno predstavljene (302).

  3. Stranke: odvetniki (282), pro se tožniki (390), sodniki (8); orodja pogosto implicirana ali ChatGPT.

  4. Sankcije: monetarne globe (npr. 59.500 USD v Jordan v. CHA), prepovedi vložitev, napotitve na disciplinske odbore.

  5. Zadnji primeri (dec. 2025): Liza Gardner v. Combs (6.000 USD globe), Couvrette v. Wisnovsky (15.500 USD).