svět

Australský právník se omlouvá za chyby generované AI v případě vraždy

Vedoucí právník v Austrálii se omluvil soudci za podání podání v případě vraždy, který zahrnoval falešné citace a neexistující případové rozsudky generované umělou inteligencí.

Chyba u Nejvyššího soudu ve státě Victoria je další v litanii neštěstí, která AI způsobila v soudních systémech po celém světě.

Obhájce Rishi Nathwani, který je držitelem prestižního právního titulu Kingovy poradce, převzal „plnou odpovědnost“ za podání nesprávných informací v podání v případě dospívajícího obviněného z vraždy, podle soudních dokumentů, které v pátek viděl Associated Press.

Soudce James Elliott řekl: „Není přijatelné, aby se použila umělá inteligence, pokud není produkt tohoto použití nezávisle a důkladně ověřen.“ AP

„Je nám velmi líto a v rozpacích za to, co se stalo,“ řekl Nathwani jménem obranného týmu Nathwani ve středu.

Chyby generované AI způsobily 24hodinové zpoždění při řešení případu, který Elliott doufal, že ve středu skončí.

Elliott ve čtvrtek rozhodl, že Nathwaniho klient, kterého nelze identifikovat, protože je nezletilý, nebyl kvůli duševnímu poškození vinen z vraždy.

„S rizikem podcenění je způsob, jakým se tyto události rozvinuly, neuspokojivý,“ řekl Elliott ve čtvrtek právníkům.

„Schopnost soudu spoléhat se na přesnost podání, které poskytuje právní zástupce, je zásadní pro řádnou správu spravedlnosti,“ dodal Elliott.

Falešné podání zahrnovaly vymyslené citace z projevu do státního zákonodárného sboru a neexistující citace případů údajně od Nejvyššího soudu.

K trapnému omylu došlo u Nejvyššího soudu Victoria v australském Melbourne. AP

Chyby objevily Elliott’s Associates, kteří nemohli najít případy a požádali, aby obhájci poskytovali kopie.

Právníci připustili, že citace „neexistují“ a že podání obsahovalo „fiktivní citace“, uvádí soudní dokumenty.

Právníci vysvětlili, že zkontrolovali, že počáteční citace byly přesné a nesprávně předpokládali, že ostatní budou také správné.

Podání byla také zaslána státnímu zástupci Danielovi Porceddu, který nekontroloval jejich přesnost.

Soudce poznamenal, že Nejvyšší soud v loňském roce zveřejnil pokyny ohledně toho, jak právníci používají AI.

„Není přijatelné pro použití umělé inteligence, pokud není produkt tohoto použití nezávisle a důkladně ověřen,“ řekl Elliott.

Soudní dokumenty neidentifikují generativní systém umělé inteligence používaný právníky.

Ve srovnatelném případě ve Spojených státech v roce 2023 uložil federální soudce pokuty ve výši 5 000 $ na dva právníky a advokátní kancelář poté, co byl Chatgpt obviňován z jejich podání fiktivního právního výzkumu v žádosti o újmu v letectví.

Nejnovější chyba je další v litanii neštěstí AI způsobila v soudním systémech po celém světě. Passionwith – Stock.adobe.com

Soudce P. Kevin Castel řekl, že jednali ve špatné víře.

Připisoval však jejich omluvu a nápravné kroky, které byly učiněny při vysvětlování, proč přísnější sankce nebyly nutné, aby se zajistilo, že oni nebo jiní znovu nenechají nástroje pro umělou inteligenci, aby ve svých argumentech vyvolaly falešnou právní historii.

Později toho roku byla v právních dokumentech podaná právníky pro Michaela Cohena, bývalého osobního právníka pro americký prezident Donald Trump, citována více fiktivních soudních rozhodnutí vynalezených AI.

Cohen vzal vinu a řekl, že si neuvědomil, že nástroj Google, který používal pro právní výzkum, byl také schopen tzv. Halucinace AI.

Britský soudce vrchního soudu Victoria Sharp varoval v červnu, že poskytování falešného materiálu, jako by to bylo skutečné, lze považovat za pohrdání soudem nebo v „nejzávažnějších případech“, zvrátí průběh spravedlnosti, který ve vězení nese maximální trest života.

Zdrojový odkaz

Related Articles

Back to top button