sobota, 27 apríla, 2024

Deepfakes v súdnej sieni: Americký súdny panel diskutuje o nových pravidlách o dôkazoch AI

Ilustrácia muža s veľmi dlhým nosom, ktorý drží misky váh spravodlivosti.

V piatok sa vo Washingtone, DC, zišiel federálny súdny panel, aby prediskutoval problémy policajného zabezpečenia dôkazov vytvorených AI v súdnych procesoch, uvádza sa v správe agentúry Reuters . Poradný výbor súdnej konferencie USA pre pravidlá dokazovania , osemčlenný panel zodpovedný za vypracovanie pozmeňujúcich a doplňujúcich návrhov týkajúcich sa dôkazov k Federálnym pravidlám dokazovania , si vypočul počítačových vedcov a akademikov o potenciálnych rizikách používania AI na manipuláciu s obrázkami a videami alebo vytváranie deepfakes, ktoré by mohli narušiť súdny proces.

Stretnutie sa konalo uprostred širšieho úsilia federálnych a štátnych súdov na celoštátnej úrovni riešiť vzostup generatívnych modelov AI (ako sú modely, ktoré poháňajú ChatGPT od OpenAI alebo Stable Diffusion od Stability AI), ktoré možno trénovať na veľkých súboroch údajov s cieľom vytvoriť realistický text. , obrázky, zvuk alebo videá.

V zverejnenom 358-stranovom programe schôdze výbor ponúka túto definíciu deepfake a problémov, ktoré môžu médiá generované AI predstavovať v súdnych procesoch:

Deepfake je neautentická audiovizuálna prezentácia pripravená softvérovými programami využívajúcimi umelú inteligenciu. Samozrejme, fotografie a videá boli vždy predmetom falšovania, ale vývoj v oblasti AI značne sťažuje odhalenie deepfakes. Softvér na vytváranie hlbokých falzifikátov je už voľne dostupný online a pre každého je pomerne jednoduchý. Keďže sa použiteľnosť softvéru a zjavná pravosť videí v priebehu času neustále zlepšujú, pre počítačové systémy, oveľa menej pre laických porotcov, bude ťažšie rozlíšiť skutočné od falošných.

Počas piatkového trojhodinového pojednávania sa porota potýkala s otázkou, či existujúce pravidlá, ktoré predchádzali vzostupu generatívnej AI, sú dostatočné na zabezpečenie spoľahlivosti a autentickosti dôkazov predložených na súde.

Niektorí sudcovia v porote, ako napríklad obvodný sudca v USA Richard Sullivan a okresná sudkyňa v USA Valerie Caproni, údajne vyjadrili skepticizmus ohľadom naliehavosti problému, pričom poznamenali, že doteraz bolo len málo prípadov, keď sudcovia boli požiadaní, aby vylúčili dôkazy generované AI.

"Nie som si istý, že toto je kríza, ako sa to vykresľuje, a nie som si istý, či sudcovia už nemajú nástroje na to, aby sa s tým vysporiadali," povedal sudca Sullivan, ktorého citovala agentúra Reuters.

Minulý rok hlavný sudca Najvyššieho súdu USA John Roberts uznal potenciálne výhody AI pre účastníkov sporu a sudcov, pričom zdôraznil, že je potrebné, aby súdnictvo zvážilo jej správne využitie v súdnych sporoch. Americký okresný sudca Patrick Schiltz, predseda výboru pre dôkazy, povedal, že jednou z Robertsových priorít je určiť, ako môže súdnictvo najlepšie reagovať na AI.

Na piatkovom stretnutí výbor zvážil niekoľko zmien pravidiel súvisiacich s deepfake. V programe stretnutia americký okresný sudca Paul Grimm a právnička Maura Grossmanová navrhli úpravu federálneho pravidla 901(b)(9) (pozri stranu 5), ktorá zahŕňa autentifikáciu alebo identifikáciu dôkazov. Odporúčali tiež pridanie nového pravidla 901(c), ktoré by mohlo znieť:

901(c): Potenciálne vyrobené alebo pozmenené elektronické dôkazy. Ak strana spochybňujúca pravosť počítačom vytvorených alebo iných elektronických dôkazov preukáže súdu, že je pravdepodobnejšie, že sú sfalšované alebo úplne alebo čiastočne pozmenené, dôkazy sú prípustné, len ak navrhovateľ preukáže, že ich dôkazná hodnota prevažuje nad jeho škodlivý účinok na stranu spochybňujúcu dôkazy.

Panel sa počas stretnutia zhodol na tom, že tento návrh na riešenie obáv týkajúcich sa sporných strán spochybňujúcich dôkazy ako deepfakes nefungoval tak, ako bol napísaný, a že bude prepracovaný, kým sa neskôr prehodnotí.

Ďalší návrh Andrey Rothovej , profesorky práva na Kalifornskej univerzite v Berkeley, navrhoval podrobiť strojom generované dôkazy rovnakým požiadavkám na spoľahlivosť ako znalci. Sudca Schiltz však varoval, že takéto pravidlo by mohlo brániť trestnému stíhaniu tým, že by obhajcom umožnilo spochybniť akýkoľvek digitálny dôkaz bez toho, aby uviedli dôvod na jeho spochybnenie.

Zatiaľ neboli vykonané žiadne definitívne zmeny pravidiel a proces pokračuje. Ale sme svedkami prvých krokov toho, ako sa americký justičný systém prispôsobí úplne novej triede technológií generujúcich médiá.

Odhliadnuc od rizík vyplývajúcich z dôkazov generovaných AI, generatívna AI viedla za posledné dva roky k trápnym momentom pre právnikov na súde. V máji 2023 sa americký právnik Steven Schwartz z firmy Levidow, Levidow a Oberman ospravedlnil sudcovi za to, že použil ChatGPT na pomoc pri písaní súdnych podaní, ktoré nepresne citovali šesť neexistujúcich prípadov , čo viedlo k vážnym otázkam o spoľahlivosti AI v právnom výskume. V novembri tiež právnik Michaela Cohena citoval tri falošné prípady , ktoré boli potenciálne ovplyvnené konfabulujúcim asistentom AI.

source

Related Articles

NAJNOVŠIE ČLÁNKY