„Nebezpečí nepochází zvenčí, ale zevnitř. Hrozba umělé inteligence je, že zapomeneme být člověkem a přenecháme rozhodování strojům,“ varovala na své přednášce v Praze [16.9.] americká filozofka technologie Shannon Vallorová.

Podle ní existuje vážné riziko, že lidé podlehnou iluzi umělé inteligence [AI] jako skutečné mysli a ztratí přitom část vlastní lidskosti. Současné nástroje umělé inteligence, zejména velké jazykové modely, přirovnává Vallorová k zrcadlům odrážejícím lidská data, nikoli skutečné myšlení lidí.
„Odrazy působí inteligentně, protože vycházejí z dat vytvořených lidmi. Ale podobně jako odraz v zrcadle není skutečná tvář, ani výstupy umělé inteligence nejsou samostatným vědomím,“ vysvětlila dále Vallorová.
Technologie a strojové učení podle ní mohou pomáhat, například v medicíně při diagnostice nemocí, jako jsou rakovina nebo srdeční nemoci, či při vývoji nových léků. Jinde ale zveličují či podporují lidské předsudky a realitu zkreslují na základě více či méně transparentních zadání.
Vallorová je předsedkyní společnosti Baillie Gifford pro etiku dat a umělé inteligence na Edinburgh Futures Institute při Edinburské univerzitě. Dříve přednášela na Santa Clara University v kalifornském městě Santa Clara. Je také autorkou knihy s názvem AI Mirror, v níž rozvíjí metaforu zrcadla pro pochopení současných systémů umělé inteligence.
Je více žádoucí, aby lidé mysleli kriticky, říká expert na AI
Její přednáška v Praze byla součástí nově založené série přednášek věnovaných Karlu Čapkovi od Centra pro environmentální a technologickou etiku – Praha [CETE-P].
Umělá inteligence vytváří falešné tváře i obsah
Jako příklad špatného využití umělé inteligence uvedla kauzu z Nizozemska. Tam nedávno algoritmus neoprávněně označil rodiny za podvodníky při žádosti o sociální dávky. Anebo připomněla studie ukazující, že Chat GPT-4 zesiluje genderové a rasové stereotypy.
Letos na začátku roku došlo k medializaci případu, kdy norský občan Arve Hjalmar Holmen zjistil, že ChatGPT o něm vytvořil smyšlený příběh, podle nějž byl odsouzen za vraždu svých dvou dětí a pokus o vraždu třetího potomka. Kromě těchto nepravdivých informací chatbot zahrnul do odpovědí i skutečné osobní údaje poškozeného Nora. Včetně jeho rodiště a počtu dětí.
ChatGPT: Odsoudili ho za vraždu dvou dětí a pokus o vraždu třetího
Evropské centrum pro digitální práva [NOYB] následně podalo v Norsku stížnost na americkou OpenAI kvůli šíření lživých informací o konkrétních lidech prostřednictvím chatbotu ChatGPT. Jako další problém se následně ukázalo, že OpenAI neposkytuje žádný mechanismus, jak chybné informace opravit nebo odstranit. Podle úřadu se tak nepravdivé údaje dál šíří ve virtuálním prostoru. A nedá se proti tomu nijak bránit.
Umělá inteligence: Lidé zapomenou býti lidmi
I na tento problém poukázala ve své přednášce americká filozofka Vallorová. Generativní systémy dokážou, jak uvedla, vytvářet věrohodně působící, ale nepravdivé informace nebo podvodné obrazy. To podle filozofky přináší riziko destabilizace demokratických institucí a osobního života lidí. Ti se tak mohou stát oběťmi falešných videohovorů nebo takzvaných deepfake snímků.
Dále upozornila na případy, kdy uživatelé chatovacích robotů podlehli iluzi vztahu a v extrémních situacích to přispělo dokonce k sebevraždě.
„Nebezpečí nepochází zvenčí, ale zevnitř. Hrozbou je, že zapomeneme, co znamená být člověkem, a přenecháme rozhodování strojům,“ řekla Vallorová.
Připomněla, že stejně jako zrcadla mohou i algoritmy nejen odhalovat nové vzorce chování, ale také lidi uvádět v omyl a odpojovat je od reality.
- Ve své řeči Vallorová ale vyzdvihla i nikoliv zanedbatelné přínosy a pozitivní potenciál využívání umělé inteligence. Lidem její nástroje pomáhají především v biotechnologii – ve vývoji nových léků, zdravotnických prostředků a medicíně obecně. Velký posun přinesla umělá inteligence také do ekologie, kdy se díky AI technologiím důsledněji kontroluje kvalita vody a hodnoty škodlivých látek v ní. A podobně prostupuje do dalších oborů.
„Umělá inteligence může být život zachraňující, pokud se používá odpovědně,“ uzavřela svou přednášku Shannon Vallorová.
–ČTK/VRN–
Diskusí na toto téma už se lidstvo nezbaví. A budou se i uvádět příklady chyb, dokonce i zákeřnosti ze strany AI. Potřebuje AI ke své existenci člověka ? Lidské rozhodování dokáže upřednostnit pro výsledek i drobný údaj, fakt. AI nahradí domestikovaného psa, partnera, kolegu v práci (40 odborností bude moci zastávat AI),kamaráda… bude tedy citovým náhradníkem. Pokud začne AI nahrazovat lidské vztahy a člověk ji potřebuje k emočnímu fungování, pak se jedná o závislost. Klesne porodnost a přirozený vztah k přírodě. Ale do definice člověka přece patří, že je se sociálním chováním. Budou nám na obrazovkách předkládány zase jen neživé osoby ? Vzroste pocit osamělosti. V autě vás může i zabít, když se bude rozhodovat, zda vrazit do skupinky lidí na silnici nebo obětovat řidiče.