Budoucnost AI může být i taková, že vliv lidí na rozhodování postupně klesne k nule, varuje odborník
Chatovací robot ChatGPT společnosti OpenAI umí psát články, poezii i vymýšlet vtipy. Obavy ze schopností této podoby umělé inteligence připouští i šéf společnosti, která chatbota vyvinula, Sam Altman. Převažují rizika, nebo přínosy umělé inteligence? Je třeba AI regulovat?
„Spousta aplikací AI není důvod regulovat, ale v případě vývoje větších a mocnějším systémů je na místě se nad regulací zamýšlet, zejména do budoucna, protože nebezpečí plyne spíš z celého trendu,“ uvádí v Pro a proti vědec Institutu budoucnosti lidstva v Oxfordu a Centra teoretických studií na Univerzitě Karlově Jan Kulveit.
Čtěte také
Technický ředitel společnosti IBM pro region střední a východní Evropy Martin Švík souhlasí, že je třeba AI rozlišovat. „Jsou analýzy obrazových dat, jazykové modely a další aplikace a každá z nich má jiný dopad. IBM má etickou komisi a ta přesně definuje, jak AI zavádět. A dělá to řada dalších společností.“
„Například komunikační AI ChatGPT může někdo zkusit nasadit v technologiích, kde není dostatečná spolehlivost. Dalším rizikem je, že tyto modely už dnes dokážou lidi nějak subtilně manipulovat. Je otázka, jestli se společnost rozhodne věřit korporacím, že AI zregulují dobře, nebo zda by měla probíhat společenská debata o problému,“ dodává Kulveit.
Problém je ten, že vývoj technologie postupuje dnes rychleji než možnosti společenské adaptace, z čehož mám obavy.
Jan Kulveit
Ten upozorňuje, že už nyní jazykové modely v provozu získávají nové schopnosti tzv. emergentně.
„Už jen tím, že se zvětší, tak umí víc a víc. A není jasné, kdy se tento trend zastaví. Mají už schopnosti, které jsou nebezpečné a budou pravděpodobně ještě nebezpečnější. Je pak otázka, co s tím jako lidé budeme dělat.“
Zástupce IBM opakuje, že firma už před pěti lety definovala etiku AI. „Pro nás je důležité, že když systém učíme, tak je třeba dodržovat pravidla. Především robustnost modelu, trasování informací a vysvětlitelnost.“
AI ve školství
Zrovna v případě ChatGPT je třeba osvěta nejen ve školství. „Nevíte, na základě jakých zdrojů vám AI odpověděla, mělo by vše být referencovatelné. Zásadní je, že jeden z hlavních zdrojů AI je Wikipedie, která se v případě diplomových prací vůbec neuznává,“ doplňuje Švík.
Čtěte také
„Problém je ten, že vývoj technologie postupuje dnes rychleji než možnosti společenské adaptace, z čehož mám obavy. Proto potřebujeme veřejnou debatu i osvětu a ukázat silné a slabé stránky AI,“ žádá Kulveit.
Podle něj hlavně nerozumíme tomu, jak největší modely AI fungují uvnitř. „Řada lidí si neuvědomuje, že schopnosti modelů jsou emergentní, zvětšují se s jejich velikostí. My rozumíme tomu, jak se trénují základní algoritmy, ale už nerozumíme tomu, jak s množstvím dat vznikají nové schopnosti AI.“
Tyto obavy považuje Švík za oprávněné, ale na přísnou regulaci je prý už nyní pozdě. „Spíš bych se snažil udělat hodně širokou osvětu a začal vysvětlovat, k čemu to dobré je a k čemu není.“
Je třeba si to ohlídat
„Znepokojivé je, že na technologii ChatGPT už vznikla spousta startupů, které automaticky předpokládají, že to, co AI odpovídá, je správné. Už to je mylný předpoklad pro aplikaci umělé inteligence,“ hodnotí ředitel.
Chápu kolegu Kulveita, ale obavy ze zničení přicházejí až tehdy, kdy bude AI součástí centrálního energetického systému, rozvodu vody atd.
Martin Švík
Vědec se obává, že bude těžké ohlídat AI systémy, aby nepřevzaly, budou-li dostatečně sofistikované, kontrolu nad lidmi.
„Stačí si představit, že v nějakých trajektoriích ztratíme nad vývojem kontrolu. Například se automatizuje rozhodování korporací a postupně čím dál větší část světa budou organizovat AI systémy.“
„A lidi tyto systémy budou pak vykládat pomocí svých osobních asistentů, kteří nám vysvětlí, jak je všechno v nejlepším pořádku. Budoucnost tedy může být taková, že vliv lidí na rozhodování o tom, co se děje, postupně klesne k nule. Ani už nebudeme vědět, jak jsou věci řízeny,“ varuje Jan Kulveit.
Čtěte také
Ředitel předpokládá, že vše bude záležet na tom, jak se k technologii společnost postaví.
„Bavil jsem se nedávno se zástupci několika telekomunikačních společností a bank a oni dospěli k závěru, že neschopnost garantovat to, jak AI chatboty odpoví, činí tuto technologii pro ně nepoužitelnou z důvodu zodpovědnosti za možné škody způsobené špatnou odpovědí.“
„Chápu kolegu Kulveita, ale obavy ze zničení přicházejí až tehdy, kdy bude AI součástí centrálního energetického systému, rozvodu vody a dalších věcí, kdy by opravdu mohlo dojít k nějakému špatnému rozhodnutí. Ale to je na nás, abychom toto nedovolili,“ doporučuje Martin Švík.
Poslechněte si celou diskusi v audiozáznamu. Moderuje Lukáš Matoška.
Související
-
Chatbot neví, co mluví. Není to umělá inteligence, jen generuje naučené texty, vysvětluje expert
„Může se jevit, že vám vrátí velice smysluplný text, ale je to jen výsledek velice sofistikované statistiky. A i tyto stroje dělají velké chyby,“ říká Josef Holý.
-
Daniel Kroupa: Jen aby nás umělá inteligence nepřipravila o tu přirozenou
Umělá inteligence není prvním vynálezem, který s sebou kromě výhod a nadějí přináší rizika. Už nyní se některá s hrozivou obludností vynořují ve vzdělávacím systému.
-
Umělá inteligence ve školách. Zakazovat, nebo začít efektivně využívat?
Školy si nevědí rady s novými AI nástroji, jako je například konverzační chat GPT. Školský odbor radnice v NYC vydal zákaz používání tohoto nástroje v místních školách.
Více z pořadu
E-shop Českého rozhlasu
Starosvětské příběhy lesníků z časů, kdy se na Šumavě ještě žilo podle staletých tradic.
Václav Žmolík, moderátor
3x Karel Klostermann
Komplet obsahuje dva šumavské romány Ze světa lesních samot, V ráji šumavském a povídkový soubor Mrtví se nevracejí z pera klasika české literatury Karla Klostermanna (1848 - 1923), který tomuto kraji zasvětil celé své dílo.