Umělá inteligence: Odložit stranou lidské rozhodování a úsudek je nebezpečné, varuje belgický etik. V čem vidí její přínos?

17. červen 2023

Umělá inteligence by neměla nahrazovat lidský úsudek a rozhodování. Elon Musk další osobnosti opakovaně vyzývají lidstvo, aby zabrzdilo vývoj umělé inteligence. Další odborníci s nimi nesouhlasí a poukazují spíše na konkrétní rizika, ale i přínosy umělé inteligence. Patří k nim i Mark Coecklbergh, belgický filosof, který působí i v pražském Centru pro environmentální a technologickou etiku. Radiožurnálu řekl, co mu vadí na Muskově výzvě.

„Poukazuji na nebezpečí, že celou civilizaci ovládne superinteligentní umělá inteligence. Podle mě to ale odvádí pozornost od krátkodobých etických a politických problémů, které jsou skutečné. Myslím si, že zákaz nebo pozastavení je příliš hrubé opatření,“ říká Mark Coecklbergh z centra pro technologickou a environmentální etiku Filosofického ústavu Akademie věd.

Čtěte také

Co je podle vás tím krátkodobým rizikem AI v dnešním světě?

Jedno z nebezpečí je, když se role člověka zmenšuje a věci se víc automatizují. Třeba letadla jsou automatizovaná, jednoduše řečeno je řídí umělá inteligence, ale je to velmi regulované. Máme ale systémy, kde neexistuje nic jako řidičáky nebo letová pravidla, kde nikdo nedohlíží a nesleduje rizika.

Ovšem nejen v dopravě bychom se měli ptát, jestli opravdu chceme nejvyšší úroveň automatizace. I kdyby to bylo technicky možné. Jestli máme odložit stranou lidské rozhodování a úsudek. To je nebezpečné. O lidech mají rozhodovat lidé.

Dobrý příklad používání AI je medicína. Když máme systém, který může diagnostiku zlepšit, měli bychom ho používat.

Můžete uvést nějaké příklady, kde se v dnešním světě umělá inteligence použitá správně?

Jedním z příkladů je oblast medicíny. Když AI používají lékaři jako pomůcku při určování diagnózy na základě zpracování obrazu. To je důležité. Nechceme, aby se třeba výzkum rakoviny obešel bez tohoto druhu technologií. Chceme systém, který pacienty dobře diagnostikuje.

Čtěte také

A když máme systém, který může diagnostiku zlepšit, měli bychom ho používat. Samozřejmě že se k technologii vážou etické otázky – falešně negativní nebo falešně pozitivní výsledky. Jednoduše řečeno, systém říká, že tu je problém, i když ve skutečnosti není, nebo to není schopný rozpoznat. Ale myslím, že s velkou částí těchto problémů se můžeme vyrovnat tím, že vždy zajistíme, že je tu člověk, který to interpretuje, který se také podívá na výsledky.

Když používáme AI tímto způsobem a ne tak, abychom z toho člověka úplně vynechali, je to dobře. Ne abychom ušetřili, ale abychom zlepšili diagnostiku. Nesmíme zavírat oči před tím, co nám AI nabízí, a neměli bychom ji přeregulovat, abychom nepřišli o tyto příležitosti.

Zpracování obrazu v medicíně už nějaký ten rok slouží. Na druhou stranu ale může umělá inteligence i vytvářet umělé obrázky...

Ano, víme, že ve vizuální oblasti existuje spousta falešných videí vytvořených umělou inteligencí. Také se využívají k politickým účelům. Například v Indii vyšel v tisku snímek protestujících žen, které zatkli a zavřeli do vězení. Fotografie opravdu působivá, výrazy ve tváři, emoce. A vzápětí se objevil snímek skoro stejný, jenom se ty tváře usmívaly.

Čtěte také

Je to něco jako informační válka. Vlastně máme i technologie, které vybírají a detekují falešné snímky a videa. To, co potřebujeme, jsou nejenom technické prostředky a regulace, ale i vzdělávání novinářů a lidí v médiích, aby tomu dokázali čelit. A aby v tom pomáhali občanům, jako jsem já. Veřejné investice by měly proudit nejenom do zavádění umělé inteligence, ale i do vzdělávání a výzkumu etiky AI, je to opravdu potřeba.

Možná budeme svědky souboje AI na straně zločinců i detektivů?

Určitě ano. Může to být souboj různých programů a technologií mezi sebou. V příštích letech nás čeká řada takových případů. A musíme určitě víc myslet na to, jak s tím naložit.

autoři: Martin Srb , agf
Spustit audio

Související