Bylo by chybou zpomalit vývoj AI, Čína ji má jako závod, říká etik. Podle matematika je nutná regulace

Tento týden se na londýnském summitu v Bletchley Parku představitelé EU a dalších 28 zemí shodli na první deklaraci, která má podpořit globální snahu o zajištění bezpečnosti umělé inteligence (AI). Podle slov britského premiéra Rishiho Sunaka mělo setkání převážit misky vah ve prospěch lidstva. Filozof a matematik diskutují o rizicích, přínosech a regulaci umělé inteligence v pořadu Českého rozhlasu Plus Pro a proti.

Pro a proti Londýn Sdílet na Facebooku Sdílet na Twitteru Sdílet na LinkedIn Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

Umělá inteligence

Rishi Sunak na summitu nabádal k tomu, aby se nespěchalo s tvrdou regulací AI (ilustrační foto) | Zdroj: Shutterstock

Jan Kulveit, vědec z Centra pro teoretická studia Univerzity Karlovy, který se v současnosti soustředí na výzkum komplexních systémů složených z lidí a umělých inteligencí, by ocenil, kdyby se lidstvo dokázalo na zbrzdění růstu modelů shodnout.

Přehrát

00:00 / 00:00

Bylo by chybou zpomalit vývoj AI, Čína ji má jako závod, říká etik Černý. Lidstvo by se mělo domluvit na regulaci, míní matematik Kulveit

„Je to koordinační problém, pokud se na něm neshodneme, je potřeba aspoň vývoj zkusit regulovat a posílit stranu zkoumání bezpečnosti modelů, o což se snažil i summit. Je možné, že to vývoj trochu zpomalí,“ dodává.

Filozof David Černý si nemyslí, že je taková domluva realistická. „Z pohledu Evropy a našeho západního kulturního okruhu by bylo chybou, kdybychom si uložili nějaká zpomalování, protože systémy AI jsou klíčem jak ke generování blahobytu, tak k novým vědeckotechnickým objevům, a zároveň geopolitickým nástrojem dominance,“ namítá Černý, který se zabývá etikou umělé inteligence a zároveň působí na Ústavu státu a práva na Ústavu informatiky Akademie věd

Držet krok s Čínou

Podle Černého jiné státy budou AI vyvíjet dál. „Čína chce ve vývoji předběhnout celý svět. Uvědomuje si, že to je klíč k budoucnosti blízké i vzdálenější. Nezbude nám nic jiného než se snažit s Čínou držet krok a nenechat ji, aby nás zásadně předběhla.“

Listovat archivem by mohla umělá inteligence. V Kladně ji vyvíjejí i vědci z amerického institutu

Číst článek

Čína se summitu účastnila také a zavázala se ke spolupráci. „To, že tam byla, ale neznamená, že bude dodržovat pravidla,“ domnívá se Černý. „AI musí být k dispozici jejich armádě, takže nevěřím, že by byla ochotna začít zásadním způsobem omezovat vývoj.“

„Vývoj těch největších modelů neprobíhá v Evropě. To je otázka Západu, tedy Spojených států a Velké Británie. Navíc strašák, že když zpomalíte, tak nás Čína předběhne, se používá roky, ale neodpovídá realitě. Sama Čína má obavy, že AI destabilizuje jejich společnost – ještě před summitem podepsala separátní prohlášení, kde před riziky varuje,“ podotýká Kulveit.

Vhodná míra regulace

Rishi Sunak na summitu nabádal k tomu, aby se nespěchalo s tvrdou regulací AI, načež se ohradil indický ministr technologií se slovy, že pokud umožníme inovacím předběhnout regulaci, otevíráme se toxicitě, dezinformacím a zbrojení. 

„Je potřeba najít mechanismy k identifikaci a odstraňování rizik nebo jejich minimalizaci. Zároveň si nejsem jistý, zda regulace neubíjí potenciál vývoje AI v České republice,“ říká Černý. Dodává, že lidé hledí na regulace spíše s obavami, aby nám tzv. neujel vlak.

‚Na té fotce mi je 14.‘ Mladé ženy čelí falešným nahým fotografiím, české zákony ale ‚deepfakes‘ neřeší

Číst článek

„Je třeba najít šikovnou míru dostatečné regulace, aby vývoj mohl probíhat dál, abychom byli konkurenceschopní a zároveň neregulovat příliš, aby se ten vývoj nezpomalil. AI samo o sobě rizikem není, rizikové je to, jakým způsobem a pro jaké účely ji lidé používají. Nejlepším způsobem ochrany proti negativním důsledkům je vzdělávání lidí, aby získali algoritmickou gramotnost,“ tvrdí. 

„Tato technologie je méně regulovaná, než když si chcete otevřít zmrzlinářství, přičemž je strategicky důležitější než jaderné zbraně či letectví,“ míní Kulveit.

„Souhlasím, že je potřeba vzdělávat veřejnost, ale těch rizik je mnohem víc. Včera se přední laboratoře shodly s Evropskou unií, Spojenými státy a Británií na tom, že modely budou podléhat nezávislému testování instituty, a myslím, že v tom by Evropa neměla zůstat pozadu a také vytvořit vlastní ústav, nezávislou autoritu, která dokáže modely testovat,“ dodává.

Poslechněte si celou diskusi v audiozáznamu výše.

Karolína Koubová, vsvo Sdílet na Facebooku Sdílet na Twitteru Sdílet na LinkedIn Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

Nejčtenější

Nejnovější články

Aktuální témata

Doporučujeme