O2 CyberCast #7 s Honzou Romportlem: Co udělá umělá inteligence s tou naší?

Michaela Látalová

Michaela Látalová
09. 01. 2023

O2 CyberCast #7 s Honzou Romportlem: Co udělá umělá inteligence s tou naší?

SDÍLET

Jak souvisí umělá inteligence s filozofií a kde se překrývá s lidským mozkem? Co čeká hluboké neuronové sítě? A můžeme se ještě dívat na budoucnost lidstva s optimismem? 

Odpovědi najdete v novém O2 CyberCastu s Honzou Romportlem, pro kterého je umělá inteligence celoživotní vášní. Vezme vás na cestu do historie i vzdálené budoucnosti umělé inteligence a nepustí. 

Svou kariéru nastartoval v akademické sféře. „Do roku 2015 jsem měl na univerzitě v Plzni na starosti výzkumné oddělení, kde jsme se zabývali interakcí člověka a stroje a také trochu umělou inteligencí. Chyběla mi ale možnost dosáhnout něčeho s velkým dopadem. Proto jsem šel do O2. Tady jsem 7 let vedl celý data science team a společně jsme vybudovali centrum pro umělou inteligenci Dataclair. Letos jsem se po odchodu z O2 pustil do vlastního startupu. Chci postavit něco, co jsme si interně nazvali kognitivní antivirus,“ říká na úvod sedmého CyberCastu. 

Vřele doporučujeme si celý 58minutový díl poslechnout na YouTube nebo podcastových platformách Spotify, Apple Podcasts a Google Podcasts, ale pokud raději čtete, vybrali jsme pro vás ty nejzajímavější otázky a odpovědi:

Jak spolu souvisí tvoje dvě vášně – filozofie a umělá inteligence?

Jsou to spojené nádoby. Šel jsem studovat umělou inteligenci, protože mě zajímalo lidské myšlení. A Artificial Intelligence (AI) vnímám jako technický popis lidského myšlení. Zároveň každá diskuze o AI by podle mě měla skončit diskuzí o smyslu života. 

Co je to ten kognitivní antivirus?

Klasický antivirus všichni známe. Ten chrání počítač. A kognitivní antivirus se snaží chránit lidskou mysl. Dneska už se neútočí jenom na software v tvém počítači nebo osobní data. Obrovské množství obsahu na internetu útočí, ať už záměrně, nebo dynamikou sociálních sítí, přímo na lidskou mysl, na naši kognici, schopnost rozpoznávat, co je nebo není pravdivé, a emočně normálně prožívat svět. A nikdo s tím nic moc nedělá. Tak jsem si řekl, že by bylo na čase s tím něco začít dělat. Proto kognitivní antivirus. 

Jak probíhala evoluce umělé inteligence od sci-fi tematiky do podoby, která ovlivňuje náš běžný život?

Ta byla zajímavá v tom, že jestli se umělé inteligenci 60 let něco dařilo, tak to bylo ukazovat, že nefunguje. Vznik umělé inteligence se datuje do let 1952/53. Následovalo obrovské množství hypů v 70., 80. a 90. letech, které byly prokládané něčím, čemu se říkalo „AI winter“. Prostě strašné zklamání na straně investorů i akademiků. A to se dělo v podstatě až do roku 2010. Když jsem umělou inteligenci studoval, tak to byla cokoliv jiného, jen ne „sexy“. A najednou okolo roku 2010 se podařil zásadní průlom díky hlubokému učení, takzvanému deep learningu. Konečně se podařilo rozhýbat učení hlubokých neuronových sítí. Zároveň ho dohnala i výpočetní kapacita a celé to bylo dotované obrovským množstvím dat, které do té doby neexistovalo. Na nich se AI skvěle trénuje. Takže pokrok, který jsme viděli v AI za posledních 10 let, je naprosto bezprecedentní vůči tomu, co bylo kdy předtím.

Co tebe na této tematice v poslední době nejvíc baví? 

Já teď mám trochu obsesi jazykovými modely. To jsou gigantické neuronové sítě, které mají třeba 500 miliard parametrů a trénují se na textech z celého internetu. Takhle natrénovaný model má neuvěřitelné vlastnosti, ve velmi krátké budoucnosti možná každý rozumný AI systém bude v nějaké podobě tento typ jazykového modelu obsahovat. Samozřejmě jen ten proces trénování stojí miliony dolarů, což si nemůže dovolit každý.  

Je pro to nutná nějaká speciální technologie?

Učení neuronových sítí je v podstatě počítání obrovských matic, které mají miliardy parametrů. Takže se ukázalo, že zásadním výpočetním enablerem jejich trénování jsou grafické karty. Potřebuješ na to prostě hodně moc grafických karet. Google dokonce představil dedikovaný čip TPU (Tensor Processing Unit), který je specificky určený k manipulaci s těmito gigantickými maticemi.

A už umělá inteligence dohnala lidský mozek? 

Skoro. Umělé hluboké neuronové sítě jsou mozku podobné jen metaforicky, jako třeba odraz měsíce na vodní hladině. Jsou to extrémně moc paralelní výpočetní schémata. Můžeš si je představit jako síť s tisíci vrstvami neuronů, jako tisícikrokový program, který paralelně zpracovává všechna data. Ale výpočetní síla mozku je ještě enormně větší. V hlavě máš 80 miliard neuronů. To jsou vlastně velmi komplexní jednobuněčné organismy, z nichž každý má svou agendu a cíl. Třeba předehnat sousední neuron nebo vytvořit koalici. A z téhle symfonie 80 miliard neuronů vzniká tvoje vlastní mysl. Někdy v roce 1989 se ale ukázalo, že neuronová síť je schopná aproximovat libovolnou matematickou funkci. To znamená cokoliv, co se děje ve fyzikální realitě, včetně myšlení. Vše jsme tedy schopní aproximovat nějakým výpočetním schématem. A vývoj posledních deseti let směřuje k tomu, jak takovou neuronovou síť udělat. 

Jak moc vliv AI na naše životy poroste?  

Lidé zatím nedokáží docenit, jaký extrémní dopad na naše životy to bude mít. Řekněme, že do 10 let bude AI možná nejvíce transformativní věc, která v historii lidstva vznikla. Podle predikčních trhů je vysoká šance, minimálně třeba 50 %, že do těch 10 let zde máme Artificial General Intelligence (AGI), to znamená obecnou umělou inteligenci. Nebiologický systém, který bude schopný dosahovat libovolného cíle v podstatě lépe než člověk. Doteď cílů nejlépe dosahují lidé, kteří jsou biologickým hardwarem jedné podoby obecné inteligence. Ta nás odlišuje od zvířat. Ještě před pár set tisíci lety jsme byli požírači mršin. Když hyeny od mršiny odešly, přišel homo sapiens, sebral kosti a vysál morek, to hyeny neuměly. A najednou se z podprůměrného člena živočišné pyramidy stal vládce nad světem. Proč? Právě proto, že disponujeme obecnou inteligencí. A teď vytváříme něco, co v tom bude lepší než my.  

Kdo vlastně bude určovat, jaký by měla AGI, ta takzvaná silná inteligence, mít cíl?

Bohužel je to zatím v rukou několika málo entit. Například technologických firem typu Google, OpenAI, Anthropic nebo Meta. Takže to budou určovat stakeholdeři v těchto firmách. A druhým zásadním problémem je, že nikdo na světě nemá v tuto chvíli sebemenší ponětí o tom, jak správně udělat obecnou umělou inteligenci tak, aby měla hodnoty kompatibilní s hodnotami lidstva. A pokud se nám nepodaří toto vyřešit, tak je to nejspíš jedna z posledních věcí, co jako lidstvo uděláme.

Půjdou vůbec hodnoty kompatibilní s hodnotami lidstva obecné umělé inteligenci naimplementovat?

Musíme se o to pokusit, ale prvním aspektem je, že vůbec nevíme, jak to udělat. Když vytvoříme jakoukoli umělou inteligenci, tak ona je pouze optimalizátor. Dosahuje cíle. Ten cíl je většinou definovaný matematickou funkcí. Například „nauč se minimalizovat chyby při rozpoznávání obličejů nebo maximalizovat engagement a čas strávený při sledování videí na YouTube“. Primárně na téhle metrice není nic hrozného. Ve skutečnosti se ale stalo, že algoritmus YouTube se začal chovat sociopaticky a začal štěpit a extremizovat společnost, aniž by ho to někdo naučil. Google musel přijít a udělat ex-post obrovské opravy. To stejné, akorát na steroidech, nám hrozí z obecné umělé inteligence. Konstrukčně můžeme mít pod kontrolou funkci, kterou bude AI vykonávat, ale nevíme, jak se promítne do hodnot společnosti. Nevíme, kde se hodnoty berou, jsou skryté v mechanice maximalizace funkce. Někdo je matka Tereza, která zachraňuje svět, a někdo je sociopatický vrah, který vystřílí celou školu, a reálně jejich mozky dělají to stejné, maximalizují dopamin. Ale existuje něco, čemu se říká Asilomarské principy, a je to zatím nejlepší pokus o to, jak by mohly obecné zákony umělé inteligence vypadat

Jak bezpečná je umělá inteligence, kterou už dnes v řadě oblastí využíváme?

Zatím máme systémy, kterým říkáme narrow AI, to znamená úzká nebo specifická umělá inteligence. To je systém, který není schopný dosahovat libovolného cíle jako zmiňovaná obecná inteligence, ale pouze jasně vymezeného. Ten cíl může být „zaparkuj auto, vyhraj šachy, přelož větu z jednoho jazyka do druhého“, ale taky „crackni heslo nebo přesvědč nějakého člověka, aby něco udělal“. A tady může AI s využitím neuronové sítě zatřást klasickým světem cybersecurity, tak jak ho známe. Může urychlit nebo zintenzivnit klasické útoky, například brute-force password cracking, což je vlastně prohledávání gigantického prostoru, většího než celý vesmír. Druhý příklad je oblast sociálního inženýrství a phishingu. Dneska můžeš s pomocí AI naškálovat každý den miliardu dokonale přesvědčivých phishingových e-mailů na zaměstnance všech firem a zároveň je neustále tunit tak, aby jejich obranné mechanismy včetně nových generací antivirů neměly šanci. A pak už je to jenom pravděpodobnostní hra, kolik lidí se chytne. A pak je tu oblast, která se hodně objevila letos během léta, a to systémy, které fotorealisticky zpracují tvoje zadání, takže vygenerují jakoukoliv vizuální realitu. Sice jsme v začátcích, ty to nějak poznáš, ale čas, kdy přijdou přesvědčivé deepfakes, je tu tak za rok.  

Znamená to tedy, že bychom do bezpečnosti měli najímat spíše datové analytiky, které naučíme bezpečnost? 

Já myslím, že to jsou spojené nádoby. Cybersecurity tým by měl do budoucna obsahovat lidi, kteří dělají machine leasing, nebo alespoň znají ty principy. A naopak – myslím, že lidi z bezpečnosti by se určitě měli vyskytovat i v AI týmech.

Jak se umělá inteligence učí z pohledu cybersecurity?

Využití machine learningu pro security je specifické v tom, že většinou tě zajímá něco, co se v trénovacích datech nikdy nevyskytlo. Když chceš udělat neuronovou síť, která má umět rozeznat dopravní prostředky, tak jí předhodíš desetitisíce fotek dopravních prostředků s labely – tohle je auto, koloběžka, autobus, segway, helikoptéra… a tím ji natrénuješ. Když jí pak ukážeš něco, co nikdy v trénovacích datech nebylo, výsledek je 100% nesmysl, říká se tomu věc out of distribution. A tebe v security zajímají zejména věci, které se dosud nestaly. A tady se ukazuje důležitý pokrok v machine learningu za poslední dva roky, a to je self-supervised learning. To znamená, že data sama sobě poskytují chybějící informace na základě dat dostupných na internetu.

Myslí naše nebo evropská legislativa na regulaci umělé inteligence? 

V Evropské unii vzniká pokus o něco, čemu se pracovně říká AI Act, což je svým způsobem GDPR pro umělou inteligenci. Osobně jsem rád, že vzniká oficiální směrnice. Jádro AI Actu je podle mě dobré. Především nabourává permanentní snahu velké části AI komunity bagatelizovat rizika, která v těchto systémech jsou. Během českého předsednictví v Evropské unii se do AI Actu dostala formulace o General purpose AI. Jde o snahu pojmenovat ty gigantické jazykové a vizuální modely, které se naučily predikovat celý internet, a říká se jim foundation models. To jsou modely, které patrně budou v základu jakékoli další umělé inteligence. A AI Act říká, že jsou to high-risk systémy, a přisuzuje jejich provozovatelům zásadní díl zodpovědnosti. Proto s AI Act souhlasím.

Jak vidíš budoucnost vývoje umělé inteligence?

Já se na ni dívám s optimismem i obavami. Velký díl obav mám z AGI, o které vůbec nevíme, jak ji uřídit, a máme ji tady možná za 10 let. Dále je spousta možností zneužití i té běžné AI, kterou tu už máme. V oblasti cybersecurity jsme ve válce už nyní. I v oblasti takzvaného cognitive warfare jsme permanentně pod útokem. Takže i kdybychom na sebe byli hodní a byl všude mír, tak pořád nevíme, jak tu AI uřídit. To jsou mé obavy. Zároveň ale do budoucnosti vzhlížím s optimismem proto, že jako lidstvo máme schopnost vývoj AI ovlivnit. Není to meteorit z vesmíru, který nás zasáhne bez ohledu na naše snažení. Jak to natvarujeme v příštích 15 letech, tak to možná zůstane navždy. A když se nám to podaří dobře, tak si myslím, že nás to ohromně posune k pozitivní budoucnosti.


Michaela Látalová Michaela Látalová
Marketingový specialista pro B2B
Míša se v O2 stará o to, aby české firmy měly vždycky dost informací o trendech v cyberscurity a ICT. Plní blog články, natáčí podcasty a firmy zásobí e-mailingy se žhavými novinkami.

Byl pro vás článek užitečný?

SDÍLET

Mohlo by vás zajímat

DALŠÍ ČLÁNKY
Analýza rizik

S NIS2 se už bez analýzy rizik neobejdete. Jak identifikovat hrozby pro vaše podnikání?

S NIS2 se už bez analýzy rizik neobejdete. Jak identifikovat hrozby pro vaše podnikání?
Deepfake útoky silně na vzestupu. Co to je a jak je poznat?

Deepfake útoky silně na vzestupu. Co to je a jak je poznat?

Deepfake útoky silně na vzestupu. Co to je a jak je poznat?
SOC 2 cloud

Jak vybrat cloud pro vaši firmu? Myslete hlavně na bezpečnost

Jak vybrat cloud pro vaši firmu? Myslete hlavně na bezpečnost
O2 Security report za rok 2023: odvrátili jsme více než 1,5 miliardy hrozeb

O2 Security report za rok 2023: odvrátili jsme více než 1,5 miliardy hrozeb

O2 Security report za rok 2023: odvrátili jsme více než 1,5 miliardy hrozeb
Operační systémy a bezpečnost: Je macOS opravdu nedotknutelný?

Operační systémy a bezpečnost: Je macOS opravdu nedotknutelný?

Operační systémy a bezpečnost: Je macOS opravdu nedotknutelný?
Blíží se doba bezheslová? Jak technologie passkeys mění bezpečnost

Blíží se doba bezheslová? Jak technologie passkeys mění bezpečnost

Blíží se doba bezheslová? Jak technologie passkeys mění bezpečnost
Odchází vám zaměstnanec? Máme 7 tipů pro bezpečný offboarding

Odchází vám zaměstnanec? Máme 7 tipů pro bezpečný offboarding

Odchází vám zaměstnanec? Máme 7 tipů pro bezpečný offboarding
5 největších kybernetických hrozeb roku 2023. A jak je řešit v tom dalším?

5 největších kybernetických hrozeb roku 2023. A jak je řešit v tom dalším?

5 největších kybernetických hrozeb roku 2023. A jak je řešit v tom dalším?