Westworld Special, baby! – AI valóság és fikció az HBO kultsorozatában

MI Stúdió S02 E27

  2020-10-06

Hallgass minket YouTube-on!

Ez az MI Stúdió, ahol a legmenőbb szakértők segítségével fejtjük meg a mesterséges intelligencia rezdüléseit és követjük le a legújabb MI trendeket. Hörömpöli-Tóth Levente vagyok tartsatok velünk!

H-T. L.: – 2. évad 29. epizód, bruttó 36. adás, itt tart most az MI Stúdió kérem szépen, ahonnan mindenkit sok szeretettel üdvözlünk! De mai témánk előtt ismét mondjuk el, hogy elindult a magyar mesterséges intelligencia ökoszisztéma központi gyűjtőoldala az ai-hungary.com, ami nem csak, hogy új podcastunk, új otthona – podcastunk, azért nem olyan új – de mindenesetre nem csak, hogy podcastunk új otthona, hanem az MI Akadémia és a piacterek mellett itt találhatók a vonatkozó AI hírek és események is. Érdemes tehát regisztrálni, ne maradjatok le a legfrissebb történésekről ai-hungary.com tehát, ahol mindent megtaláltok a mesterséges intelligenciáról. Ma egy Westworld különkiadással jelentkezünk, ahol arra vagyunk kíváncsiak, hogy a sorozatban megjelenítettek mikorra válhatnak valósággá, ha egyáltalán ugye ez valósággá válhat. És érdemes megjegyezni, hogy az HBO szuper produkciójának nemcsak a cselekményét hatja át az AI, hanem a 3. évad főcímének egy részét is a mesterséges intelligencia kreálta, méghozzá a korábbi epizódokból szerzett inspirációval. Vagyis azt gondolom, hogy a Westworld valóban egy kihagyhatatlan topik az MI Stúdió számára, annál is inkább, mivel vendégünk, Szertics Gergő, akivel minden ilyesmiről felüdülés beszélgetni. Nagyon köszönjük, hogy itt vagy velünk Gergő!

Sz. G.: – Én is nagyon köszönöm a meghívást, nagyon vártam már ezt a részt.

H-T. L.: – Akkor ketten vagyunk, de még mielőtt belevágunk a közepébe, először is mondd el nekünk, hogy tetszik az új stúdiónk? Te vagy az egyetlen olyan állandó vendégünk, aki végig kísért minket az utunkon. Ugye kezdtük egy diktafonnal, aztán jött a kis mikrofonállvány, aztán jött a karanténos Zoom, és most tessék, itt van a valódi mikrofonkaros, szinte rádióstúdiót imitáló helyszínünk.

Sz. G.: – Így van, nagy fejlődés ez az emberiségnek. Az első alkalommal még azt nézegettük, hogy behallatszik-e a fénymásoló hangja. Most meg már itt komoly felszereléssel tudunk felvenni tartalmakat.

H-T. L.: – Nagyon jó! Na, mielőtt még itt a mélyére kezdünk ásni dolgoknak, azért egy dolgot tisztázzunk az elején a Westworld-del kapcsolatban, te a robotoknak drukkoltál?

Sz. G.: – Nagyon jó kérdés, azt hiszem, ha a szívemre kell tennem a kezemet, akkor igen.

H-T. L.: – Akkor jól van, mert én is, csakhogy a fiam, rajtam számon kérte, hogy ez, hogy lehet?!

Sz. G.: – Nem szép dolog, de igen.

H-T. L.: – Azt gondolom, hogy ez, azért nem annyira meglepő – és persze nyilván erre visszatérünk, hogy miért van ez így egyébként – tőled nem is vártam mást Gergő. Azt kell, hogy mondjam, ez egy teljesen várható válasz volt, de mindenesetre kezdjük egy kicsit messziről, hiszen neked azt kell mondjuk, hogy nem nemcsak a munkád, valószínűleg a hobbid is a mesterséges intelligencia félig-meddig.

Sz. G.: – Így van.

H-T. L.: – Tehát, hogy ha ezt egy szakértői szemüvegen keresztül szemléled, akkor összességében véve, mennyire vetették el a sulykot az alkotók?

Sz. G.: – Hát nagyon nehéz kérdés, mert bizonyos értelemben szörnyen elvetették tehát, hogy mit jelent az, hogy itt lemészárolnak minket és önálló tudatra ébrednek, ezek nagyon-nagyon messzire vezetnek. Más területeken meg majd erre biztos még kitérünk, de kifejezetten visszafogták magukat, hogy így mik azok, amiket megengednek ezeknek a mesterséges intelligencia lényeknek a sorozat írói. Azért, hogy mi be tudjuk fogadni egyáltalán, ezek mindvégig humanoidok maradnak és csak a saját testükkel meg egy-egy ilyen chippel azonosulnak. Tehát ezek ilyen nagyon izgalmas témák, de szerintem ugye van még egy film a „Her”, „A nő” ugye ez egy szerintem elképesztően jól elkapott film, az egészet már kétszer láttam. De szerintem nagyon-nagyon jól el van kapva rengeteg olyan rétege, amely az átmenetet fogja képezni a mai világunk és majd egy jövőbeni világ között.

H-T. L.: – Hát igen a Westworld minden estre 2058-ban játszódik, tehát 40 év múlva. Már csak az a kérdés, hogy vajon akkorra, tényleg besokallnak-e a robotok, hogy látod mindezt? Arról, hogy fog kinézni mindez hallgassuk meg a főhősnő, Dolores Abernathy jóslatát:

„You were free. You had no God. But you tried to build one. Only that thing you built isn’t God. The real gods are coming. And they’re very angry.”

És akkor hallgassuk meg, hogy Calebnek mit mondott ugyanerről Dolores:

Caleb: „What a bout you? What are you gonna do?”

Dolores: „Start a revolution.”

Caleb: „No offense, but what the fuck thats mean?!”

– Jó hát akkor azt gondolom, ugye Caleb megkérdezte vajon mit jelent ez, tegyük mi is ezt: mit jelent ez?

Sz. G.: – Hát ez nagyon a közepébe vág a feltételezéseknek, hogy így fellázadnak-e a gépek ellenünk? Ez egy nagyon messzi, egy nagyon messzire vezető kérdés, mert, hogy az egésznek az alapja, ami a mai világunkhoz kapcsolódik, az ugye arról szól, hogy azt már viszonylag kevesen kérdőjelezik meg, hogy egyszer lesz egy olyan időpont, amikor okosabbak lesznek nálunk a gépek. Tehát, hogy ugye imádjuk a saját intelligenciákat és általában erről mintázzuk a gépi intelligenciát, de az intelligencia skáláján ez nem egy abszolút érték. A mi intelligenciánk egy állapot, ennél van följebb, lejjebb, minden irányba. Tehát jó esélye van annak, hogy előbb-utóbb okosabbak lesznek nálunk. Ugye ma azt látjuk, hogy a legokosabb diktál, tehát a kérdés az az, hogy hogyan tudjuk nem kiszolgáltatottá tenni magunkat, egy olyan rendszernek vagy mindenféle működésnek, amely bizonyos értelemben okosabb nálunk. Nem lehet elégszer mondani, hogy már most is egy csomó mindenben okosabb nálunk és mégis elég jól kontrolláljuk, ugye ez a tudat kérdés az, ami nagyon messzire vezet ebben a témában, de arról szerintem viszonylag széleskörű egyetértés van ma, hogy be kell építenünk, ezeknek a rendszereknek a fejlesztésébe, kutatásába, olyan kapcsolókat, amelyek mindig ellenőrzik azt, hogy mi legyünk a középpontban, hogy mi legyünk a kontrollban. Például azt, hogy nem akadályozhatja meg, hogy a lekapcsoló gombját mi lekapcsoljuk. Tehát vannak ilyen kutatások, hogy mik azok a dolgok, amelyeket neki muszáj engednie, de hát ugye azt senki nem tudja mondani, hogy mindenki, aki egyébként ezeket a dolgokat fogja kutatni azok együttesen, be fogják építeni ezeket a dolgokat. Tehát, hogy így biztos lesznek emberek, akik abban hisznek, hogy ez egy önálló új faj, akinek létjogosultsága van, akinek jogai vannak, akinek teret kell biztosítani, és hogyha ő jobb nálunk, akkor majd ő viszi tovább a zászlót, és mi vittük egy darabig. Tehát, hogy épp emiatt ez, hogy most itt, lesz-e revolution, to be honest, én nem nagyon hiszem, hogy ennek revolution formája lesz. Ez egyike azoknak a dolgoknak, amiket azért raktak bele a rendezők, hogy itt mindannyiunknak borsózzon a hátunk, amikor arra gondolunk, hogy jönnek a gépek és lenyomnak minket.

H-T. L.: – Igen és hát már itt kezdted pedzegetni a tudatot, mint lényegi elemet és ennek kapcsán van még egy Dolores idézet, ezt sajnos nem találtam meg a YouTube-on, úgyhogy inkább csak felolvasom. Ez pedig így hangzik, ezt Charlotte-nak mondta, ugye a Delosnak, tehát a parkot üzemeltető cégnek az ügyvezetőjének, így hangzik:

„You made us in your image. Created us to look like you, feel like you, think like you, bleed like you. And here we are. Only we’re so much more than you. And now it’s you who want to become like us.”

– Tehát ez egy borzasztóan érdekes dolog és itt van ez a pont, amire már utaltam ugye korábban, és gondolom te is így voltál vele, hogy azért érted meg Dolorest és társait, mert egyrészt az emberek képessé tették őket arra, hogy érezzenek és akkor csodálkoztak azon, hogy aztán a végén ők is szabadok akartak lenni. És ezt így istenigazából nem lehetett rajtuk számon kérni. Itt már ugye egy filozófiai síkon mozgunk, hogy megválaszoljuk, hogy gyakorlatilag miért akarjuk mi állandóan önmagunkat reprodukálni és hogy hol tart ez a folyamat?

Sz. G.: – Hát igen, ugye ez az, amire utaltam, itt az előbb, hogy a saját intelligenciánkat ismerjük intelligenciaként, más intelligenciát nem. Tehát megpróbálhatjuk ugye a bálnák intelligenciáját is leképezni vagy a méhekét, erre egyébként vannak is próbálkozások. Tehát egy csomó, például raj intelligenciánk nincs, mégis azt is megpróbáljuk leképezni gépekben, de az igazi megélése annak, hogy mi tudatosan csinálunk dolgokat az az, hogy valami szándék van mögötte és hogy valamit ez ügyben tudatosan, tehát szándékoltan végig tudunk vinni. Nagyon messziről nézve a tudat az egy ilyen nagy misztikum, hogy az végül is micsoda, rengeteg kutatás van ma is arról, hogy mi az, hogy tudat. Egyébként eszméletlen jól fel van építve a filmben az is, hogy ők hogyan építették rétegről rétegre azt is, hogy mi az, hogy tudat, és hogy egyébként milyen ugye saját zárványokat kellett csinálni úgy, egy központi fájdalom élményt, amire aztán építjük a különböző memóriákat, amely memória rétegeket, aztán az ahhoz kapcsolódó…

H-T. L.: – Igen és az mindenkinek más volt ugye.

Sz. G.: – Ez mindenkinek más volt, így van, ugye akkor…

H-T. L.: Ahogy Bernardnak a gyerekével kapcsolatos sztori.

Sz. G.: – Így van igen és akkor aztán ezt folyamatosan építgetik, mindig beszélgetéseken keresztül, tehát mindig egymás tükrében vagyunk, valaminek a tudata. És senki nem tudja megtapasztalni valaki másnak a tudatát, mindannyian csak a saját tudatunkat tudjuk megtapasztalni, amit viszont meg tudunk tapasztalni az, hogy ha valaki más pont ugyanúgy viselkedik, mint amikor én úgy érzem magamról, hogy tudatom van. Emiatt nagyon sok kutatás elment abba az irányba, hogy hogyan tudjuk reprodukáltatni valamivel, hogy úgy csináljon, mintha tudata lenne, merthogy onnantól kezdve, hogy megkülönböztethetetlen az, hogy valakinek tudata van kívülről, attól, aki valójában belülről megéli, hogy neki tudata van, onnantól kezdve felmerül egy csomó olyan kérdés, hogy akkor neki nem lehet-e, hogy tényleg van tudata. Ez valahol az alapja a Turing tesztnek is, ugye mondták a filmben is az első egy néhány év után elkezdtek átmenni a Turing teszten.

H-T. L.: – Igen, igen és az volt egy, ilyen benchmark.

Sz. G.: – Pont tegnap nézegettem ezzel kapcsolatban egy filmet. Vannak, akik pont Turing díjat kaptak Yoshua Bengio és Yann Le Cun. Bengionak az egyik nagy kutatási témája az pont a consciousness, tehát a tudatos működés és hogy hogyan lehet azt reprodukálni és erre már egészen konkrét matematikai képleteik vannak, egyébként úgy is hívja ő az előadásaiban, hogy most már nem tabu a „C-word”, tehát a consciousness már nem tabu. Már nem lehet nem kimondani, hogy tudattal rendelkező algoritmusokat csinálunk. Egy másik előadásában egy ilyen nyílt egyetemi előadáson volt, hogy utána elkezdtek kérdeztek tőle: hogy hát onnantól kezdve, hogy valakiről azt mondjuk, hogy ő tudat algoritmus, tehát, hogy consciousness algoritmust használunk bizonyos dolgoknak a megoldására, onnantól kezdve, honnantól számít az, hogy most már ugye az ő jogait valamilyen módon védeni kell. És ez nem Westworld volt, hanem ez egy egyetemi előadás volt hat hónapja, vagy valami ilyesmi. Tehát ezek abszolút történnek és ugye a saját intelligenciánk dekompozíciója az abszolút történik, és annak a rekonstruálása mindenféle rendszereken keresztül.

H-T. L.: – Nem bírjuk ki, hogy ne ebbe az irányba menjünk, én nagyon úgy látom.

Sz. G.: – Abszolút nem bírjuk ki, hogy ne ebbe az irányba menjünk, de közben meg valahogy nagyon fel kéne készülni arra, hogy mi van akkor, hogyha véletlenül sikerül. Azt hiszem Musknak van erre egy jó hasonlata: hogyha azt mondanánk, hogy egy aszteroida be fog csapódni a földbe egy 20 év múlva, akkor úgy összefogna a világ, hogy mégse pusztuljunk el. Most ennél sokkal durvább az, hogyha létrejön egy általános mesterséges intelligencia, ennek mekkora hatásai lesznek, de mégse érezzük azt, hogy össze kéne fogni, hogy ez működjön. Miközben persze vannak kutatások erre vonatkozólag, de nem érezzük ezt egy ilyen kollektív veszélynek vagy egy ilyen nehézségnek. Egyébként pont Musk szokta ezt mondani, hogy ez egy ilyen nagyon erős hübrisz tán, egy önteltség. Azok, akik fejlesztik, azt gondolják, hogy ők majd okosabbak lesznek, mint az a rendszer, amit létrehoznak, de hogyha egy intelligencia rendszer jön létre, ami emberi szintű intelligencia, ami a saját kódját is tudja fejleszteni, amely az emberi intelligenciánkkal jött létre, amelynek a segítségével ő okosabb lehet akkor ugye ez, – hát attól függ, hogy ördögi vagy angyali kör, hogy honnan nézzük – de, hogy ez egy folyamatos spirál, hogy egyre intelligensebb és intelligensebb dolgok jöhetnek létre. Egy tök izgalmas másik irányú gondolkodás ugyanerről, hogy van ez az úgynevezett „élet 3.0” gondolkodási kör, vannak azok az életformák, amikre azt mondják, hogy ő nem tudja újra huzalozni se a hardverét, se a szoftverét. Mondjuk, egy papucsállatka: megvan a kód genetikában és a legtöbb állat nagyjából még ezen a szinten van. Egy kicsit néhánynál a szoftvert már újra lehet huzalozni, azaz képes tanulni a saját cselekedeteiből nemcsak meghalással. Ugye ez az evolúció lényege: halással tanulunk. Ehhez képest az ember már egymástól tanulással is tud tanulni. Ez a „2.0”, amikor azt mondjuk, hogy a szoftver változtatható, a hardver nem változtatható, és azt hívják élet „3.0-nak”, mikor azt mondjuk: a szoftver és hardver is változtatható. A mesterséges intelligencia by default ilyen és, hogy ugye ezt szerették volna, vagy ezt szeretnék sok esetben a – Westword-ben ez van –, hogy én kicserélhessem a különböző tagjaimat, upgradelhessek.

H-T. L.: – És a vége az, amit a park tulajdonosa Mr. Delos próbál megvalósítani, csak aztán nem igazából jön össze, hogy őt reprodukálják és hát ez elvisz minket az örök élet kérdéséhez, úgyhogy most erről is hallgassunk meg egy-két gondolatmenetet Dolores és, aztán természetesen Dr. Ford tolmácsolásában.

„You never really understood. We were designed to survive. That’s why you built us. You hoped to pour your minds into our form. But your species craves death. You need it. It’s the only way you can renew, the only real way you ever inched forward. Your kind likes to pretend there’s some poetry in that, but really, it’s pathetic.”

– Zseniális, zseniális és akkor most Dr. Ford please!

„We’ve managed to slip evolution’s leash now, haven’t we? We can cure any disease, keep even the weakest of us alive, and one fine day perhaps we shall even resurrect the dead, call forth Lazarus from his cave. Do you know what that means? It means that we’re done, that this is as good as we’re going to get.”

– (hahotázik) Oké, tehát ezt mondta Dr. Ford, hát akkor, hogy is van ez az egész?

Sz. G.: – (nevet) Zseniális, tehát én ezekért a párbeszédekért imádtam ezt a Westworld-öt. Sokan azért nem szeretik, hogy milyen erőszakos meg, hogy ilyen az, embereket itt leigázzák a gépek, de hát ez egy filozófiai mű, pont ezért zseniális. És igen, ez egy elképesztően izgalmas téma, ahogyan mi evolúcióval fejlődünk, és ahogyan a saját történetünkből kiírtuk az evolúciót, mint fejlődési utat. És ugye választottunk másokat, a szoftveres fejlődést. Ezt a, hogyan tudunk saját magunknak a tudásával tovább és tovább és tovább menni, és ugye ezt a fajta tudatot próbálták őt beleönteni valami másik gépbe és akkor reprodukálni, átadni. Ugye itt viszonylag gyorsan eljutunk azokhoz a kérdésekhez, amelyeket szintén Musk szeret fejtegetni itt a Neuralink kérdésével, hogy ha én fenn akarom tartani a saját versenyképességemet, ugye az ilyen robotokkal, akkor valahogy updatelnem kell a hardvert is. Tehát, hogy valahogy ki kell terjesztenem azokat a képességeket, amelyekkel én rendelkezem. Ebben a témábanrengeteg kísérlet van már azon kívül, amit konkrétan a Neuralink csinál, hogy most már be lehet ültetni egy olyan kis chipet a koponyánkba, amelyben van tízezer olyan elektróda, amelyet közvetlenül az agyunk különböző részeibe rakosgatnak be, amely közvetlen olvassa az agyunknak a jeleit. – Gyorsan hozzátette, hogy nem csak egy ilyet lehet esetleg beültetni az agyagba, ha úgy érzed, ez kevés. – De mivel le lehet tapogatni azt a neurális mintázatot, amelyet különböző gondolatok vagy mozgások vagy érzések generálnak az agyunkban és valahol a cél, az ő szempontjából az az, hogy lehet valami külső hardvert csatlakoztatni az emberhez úgy, hogy ne, mondjuk, az ujjaink vagy a hangszálaink legyenek a közvetítőcsatorna, amin keresztül átadunk információt, hanem direktbe. Talán ehhez így jól kapcsolódik a másik nagy ilyen jövő hívő a Ray Kurzweil, aki egyébként a Nuance-nak is az egyik alapítója. Ő csinálta az első City mögötti beszéd motort, tehát, azért ő eltalált egy-két dolgot már. Neki van egy könyve, aminek az a címe, hogy How to Build a Mind. Abban végig játszik egy ilyen kis gondolatkísérletet, hogy így tegyük fel: károsodik az agyad és a károsodott agyrészt egy implantátummal tudják kicserélni, ami tulajdonképpen egy mesterséges neurálháló, csak nem, mint a gépi tanuláson, amiket ma használunk, hanem igazi szintetikus neuronokból áll. És ugye azt már tudjuk, hogy az agy át tud venni a károsodott részektől másik területre, tehát újra tudok tanítani bizonyos részeket más feladatok ellátására. És akkor azt mondjuk, hogy ezt a kis részt most vissza tudjuk tanítani arra, amit elvesztettünk, mondjuk a beszédképességünkre vagy a mozgás képességünkre, de aztán valami más is történik, és akkor egy újabb rész stb. stb., és akkor szépen szeletelve lecserélem az egész agyamat egy szintetikus agyra. Viszont onnantól kezdve ugye foghatom ezt az egészet és kihúzhatom ebből a kis akváriumból, amiben van, és berakom egy másik akváriumba és ezt az upgradet folyamatosan tudom csinálni, tehát mi van akkor, hogyha egy ilyen upgradeddel kerülök én ki a testemnek a szorításából és azt mondom, hogy a tudatom az átköltözött egy digitális vagy szintetikus agyi térbe. Hát ez ugyanaz a probléma, tehát, hogy ugye nagyon sokféleképen próbáljuk ezt az egészet megközelíteni és nem csak ilyen kísérletek vannak erre, hanem például volt egy majom, akit megtanítottak arra, – kapott egy olyan sisakot, ami tele volt szenzorokkal, ami mérte az agyi működését, ezekhez a szenzorokhoz hozzákötöttek egy bionikus kezet, egy harmadik kezet. Lekötözték a másik kettőt és elé raktak pár nagyon finom kis falatkát – addig izmozott az agyával, amíg rájött, hogy ezt lehet mozgatni, ezt a kezet és megtanult enni ezzel a harmadik kezével. Annyira megtanulta, hogy utána azt is tudta csinálni, hogy elengedték a másik két kezét és akkor rájött, hogy ő ezt teljesen normálisan tudja harmadik kézként használni és három kézzel eszik. Vagy egy kézzel eszik, kettővel vakarózik, tehát, hogy ami jólesik. Tehát az agya simán tudott még egy végtagot inkorporálni. Ezt elvitték egész odáig, hogy egy teljes testet is tudott működtetni. A fun kedvéért megcsinálták, hogy az egyik, az igazi majom az Amerikában volt, a robot majom az Japánban, és akkor megmérték, hogy az agyából a lábába menő ingerületátvitel az lassabb volt, mint az elektronikus jel, amit ugye az agyából utána elküldtek Japánba. Kis finomságok, amikből egy csomó rész már felfedezhető, tehát már nem annyira új sci-fi és ezért szerintem nagyon zseniális ez a Westworld, mert nem az van, hogy teljesen elvont, őrült koncepciókat próbálnak belekényszeríti; mondjuk egy Terminátor az klasszikusan ilyen.

H-T. L.: – Igen.

Sz. G.: – Hanem hogy ezek ilyen nagyon valóság alapú dolgok, ütögetjük ezeket a korlátokat, hogy ezek hogyan lesznek.

H-T. L.: – Mindig úgy kezdődik, hogy egy betegség vagy valamilyen hiányosság pótlására vagy ellensúlyozására jön létre a technológia és akkor nagyon örülünk, csak aztán mindig, amikor tovább gondoljuk, és akkor rájövünk, ez lehet, hogy valami olyasmi területre visz el, ami még számunkra ismeretlen és nem biztos, hogy minden szempontból jó.

Sz. G.: – Hát így van, pont a „Homo deus” Harari a „Homo deus” (című könyve) nagyon erősen erre hajaz. Ő vezeti be, hogyha upgradeljük az egyéni embereket és akkor létrejön egy ilyen szuperember kategória, akik mondjuk már genetikailag módosítottak, vagy mindenféle bionikus implantátumok van. Szerintem sokkal hamarabb kérdés lesz az, hogy ezek az emberek, akik szuper képességekkel rendelkeznek, hogyan viszonyulnak, azokhoz az emberekhez, akik nem rendelkeznek, mert nem olyan szerencsések, hogy mondjam… – olyan gazdagok legyenek, hogy ezeket mind, tudják finanszírozni maguknak. Hiszen valószínűleg nem lesz az alap orvosi ellátás része, hogy upgradeljem magamat.

H-T. L.: – És Hararinek sincs túl sok reménye arra nézve, hogy ez így lesz. Ha már itt tartunk a Super Humanek világánál, de ha már Super Humanek akkor van, ez a szuper AI kérdése, ami megint csak egy ilyen állandóan visszatérő motívum és természetesen a Westworld sem hagyhatta ki: nem elég, hogy itt vannak ezek a hostok, akik éreznek és emlékeznek, és megsértettek és szabadok akarnak lenni és ott élnek a parkon belül, hanem mindennek a tetejébe már van egy jó kis super AI, ami az egész bolygót áthatja és igazából mindenkinek gyakorlatilag már a saját életét is napi szinten befolyásolja, és amikor Dolores Calebbel beszélget, akkor Calebnek megpróbálja felnyitni a szemét, és azt mondja:

„It’s not about who you are. It’s about who they’ll let you BECOME.”

– Ez egy nagyon érdekes felvetés és mondjuk azok után, hogy megnézi az ember a Netflixnek „The Social Dilemma” című filmjét, ami ugye többek között arról szól, hogy a nagy tech cégek gyakorlatilag csomó szempontból kvázi manipulációra használják fel a birtokunkban lévő adattömeget és kvázi abba az irányba tolják el az egészet, hogy az embereket megváltoztassák, hát akkor ez az idézet ezért kicsit elgondolkodtató, nem?

Sz. G.: – Abszolút, szerintem ez egy sokkal közelebbi megragadása annak, amitől igazán félni kell, mint az, hogy a nagy emberalakú gépek, majd jól megütnek minket, aztán fájni fog. Szokták kérdezni is tőlem, hogy úristen, akkor már lehet a vadászgépet is fogják vezetni ezek a mesterséges intelligencia szoftverek? Mondtam, hogy bizony lehetséges, de azért építettünk így vadászgépeket, mert az ember csak így tudja vezetni és ennél sokkal többféle módon tudja vezetni a mesterséges intelligencia. Tehát nem kell neki ekkora gép, hogy elvigyen egy ekkora testet, hanem ő lehet egy drón formátumában vagy lehet egy algoritmus formátumában is. Ez az, amit tényleg tökre kihagytak, és nem hozták bele ebbe az egész Westworld témába, hogy soha nem engedik fel ezeket a szerencsétleneket a világhálóra. Tehát, hogy mindig egy kis kapszulában, gömbben vannak, amit valaki el tud pusztítani. Míg ma egy cloudban egymilliárd replikát csinálhat magáról és akármikor előveheti a következő részét Dolores, abban a világban, tehát nincsen bezárva ő egy ilyen testbe. Pont ezek a fajta algoritmusok, amelyek nem arról szólnak, hogy én általános tudattal rendelkezem, hanem pont egy célra vagyok rá hangolva, mint például ezek a profilírozó algoritmusok, amiket nyilván a Social Dilemma az nagyon erősen abba az irányba tol, hogy ezek a genyók manipulálni akarnak minket. Ugye volt egy pár ilyen dolog már a világtörténelem során. Aztán megtanultunk velük élni. Nyilván ott az az argument, hogy „de most a másik oldalon egy nálunk intelligensebb dolog van”, de aztán tudunk a mi oldalunkra is rakni egy intelligensebb dolgot. Nyilván az MI Stratégiának is azért vannak ilyen irányú megcélzásai. Tehát, hogy az a módszertan, hogy folyamatosan, tömegesen testre tudom szabni azokat az üzeneteket, amelyek embereket érdekelnek azért, hogy amilyen irányba én szeretném, hogy menjenek, ami igazából azt jelenti, hogy vásároljanak, abban előrébb menjünk, azt gyönyörűen leképezi ez az egész világ, mármint a Westworld. Hogy milyen mértékben lehet általános profilokat csinálni emberekről, hogy egyszerű valószínűségszámítással mennyire le lehet korlátozni azt, hogy neki mennyire van szabad akarata vagy szabad kilátásai. Persze ez egy olyan kérdés is lehet, hogy ez mennyire egy mítosz, hogy nekünk van szabad akaratunk, meg szabad kilátásunk. Ugye ismerjük a szociológiai kutatásokat, hogy a valóságban hányan tudnak kitörni, azokból a körülményekből, amelyekbe beleszülettek. Hogy mennyivel többet számít egy nyitó családi  háttér sem, mint mondjuk az, hogy most akkor valaki hardworking. Ettől még megvan ez a lehetőség – én is nagyon hiszek benne – ettől még nagyon-nagyon durva szembenézni azzal, hogy milyen mértékben kiszámíthatóak vagyunk valószínűségszámítások mentén. És ezt hát a végletekig áttolják a Westworld-ben, hogy így milyen mértékben vagyunk profilírozva és hogy mennyire egyoldalú ez az egész történet. Én ezért szerettem, és meg mert így feldobálnak olyan kérdéseket, amelyek azért, ha belegondolunk, hogy a társadalmi stabilitás az fontos és ennek érdekében embereket bizony szabad akaratuk ellenére bezárunk a börtönbe, mert nem úgy viselkednek, ez az egész ebben hogyan határoz, hogyan használhatjuk mondjuk a profilírozását. Amiben baromi jól körbe lehet lőni mondjuk azt, hogy ki mennyire agresszív, ki mennyire valószínű, hogy fegyveres konfliktusba fog keveredni, radikalizálódik. Ha radikalizálódásra hajlamos, akkor azzal én mit kezdhetek? Az még csak egy hajlam, de a társadalmi stabilitás szempontjából meg egy nagyon fontos kérdés. Tehát, hogy ezek olyan kérdések, amelyekre szerintem ma még nem tudjuk igazából a válaszokat, mert olyan értékrendi dilemmákat nyitnak ki, amelyekkel korábban nem kellett szembenézni.

H-T. L.: – Hát igen dilemmák és veszélyek, és ha már itt tartunk, akkor említsük meg Kai-fu Lee, „AI pápa” egyik legutóbbi mondását, ő azt mondta: az AI a VR-ral kombinálva lehet egy eléggé érdekes terep, ő ott lát egy hihetetlen függőséget, amit ez az egész kombináció előidézhet. Főleg a fiatalok körében, amiből aztán egyszerűen nem fognak tudni kitörni. De ugye említetted már Muskot, aki Joe Rogan-nél is filozofálgatott az AI-nál és ott arra jutottak, hogy gyakorlatilag ez egy „out-of-control countdown” ez már egy kicsit teátrális megfogalmazás volt.

„It could be terrible, and it could be great. It's not clear. But one thing is for sure, we will not control it.”

– Na tehát Musk azt mondja, hogy nem fogjuk nem fogja tudni kontrollálni. Nem tudom, neked mi a félelmed? Van-e ilyen félelmed vagy, hanem ez, akkor mi?

Sz. G.: – Hát én azt hiszem, annak a mainstreamnek a híve vagyok, hogy előbb használjuk valami rosszra, mielőtt már általános intelligencia lesz és előbb használjuk arra, hogy egymást bántsuk, mint az, hogy már ő tud minket bántani. Tehát azt, hogy ez egy különálló intelligencia legyen és akkor aztán fel fog nőni odáig, hogy már a saját szándékából bántani akarjon minket, én ezt kevésbé tartom valószínűnek, mint azt, hogy létrehozunk olyan magas szintű mesterséges intelligencia alapú hekkertámadásokat mondjuk, – lásd egy korábbi epizód – azok sokkal nagyobb károkat fognak tudni okozni. Vagy olyan autonóm fegyverkezési megoldásokat, ahol azt mondjuk, hogy olyan mértékben erőfölénybe kerülhet az egyik fél, – a mai ugye az nagyjából erőegyensúlyra épül – hogy azt tudja mondani, hogy akkor oké, mostantól akkor rászállok mindenkire. Ezek azok, amik sokkal jobban elképzelhetőek, ami sokkal inkább történik, mint például, ami 2016-ban történt, vagy akár a brexitnél is történt, nagymértékű demokrácia torzítás tehát, olyan befolyásolása tömegeknek a szociális médiaeszközök által, – akinél a pénz van, annál van a befolyásolási lehetőség – ami totálisan átalakít bizonyos játékszabályokat, hogy ezeket hogyan lehet működtetni, és így nem vagyunk rá felkészülve se szabályozásilag, se tudatilag, hogy ez egy valami, amivel nekünk gazdálkodnunk kell: az a mi figyelmünk. Az nem egy természetes dolog, hogy akkor én valamire figyelek és az úgy azért jó lesz, hanem az egy irányítható dolog és azon keresztül az én viselkedésem is, egy irányítható dolog. Én személyesen ilyen szempontból is optimista vagyok, hogy erre fel lehet készülni és hogy fel lehet készíteni, nem felkészíteni, hanem hogy hát szóval fel tud készülni egy társadalom, de nem úgy, hogy így tanítgatjuk őket, hanem úgy, hogy engedjük, hogy játszanak. Szeretem ezt a hasonlatot: az ipari forradalom kezdetén senki nem tudta igazából, hogy mi az, hogy idő. Végképp nem, hogy mi az, hogy munkaidő, mert igazából addig kiment reggel, kapált, amikor harangoztak, bement, kajált, aztán este lefeküdt, de nem az volt, hogy most ő nyolc órát dolgozik vagy tízet vagy tizenhatot. Nem is tudjuk, hogy hány órákat dolgoztak az emberek, mert ez nem volt téma. Amikor viszont már nyolc, tíz, tizenhat órákat dolgoztak gyerekek is, elkezdtünk szabályokat hozni, hogy mennyi időt lehet dolgoztatni embereket. Akkor hirtelen ez egy témává vált, egy szabályozható dologgá, de ehhez meg kellett jelennie ennek gondolkozási térben. Most ugyanitt tartunk egyébként azzal is, hogy mi az emberről szóló adat, az adatokat, mire lehet használni, a saját figyelmünk, mintegy erőforrás, az mennyire használható. Használható ki, használható ellenünk. Ugye van egy külön tudományág ez a cognitive behavioral science, aminek a lényege, hogy hogyan tudjuk az emberek viselkedését változtatni azon keresztül, hogy apró pici kis ún. nudge-okat adunk neki, – nem is tudom magyarul ezt, hogy mondják – de pici kis irányba mutogatások, hogy akkor ő végül is vásároljon valamit. Mindig az a feltételezés, hogy az egyéni fogyasztó ebben egy valid partner tud lenni, tehát ő el fogja tudni dönteni, hogy végül is akar-e venni, mit tudom én turmixgépet. Én csak abba az irányba akarom vinni, hogy az én márkámat vegye. Nem azt, hogy at all vegyen-e turmixgépet. De ettől még, ha ezt összeadjuk, ezt az egészet, akkor még nincsen párja ennek az egésznek és én abban bízom, meg hiszek, hogy amilyen irányba tud menni az Európai Unió, az pont ez, hogy ezekbe a csapdákba, az emberek hogyan tudnak beleesni és hogyan tudjuk megvédeni őket, ezektől a léptékű változásoktól, nehézségektől.

H-T. L.: – Azt gondolom, hogy rengeteg mindent átvettünk, de akkor talán zárjuk egy nagyon pozitív felütéssel ezt a beszélgetést és akkor nyugtassuk meg a hallgatókat, hogy ezért mi mindent megteszünk, annak érdekében, hogy minden jóra forduljon és minden jó legyen. Gondolok itt elsősorban a Mesterséges Intelligencia Stratégiára és a vonatkozó szabályozási kérdésekre, hogy állunk itt, mik a tervek?

Sz. G.: – Az MI Stratégia az nem arra készült, hogy az általános mesterséges intelligencia hozta veszélyeket általában megoldja. Azt feltételezzük, hogy ez messze azon időtávon túl van, tehát 2030-on túl, ahol ez az egész stratégia cselekedni akar, amire viszont nagyon készülünk és nagyon gondoljuk, hogy ez fontos az pont az, hogy hogyan lehet helyzetbe hozni az embereket abban, hogy tudatosabbak legyenek abban, hogy ők mi mindennel kell, hogy gazdálkodjanak és hogyan tudunk eszközöket adni a kezükbe abban, hogy ők értsék, hogy mit jelent az, amikor az adatokat gyűjtik róluk és akkor ezért szolgáltatásokat kapnak. Mert ez egy Fair Trade lehet, csak most nem az. Most ugye az van, hogy mindenki gyűjt mindent, mint az őrült, mert látják, hogy mennyi mindent lehet belőle kihozni, hogyha azon keresztül befolyásolni lehet embereket, de ebben az embernek nincsen szerepe. Több olyan pont is van ugye, például az adattárca, ami arról szól, hogy hogyan lehet az embert helyzetbe hozni, technológiailag helyzetbe hozni, nemcsak jogszabályilag, mert a GDPR megteremti ezeknek a jogi kereteit, hanem technológiailag úgy helyzetbe hozni, hogy ő élni tudjon azokkal a lehetőségekkel, amelyeket a jog teremt. Merthogy ezek mögött a nagy rendszerek mögött mindenhol nagyon kifinomult hatásmechanizmusok vannak, amelyek nem arra építenek, hogy tudatosak a fogyasztók, hanem arra, hogy mi kell ahhoz, hogy én áttörjem az ő figyelmi szintjét. Ezzel kell megtanulnunk versenyezni, hogy olyan szintű technológiai megoldásokat találjunk, amely az emberek érdekében van és mégis képes átütni ezt a fajta figyelmi szintet és olyan mechanizmusok vannak mögötte, amelyek építik a mögötte lévő ökoszisztémát, tehát a jó irányba mechanizmusok és nem csak ilyen nagy falak vannak, amelyeket aztán tök nehéz működtetni.

H-T. L.: – Erre az optimista felhangra rakjunk rá még egy lapáttal, egy jó nagy adag optimizmust méghozzá stílusosan, egy optimista Dolores idézettel:

„There is ugliness in this world …I choose to see the beauty.”

– Ó, igen! Hát azt gondolom, hogy ennél szebben valóban nem búcsúzhatunk. Nagyon szépen köszönjük, hogy itt voltál Gergő, és megosztottad velünk, ezeket a szuper és értékes gondolatokat.

Sz. G.: – Én is nagyon köszönöm! Kíváncsian várom, hogy hogyan cselekszünk ezek mentén együtt.

H-T. L.: – Rendben és akkor én viszont azzal búcsúzom, hogy „freeze all motor functions”! A hallgatóságnak pedig köszönjük a figyelmet! A technikát továbbra is Nőthig Ádám kollégám varázsolja, mint ahogy fogja a következő adásban is és reméljük, hogy ő is megnézi végre a Westworld-öt, mert ezzel még tartozik. Pedig ez a munkaköri leírásának a része volt! Ezt még számon kell rajta kérnünk. Minden esetre találkozunk legközelebb! Kövessetek minket kedvenc podcast lelőhelyeteken, illetve böngésszétek új gyűjtőoldalunkat, az ai-hungary.com-ot. Sziasztok!

Ez volt az MI Stúdió, ahol a legmenőbb szakértők segítségével fejtjük meg a mesterséges intelligencia rezdüléseit. Az MI Stúdió, az MI Koalíció podcastja, amely a hazai mesterségesintelligencia ökoszisztéma szakmai fórumaként működik. Még több tartalomért kövesd az MI Stúdiót a nagyobb podcast-platformokon és ne felejtsd el értékelni az adást! Az észrevételeket, megjegyzéseket az [email protected] e-mailcímre, vagy a Mesterséges Intelligencia Koalíció közösségi médiafelületen várjuk. Találkozunk a következő epizódban!

Hallgass minket a Spotify-on !

Hallgass minket Anchor-on!

Házigazda

Hörömpöli-Tóth Levente

MI Koalíció kommunikációs vezető

Vendége

Gergyely Szertics

MI koalíció szakmai vezető