Tudomány

Miért kell az AI-től félni tőlünk?

A mesterséges intelligencia fokozatosan felzárkózik a mieinkhez. Az AI algoritmusok most következetesen képesek legyőzni minket sakk, póker és többjátékos videojátékok, képeket generál az emberi arcokról, amelyek megkülönböztethetetlenek a valósaktól, írjon híreket (nem ezt!) és akár szerelmi történetek, és jobban vezetnek autókat, mint a legtöbb tizenéves.

De az AI még nem tökéletes, ha a Woebot bármilyen mutató. Woebot, ahogy Karen Brown írta a héten a Science Times-ban, egy AI-alapú okostelefon-alkalmazás, amelynek célja alacsony költségű tanácsadás, párbeszéd segítségével a felhasználókat a kognitív-viselkedési terápia alapvető technikáin keresztül vezetik. De sok pszichológus kétségbe vonja, hogy egy AI algoritmus képes-e valaha kifejezni azt a fajta empátiát, amely szükséges az interperszonális terápia működéséhez.

“Ezek az alkalmazások valóban lecsökkentik azt az alapvető összetevőt, amely – a bizonyítékok sokasága azt mutatja – az, ami segít a terápiában, amely a terápiás kapcsolat” – Linda Michaels, chicagói terapeuta, a Pszichoterápiás Akcióhálózat, egy szakmai csoport társelnöke – mondta a The Times.

Az empátia természetesen kétirányú utca, és mi emberek nem sokkal többet mutatunk be a botok számára, mint a botok. Számos tanulmány azt találta, hogy amikor az emberek olyan helyzetbe kerülnek, hogy együttműködhetnek egy jóindulatú mesterséges intelligenciával, akkor kevésbé valószínű, hogy ezt megtennék, mintha a bot tényleges ember lenne.

“Úgy tűnik, hogy hiányzik valami a kölcsönösségről” – mondta nekem Ophelia Deroy, a müncheni Ludwig Maximilian Egyetem filozófusa. “Alapvetően egy tökéletes idegennel bánnánk jobban, mint az AI”

Egy nemrégiben készült tanulmányban, Dr. Deroy és idegtudós kollégái megértették, miért van ez. A kutatók emberi alanyokat láthatatlan partnerekkel, néha emberi, néha mesterséges intelligenciával párosítottak; ezután mindegyik pár klasszikus gazdasági játékok sorozatát játszotta – a Trust, a Rab Dilemma, a Chicken and Stag Hunt, valamint az általuk létrehozott Reciprocity néven -, amelyek célja az együttműködés kimutatása és jutalmazása volt.

Az AI iránti viszonosság hiányáról általában azt feltételezzük, hogy a bizalom hiányát tükrözi. Végül is hiper-racionális és érzetlen, minden bizonnyal csak magának való, valószínűtlen, hogy együttműködjön, akkor miért kellene? Dr. Deroy és munkatársai más és talán kevésbé megnyugtató következtetésre jutottak. Vizsgálatuk szerint az emberek ritkábban működtek együtt egy botdal akkor is, amikor a bot szívesen együttműködött. Nem arról van szó, hogy nem bízunk a botban, hanem az, hogy igen: A bot jóindulatú, nagybetűs S balek, ezért kihasználjuk.

Ezt a következtetést támasztották alá a tanulmány résztvevőivel folytatott beszélgetések. “Nemcsak hajlamosak voltak viszonozni a mesterséges szerek kooperatív szándékait” – mondta Dr. Deroy. “De amikor alapvetően elárulták a bot bizalmát, nem jelentettek bűntudatot, míg az embereknél igen.” Hozzátette: “Csak figyelmen kívül hagyhatja a botot, és nincs olyan érzés, hogy bármilyen kölcsönös kötelezettséget megsértettél volna.”

Ennek valódi következményei lehetnek. Amikor az AI-re gondolunk, hajlamosak vagyunk a jövõbeli világunk Alexasára és Sirisére gondolni, akikkel valamiféle faux-intim kapcsolatot alakíthatunk ki. De a legtöbb interakciónk egyszeri, gyakran szótlan találkozás lesz. Képzelje el, hogy autópályán halad, és egy autó be akar olvadni előtted. Ha azt veszi észre, hogy az autó vezető nélküli, akkor sokkal kevésbé valószínű, hogy beengedi. És ha az AI nem veszi figyelembe rossz viselkedését, baleset következhet be.

“Ami a társadalomban bármilyen szinten fenntartja az együttműködést, az bizonyos normák megállapítása” – mondta Dr. Deroy. „A bűntudat társadalmi funkciója pontosan az, hogy az embereket olyan társadalmi normák betartására késztesse, amelyek kompromisszumok megkötésére, másokkal való együttműködésre késztetik őket. És nem fejlődtünk ki arra, hogy társadalmi vagy erkölcsi normáink legyenek a nem érző lényekkel és botokkal szemben. “

Ez természetesen a „Westworld” fele előfeltétele. (Meglepetésemre Dr. Deroy még nem hallott az HBO sorozatról.) De a bűntudattól mentes tájnak következményei lehetnek, megjegyezte: „A megszokás teremtményei vagyunk. Tehát mi garantálja, hogy az a viselkedés, amely megismétlődik, és ahol kevesebb udvariasságot, kevesebb erkölcsi kötelességet, kevesebb együttműködést mutat, nem színesíti és nem szennyezi a viselkedés többi részét, amikor más emberrel lép kapcsolatba?

Az AI-re is hasonló következmények vannak. “Ha az emberek rosszul bánnak velük, akkor be vannak programozva, hogy tanuljanak a tapasztalataikból” – mondta. “Az útra bocsátott és jóindulatúnak programozott AI-nek kezdnie kell lennie az embernek, mert különben örökre elakad a forgalomban.” (Ez alapvetően a „Westworld” előfeltételének másik fele.)

Itt van: Az igazi Turing-teszt a közúti düh. Amikor egy önvezető autó vadul dudorászni kezd hátulról, mert levágja, akkor tudja, hogy az emberiség elérte a teljesítmény csúcsát. Remélhetőleg addigra az AI-terápia elég kifinomult lesz ahhoz, hogy segítsen a sofőr nélküli autóknak megoldani haragkezelési problémáikat.