Technológia

Bízhatunk az AI-ban?

Amint a mesterséges intelligencia (AI) rendszerei egyre összetettebbé válnak, előrejelzések készítésére – vagy inkább prediktív modell-eredmények generálására – használják életünk egyre több területén. Ugyanakkor egyre növekszik az aggodalom a megbízhatósággal kapcsolatban, a bonyolult mesterséges intelligencia-előrejelzések egyre nagyobb hibahatárai között. Hogyan kezelhetjük ezeket az aggályokat?

A menedzsment tudomány olyan eszközöket kínál, amelyek megbízhatóbbá tehetik az mesterséges intelligencia-rendszereket Thomas G Dietterich, emeritus professzor és az Oregoni Állami Egyetem intelligens rendszerek kutatásának igazgatója szerint.

A webinárium a Nemzetközi Telekommunikációs Unió (ITU) által szervezett AI for Good platformon Dietterich elmondta a hallgatóságnak, hogy a fegyelem, amely az emberi döntéshozókat a játékuk tetejére emeli, a gépekre is alkalmazható.

Ez miért fontos? Mert az emberi megérzés még mindig ver AI kézenfogva válsághelyzetben ítélkezési felhívás. Az emberek – és különösen azok, akik tapasztalataik és szakértelmeik területén dolgoznak – egyszerűen megbízhatóbbak.

Tanulmányok a kaliforniai Berkeley Egyetem munkatársai, Todd LaPorte, Gene Rochlin és Karlene Roberts tudósok megállapították, hogy szakemberek bizonyos csoportjai, például a légiforgalmi irányítók vagy az atomerőművek üzemeltetői, még a magas kockázatú helyzetekben is nagyon megbízhatóak. Ezek a szakemberek képesek kifejleszteni a hibák észlelését, visszatartását és az azokból való felépülést, valamint az improvizációs problémamegoldást – mondta Dietterich.

Ennek oka a „kudarccal való elfoglaltságuk”. Folyamatosan figyelik az anomáliákat és a közeli baleseteket – és ezeket a rendszer lehetséges hibamódjának tüneteiként kezelik. Az anomáliákat és a közeli hiányokat, ahelyett, hogy félretennék, tanulmányozzák a lehetséges magyarázatok érdekében, általában egy sokszínű, széles körű specializációval rendelkező csapat. Az emberi szakemberek jóval magasabb szintű „szituációs tudatosságot” hoznak, és tudják, mikor kell elhalasztaniuk egymás szaktudását.

Ezek az alapelvek hasznosak, ha azon gondolkodunk, hogyan lehet egy teljesen önálló és megbízható mesterséges intelligencia-rendszert felépíteni, vagy hogyan lehetne megtervezni az emberi szervezetek és az AI-rendszerek együttműködésének módjait. Az AI rendszerek magas szituációs tudatosságra tehetnek szert, köszönhetően a több forrásból származó adatok integrálásának és a kockázatok folyamatos újraértékelésének.

A jelenlegi mesterséges intelligencia-rendszerek azonban jól alkalmazkodnak a helyzetfelismeréshez, de kevésbé hatékonyak az anomáliák felderítésében, és nem képesek megmagyarázni az anomáliákat és improvizálni a megoldásokat.

További kutatásokra van szükség, mielőtt az AI-rendszer megbízhatóan azonosíthatja és megmagyarázhatja a közeli baleseteket. Rendszereink vannak, amelyek képesek diagnosztizálni az ismert hibákat, de hogyan diagnosztizálhatunk ismeretlen hibákat? Mit jelentene, ha egy AI rendszer improvizatív problémamegoldással foglalkozna, amely valahogy kiterjesztheti a lehetőségek terét azon kezdeti problémán túl, amelynek megoldására a rendszert programozták?

Közös mentális modell

Ahol az AI rendszerek és az emberek együttműködnek, közös mentális modellre van szükség. Az AI nem bombázhatja emberi társait irreleváns információkkal, emellett meg kell értenie és képesnek kell lennie megjósolni az emberi csapatok viselkedését.

A gépek kiképzésének egyik módja az anomáliák megmagyarázására vagy a spontaneitás kezelésére az expozíció lehet előadóművészet. A melashourne-i Monash Egyetem és a londoni Goldsmiths Egyetem kutatói és zenészei arra vállalkoztak, hogy feltárják, képes-e az AI improvizatív zenészként fellépni egy fantomdzsem munkamenet.

A szabadon folyó, spontán improvizációkat gyakran a kreatív művészi együttműködés valódi kifejezésének tekintik a zenészek között. A „zavaráshoz” nemcsak zenei képességekre van szükség, hanem bizalomra, intuícióra és empátiára is szükség van a bandatársaival szemben.

A tanulmányban az első beállítás, a „Papagáj”, megismétli a lejátszottakat. A második rendszer önállóan játszik hangokat, függetlenül az emberi zenész közreműködésétől. A harmadik szintén teljes autonómiával rendelkezik, de megszámolja az emberi zenész által lejátszott hangok számát a zene energiájának meghatározásához. A negyedik és legbonyolultabb rendszer felépíti az emberi művész zenéjének matematikai modelljét. Gondosan meghallgatja, mit játszanak a zenészek, és statisztikai modellt épít a hangokról, azok mintázatairól, sőt tárolja az akkordszekvenciákat.

Ehhez az emberi / mesterséges zavaró munkamenet-megközelítéshez hozzáadva Dietterich további két ígéretes megközelítést lát a javítani és matematikailag „garantálni” a megbízhatóságot.

Az egyik egy kompetenciamodell, amely a kvantilis regressziókat kiszámíthatja az AI viselkedésének előrejelzésére, a „konform előrejelzés” módszerrel további korrekciók elvégzésére. Ez a megközelítés azonban sok adatot igényel, és hajlamos a téves értelmezésre.

A másik módszer az, hogy az autonóm rendszereket nyílt kategóriás észleléssel kezeljék „ismeretlen ismeretlenikkel”. Például egy önvezető, európai utakon kiképzett autónak problémái lehetnek a kengurukkal Ausztráliában. A címkézetlen adatokat használó anomália-detektor segíthet az AI-rendszernek a meglepetésekre való hatékonyabb válaszadásban.

Mivel az AI-t életünk egyre több területén alkalmazzák, világossá válik, hogy az AI átvétele a gépek rémálma-forgatókönyvétől messze nem az egyetlen módja annak, hogy megbízhatóbbá és hatékonyabbá váljon minden eddiginél szorosabb szimbiózis az emberi rendszerek és az AI rendszerek között. Csak akkor támaszkodhatunk valóban az AI-re.

Fred Werner az ITU Telekommunikációs Standardizációs Irodájának stratégiai elkötelezettségének vezetője