14:55-kor kezdődik ma a Rex Kanadában című sorozatunk új epizódja a STORY4-en, amelyben egy önvezető autó megalkotóját találják holtan a kocsijában. Szemtanú nincs, legfeljebb az áldozat robotkutyája segíthet Charlie Hudson nyomozónak, de emiatt senki se aggódjon, egészen biztosan meg fogja oldani az ügyet.

Koncentráljunk inkább az önvezető autókra, azok csupa izgalmas kérdést vetnek fel, amelyek a kezdetektől nemcsak a szó szoros értelmében vett fejlesztőket, hanem más szakmabelieket, és előbb-utóbb a technológia fejlődése iránt különböző okokból érdeklődőket is foglalkoztatni kezdték. Annyira, hogy abból olyan érdekes jelenségek lettek, mint a Moral Machine, a Massachusetts Institute of Technology kezdeményezése, illetve az akörül zajló társadalmi párbeszéd.
A Moral Machine egy olyan platform volt, amelyen a látogatók kinyilváníthatták, erkölcsileg milyen döntést tartanak helyesnek olyan helyzetekben, amelyekkel a mesterséges intelligencia szembesülni fog. Például olyan esetekben, amikor egy önvezető autó érzékeli, hogy a baleset elkerülhetetlen, és döntenie kell, ki sérüljön és ki ne – a gépet ugyanis előre fel kell készíteni ezekre a helyzetekre is. Természetesen nem egyszemélyes projekt volt; Edmond Awad, Iyad Rahwan és Sohan Dsouza nevéhez fűződik a Moral Machine, munkájukat Azim Shariff és Jean-Francois Bonnefon támogatták.
„Erkölcsi dilemmákat generálunk, amelyekben egy vezető nélküli autónak két rossz közül kell kiválasztania a kisebbiket, mint például hogy a kivédhetetlen ütközés két utast öljön meg, vagy öt gyalogost. Az emberek külső szemlélőként dönthetik el, melyik végkifejletet találják elfogadhatóbbnak, összehasonlíthatják a válaszaikat másokéival“ – írják a 2016-2020 között aktív projektről az MIT erre vonatkozó honlapján. A kutatási fázis tehát már véget ért, de számtalan érdekes cikket írtak róla, amelyekből például kiderül, mennyiben befolyásolja a származásunk az ilyen kérdésre adott válaszainkat (eléggé), és hogy vannak-e nagy egyetemes igazságok a témában arról, mit tart elfogadhatónak az Emberiség, úgy kollektíve.
Mint ez a remek összefoglaló írja, van három erős preferencia, amelyből kiindulhatunk, ha szabályozni akarjuk a gépek „gondolkodását” etikai kérdésekről: az emberi élet védelme, a több élet védelme és a fiatalok életének védelme. Vagyis a megkérdezettek többsége olyan válaszokat adott, amelyek inkább ezeknek kedveznek. „A tanulmány úgy tekint a gépi etikára, mint egyedülálló lehetőség közösségként eldönteni, mit hiszünk helyesnek és helytelennek; illetve meggyőződni róla, hogy a gépek, nem úgy, mint az emberek, tévedhetetlenül követik ezeket az erkölcsi kívánalmakat. De amikor megkérdeztem Shariffot, hogy mit gondol az emberi előítéletekről, amelyet az adatok tükröznek, nevetett és azt mondta, ez azt jelzi nekünk, hogy nem szabad a döntést teljes mértékben az emberekre bíznunk.”
A dolgot különösen érdekessé teszi, hogy míg az ember hajlamos megbocsátani önmagának, illetve másoknak (főleg, ha szeretetteljes a viszonyuk), egy gép esetében gyakorlatilag megengedhetetlennek tartjuk a tévedést, az ilyen terméket hibásnak gondoljuk, és már cserélnénk is vissza. Na de hogy néz ez ki egy ilyen, erkölcsi szempontból szürkeárnyalatos rendszerben, ahol jó válasz nincs?
Mindezeket a kérdéseket érdemes feltenni maguknak, önismereti felfedezőútnak is jó ez a projekt, ha a mi eredményeink már nem is számítanak már benne semmit.