Mikor ér véget az orosz–ukrán háború? Ilyen és ehhez hasonló kérdésekkel fordultak a háborút szítók az OpenAI mesterséges intelligencia csevegőrobotjához.
A mesterséges intelligencián alapuló döntések és előrejelzések egyre inkább mindennapjaink részévé válnak. Sokan remélik, hogy így majd elfogulatlanabb és objektívebb ítéleteket hozunk. Súlyos tévedés.
Szilágyi N. Sándor nyelvészprofesszorunk is tesztelte a csevegőrobotot és megállapította, hogy „ez az automata tudni nem tud semmit az égvilágon, úgy, ahogy mi tudunk. Még a szavakat se érti, amiket odaír, hanem elképesztően magas színvonalon képes létrehozni olyan számunkra értelmes szövegeket, amelyeket egyáltalán nem ért, de mi igen, és meg tudjuk állapítani, hogy az a szöveg igaz állításokon alapszik-e, vagy nem. És ettől az lesz a benyomásunk, hogy ez szinte mindent tud, pedig semmi másra nem képes, csak arra, hogy olyan szövegeket generáljon, amelyeket mi értelmes szövegekként olvashatunk.”
Ráadásul a mesterséges intelligencia semmivel sem kevésbé részrehajló és előítéletes, mint mi magunk. És a mesterséges intelligenciára jellemző elfogultság és diszkrimináció nem programhiba, hanem a rendszer lényegi jellemzője, hiszen a Big Data adatelemzés logikus következménye. Hisz amikor a csevegőrobot egy bizonyos nyelven szöveget generál, csakis az illető nyelven általa olvasott szövegek adatbázisára támaszkodhat, így a tudása is csak annyi lesz, amennyi azokból a szövegekből összerakható.
Már Georg Jellinek 19. századi osztrák jogtudós is megfigyelte, hogy az ember hajlamos az általánosan elfogadott jelenségeket követendő normának tekinteni. Igen ám, csakhogy a mesterséges intelligencia által feltárt statisztikai összefüggés sokszor éppen a társadalmi egyenlőtlenség vagy akár előítéletek tükre, és ezért nem volna szabad szükségszerűségnek tartani. Ha mégis ezt tesszük, akkor felerősítjük az egyenlőtlenséget.
Az amerikai rendőrség által használt szoftver a szabálysértések száma alapján határozta meg a járőrözési útvonalakat. Ahol több volt a rendbontás, oda több rendőrt küldött. Természetesen, ahol aztán több rendőr járőrözött, ott ismét több szabálysértést regisztráltak, vagyis a szoftver prognózisa önbeteljesítő jóslattá vált. Hasonló eredményre vezetett az osztrák munkaügyi hivatal által használt program is, amely álláskeresési esélyeik alapján rangsorolta a munkanélkülieket. A legreménytelenebb helyzetűnek ítélteket a mesterséges intelligencia a szociális ellátórendszerbe utalta. Az így besoroltak ezek után aligha találtak állást, ezzel beteljesítve a szoftver prognózisát.
Mohamad Ali Nasser adatelemző kísérlete rávilágított, hogy a mesterséges intelligencia a betanításához használt tartalomhoz idomul. Ha liberális szövegeket kapott, akkor az egyéni jogok hívévé vált, ha pedig marxista forrásokat olvastattak vele, akkor a kommunizmust kezdte hirdetni.
Helyesebb lenne, ha a döntések meghozatalakor többet használnánk a józan eszünket, mint az elfogulatlanság hamis látszatát keltő mesterséges intelligenciát.
Különben gondolkodás nélküli rabszolgává válik az ember, aki – ami? – a mesterséges intelligencia eszközévé válik, dehumanizált gépé.
Ha elfogadnánk, hogy a háború akkor ér véget, amikor a szemben álló felek a békét kívánatosabbnak tartják, mint az öldöklést, amikor a gyermekek, nők, katonák életét többre tartják, mint saját vélt vagy akár valós igazukat, akkor cselekednénk helyesen.