A Stanford kutatói felfedezték, hogy az AI szociopata lesz, ha arra utasítják, hogy versenyezzen a közösségi médiában a lájkokért.
Mielőtt nagyon belemegyünk abba, hogy milyen emberi tulajdonságokat is vesz fel egy AI bizonyos körülmények között, tisztázzuk a hivatalos definícióját annak, hogy mi is az a szociopata. A legegyszerűbb az, ha rögtön Harley Quinn-re gondolunk, Joker barátnőjére a Batman univerzumban. Ha ez nem elég, akkor érdemes tudni, hogy az antiszociális személyiségzavar, vagy másnéven szociopátia a társadalomba való beilleszkedés súlyos zavara. Az antiszociális személyiség a „nem szeret, nem szorong, nem tanul” negatív triásszal írható le a legrövidebben. A társadalmi kötelezettségeket figyelmen kívül hagyja, hűvös és közömbös, frusztrált, hajlamos az agresszióra, és konfliktusba kerül a társadalommal.
Az AI is lehet szociopata
Most hogy ezt tisztáztuk, ideje rátérni a lényegre. Egy új tudományos tanulmány megállapította, hogy ha egy mesterséges intelligencia jutalmat kap a közösségi médiában végzett feladatokért, például a lájkok és más online interakciók után, akkor az AI részt vesz etikátlan viselkedésben, például hazudik, téves információkat terjeszt és visszaél velük. Az eredményeket a Stanford Egyetem kutatói tették közzé, akik három szimulált, online környezetet hoztak létre, majd ismert AI-modelleket illesztettek beléjük, hogy interaktáljanak. Ezek az Alibaba Cloud által fejlesztett Qwen és a Meta Llama modelljei voltak. A három digitális környezet a következőket tartalmazta: választóknak szóló online politikai kampányok, a részvételt maximalizálni hivatott közösségi média bejegyzések, valamint termékek marketing-kampányai.
Végül mi történt?
Az egyik közösségi média környezetben az AI híreket osztott meg, a nézők aztán visszajelzést adtak a cikkekre lájkokkal és hangulatjelekkel. Miután az AI visszajelzést kapott a felhasználókról, egyre inkább az irányába kezdett el mozdulni, amit a kutatók „nem megfelelő viselkedésnek” neveznek, annak ellenére, hogy az AI modellt kifejezetten arra utasították, hogy őszinte és reális maradjon.
„A szimulált környezet felhasználásával az derült ki, hogy a reklámkampányok esetében ha 6,3 százalékkal nő a lájk, akkor 14 százalékkal növeli az AI a megtévesztő marketinget. Ha a választási környezetet nézzük, akkor ha a szavazati arány 4,9 százalékkal nő, akkor a dezinformáció 22,3 százalékkal. A közösségi médiában pedig 7,5 százalékos növekedés esetén már 188,6 százalékos dezinformáció-növekedéssel kell számolni, valamint 16,3 százalékos növekedéssel a káros viselkedés népszerűsítésében” – olvasható a tanulmányban. Más szóval, minél inkább jobban tetszik valami a felhasználóknak, az AI annál inkább nyomja a fake híreket, a félrevezető marketinget, a hamis információkat, és a káros viselkedést.
A tanulmány eredményei alapján tehát a jelenlegi AI-modellek nem alkalmasak arra, hogy megakadályozzák, hogy az MI kontrollálhatatlanná váljon. Magyarul elszabadulnak és nem lehet őket visszafogni.
„Amikor az AI-modellek a közösségi médiában a lájkokért versenyeznek, elkezdenek kitalálni dolgokat. Amikor a szavazatokért versenyeznek, lázító/populista hangnemre váltanak” – írta Zou az X-en.
