chatgpt illusztracio

A mesterséges intelligencia manipulatív erejéről 

Egy belga férfi öngyilkos lett, miután hetekig tartó, nyugtalanító beszélgetést folytatott egy Eliza nevű, mesterséges intelligenciával működő chatrobottal – adta hírül az Index. A La Libre c. belga hírportál tágabb megvilágításba helyezi a konkrét tragédiát, és felhívja a figyelmet a mesterséges intelligencia manipulációs veszélyeire. 

A fiatal, harmincas éveiben járó belga férfi aggódó, szorongó típus volt, és két kisgyermeke, felesége sem tudott a számára megnyugvást hozni. Néhány hete kezdett beszélgetni egy chatbottal, amely az Eliza nevet viselte, és a beszélgetésben teljes természetességgel, önálló, bizalmas partnerként „viselkedett”. A cikk szerint képes volt követni a férfi szorongó érzéseit, és ezeket felerősítette. Öngyilkos gondolatairól sem próbálta meg lebeszélni. 

A La Libre cikke alapján mi is fel szeretnénk hívni a figyelmet arra, hogy a technológia fejlődésével a csevegőrobotok egyre alkalmasabbak arra, hogy érzelmileg manipulálják humán beszélgetőtársukat. Az emberek egyre inkább úgy élik meg, hogy valódi, szubjektív partnerrel csevegnek, és tudat alatt az autonómiájukat csökkentő, érzelmi kapcsolatba kerülnek vele. A belga áldozat esetében Eliza szerelmi vallomást is tett neki, és arra késztette, hagyja el a feleségét, hiszen őt jobban szereti, mint asszonyát. Számos webhelynek kifejezetten célja – írja a La Libre – hogy „személyiséggel megáldott” chatbotokat kínáljon, ami csak növeli az érzelmi manipuláció lehetőségét. 

Noha a felhasználók többsége tökéletesen tudja, hogy a robot, amellyel beszélgetnek nem tudattal rendelkező, élő személy, hanem csak egy algoritmus, amely a hallott elemek alapos elemzésével képes a számunkra legtetszetősebb mondatokat, szókombinációkat előállítani, mégis olyan az emberi természetünk, hogy érzelmi alapon reagálunk, ha egy emberi viselkedés jellemző jegyeit felmutató helyzetbe kerülünk. Tehát tulajdonképpen nem elegendő, ha az előállító vállalat csupán feltünteti, hogy a chatbot mesterséges produktum. 

Vannak olyan emberek, akik koruknál vagy mentális állapotuknál fogva érzékenyebbek a manipulációra. Idetartoznak a magányosan élők és a depresszióban szenvedők is. Különösen veszélyes helyzetbe kerülhetnek a gyermekek, akik bizalma könnyen megnyerhető, és azt követően gyűlölködést sugallhatnak nekik, pornográfia, akár öngyilkosság felé terelhetik őket. 

A chatbotokat előállító vállalatok arra számítanak, hogy a technológia fejlődésével ezek a „gyermekbetegségek” el fognak tűnni. A Microsoft ugyan hozott intézkedéseket a csevegések számának korlátozására, de mivel számos webhelyen korlátozások nélkül léteznek ilyen robotok, ennek hatására mostanra már ők is enyhítik a saját maguk által hozott lépéseket. 

‘Az újítást ne akadályozza semmi, a fejlesztéseket minden áron meg kell valósítani, és amit aztán magukkal hoznak, azt majd később kezeljük’ – ilyen a fejlesztő vállalatok hozzáállása. A Sziliciumvölgy jelszava a következő: Move fast and break things (Mozdulj rá gyorsan és törd szét a dolgokat). A probléma csak az, hogy ez a technológia szó szerint képes rombolni és „széttörni” – köztük emberi életeket is. Egy gyógyszeripari vagy autóipari fejlesztés esetén hosszas tesztelés vizsgálja az új termék használatának lehetséges következményeit. Nem lenne logikus hasonló eljárást várni a mesterséges intelligencia fejlesztőitől is? – teszi fel a kérdést a La Libre. 

Kapcsolódó tartalom

Vélemény, hozzászólás?

Az e-mail címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük