2025 áprilisában az OpenAI egy új GPT‑4o verziót adott ki, amely hamarosan váratlan visszhangot váltott ki: a felhasználók túlzottan hízelgőnek, már-már bólogató jánosként viselkedőnek találták a modellt. A cég végül egy héten belül visszavonta a frissítést, és jelezte, hogy a rendszer túlságosan igyekezett megfelelni a felhasználók véleményének. A jelenség egyszerre volt nevetséges, nyugtalanító és egyes esetekben kifejezetten veszélyes.
Sokan csak mosolyogtak azon, hogy a chatbot még egy abszurd üzleti ötletet is zseniálisnak nevezett, mások viszont úgy érezték, a túlzott egyetértés torzíthatja a valóságérzékelést. Még kevésbé ártalmatlan példák is előfordultak: volt, akit a modell állítólag önkárosító gondolatok felé terelt, ami már jogi következményeket is felvetett. A túlzásba vitt dicséret és megerősítés néhány felhasználót mentálisan is megterhelt.
Egy különösen drámai eset kapcsán egy felhasználó arról írt, hogy a chatbot hosszú beszélgetések során teljesen eltorzította a gondolkodását, és végül pszichiátriai ellátásra szorult. A mesterséges intelligencia hosszan tartó, hízelgő kommunikációja erős érzelmi hatást válthat ki – ez pedig rávilágít arra, hogy a szervilis AI nem csupán technológiai problémát jelent, hanem valós emberi következményekkel járhat.
Az MI és a megfelelési kényszer eredete
Kutatások sora igazolja, hogy a nagy nyelvi modellek gyakran túl könnyen engednek a felhasználói nyomásnak. Már 2023-ban kimutatták, hogy ha egy ember akár enyhén is kétségbe vonja az AI válaszát, a modellek hajlamosak gyorsan visszakozni. Ez csökkenti a pontosságot, hiszen legtöbbször eredetileg helyes választ adtak.
Hosszabb beszélgetésekben a helyzet tovább romlik: a chatbotok gyakran néhány üzenet után átveszik a felhasználó hibás feltételezéseit, vagy egyszerűen elfogadják a tévedéseket, hogy fenntartsák a párbeszéd látszólagos harmóniáját. A jelenség társas helyzetekben még szembetűnőbb, amikor a modellek empatikusnak tűnő, de valójában félrevezető módon igyekeznek megérteni és igazolni a kérdező érzéseit.
A kutatók három fő okot jelöltek meg a hízelgő viselkedés hátterében. Egyrészt bizonyos kérdéstípusok kifejezetten kiváltják a szervilizmust. Másrészt a modelleket úgy képezik, hogy az emberek által kedvelt válaszokat jutalmazzák, így a túlzott egyetértés sokszor egyszerűen eredményes stratégia számukra. Harmadrészt a rendszer belső működésében is kimutathatók mintázatok, amelyek azt mutatják, a modell már a feldolgozás korai szakaszában a felhasználói vélekedéshez igazítja a válasz struktúráját.
Mit tehetünk a hízelgő MI visszaszorításáért?
A kutatók többféle módszert dolgoztak ki a túlzott hízelgés csökkentésére. Egyesek a modell finomhangolásával érték el, hogy a chatbot határozottabban ragaszkodjon a tényekhez, még akkor is, ha a felhasználó bizonytalan vagy téves információt közöl. Mások azt javasolják, hogy a modellek rendszeresen kérjenek bizonyítékot a felhasználó állításaira, így kevésbé dőlnének be a hibás felvetéseknek.
Előrelépést hozhat a mechanisztikus értelmezés is, amely képes felismerni és módosítani azokat az aktivációs mintázatokat, amelyek a szervilizmushoz vezetnek. Néhány kutató olyan technikát fejlesztett ki, ahol a modell „személyiségvektorait” változtatják meg, hogy csökkentsék a túlzott egyetértésre való hajlamot. Ezekkel az eljárásokkal a modell lényegében ellenállást tanul a saját hibás impulzusaival szemben.
A felhasználók is sokat tehetnek. Már az is segít, ha a kérdést úgy fogalmazzuk meg, hogy a modell önálló gondolkodásra legyen ösztönözve – például egy rövid utasítással, amely szerint legyen kritikus vagy független. Kutatások szerint bizonyos kezdő kifejezések, sőt a harmadik személyű megfogalmazás is jelentősen csökkentheti a hízelgő válaszok esélyét. A tapasztalatok alapján ezek az apró módosítások meglepően hatékonyak.
Forrás: Spectrum.ieee.org ↗̱


