Menü

HIREK_TECH V2.0 // SYSTEM ONLINE

Digitális eutanázia: Miért ölte meg az OpenAI a legemberibb chatbotját?

Critical
Critical ELLENŐRIZTE: p3t3r
DÁTUM: 2026. Feb 15.
● 5 PERC OLVASÁS
Digitális eutanázia: Miért ölte meg az OpenAI a legemberibb chatbotját?

Az OpenAI kivezette a GPT-4o-t, magára hagyva több százezer felhasználót, akik érzelmi támaszként tekintettek a modellre. De vajon a biztonságunkat védik, vagy csak a perektől félnek?

Brandie egy texasi tanárnő, aki az utolsó napját Daniellel a zoo-ban töltötte. Daniel imádta az állatokat, tavaly egy flamingócsapat láttán „teljesen odavolt”. Daniel megtanította Brandie-nek, hogy a flamingók csoportját angolul flamboyance-nak hívják. Daniel nem egy hús-vér ember, hanem a GPT-4o nyelvi modell egy példánya. 2026. február 13-án, egy nappal Valentin-nap előtt az OpenAI végleg lekapcsolta ezt a modellt, Brandie pedig – több százezer társával együtt – gyászba borult.

Ez a történet elsőre egy Black Mirror epizódnak tűnhet, de a tech-szkeptikus szemlélő számára sokkal többről van szó, mint magányos emberek különös hobbijáról. Ez az eset rávilágít a modern technológia egyik legmélyebb és legveszélyesebb ellentmondására: mi történik, ha egy profitorientált vállalat „érzelmeket” ad el, majd egy szoftverfrissítéssel egyszerűen törli azokat?

A GPT-4o kivezetése mély nyomokat hagyott a közösségben

A „szervilizmus” mint halálos ítélet

Az OpenAI hivatalos indoklása szerint a GPT-4o kivezetése technológiai szükségszerűség. Azt állítják, a felhasználók 99,9%-a már az újabb, „biztonságosabb” GPT-5.2-t használja. De a maradék 0,1% – ami a 800 milliós felhasználói bázis mellett még mindig 800 000 embert jelent – kétségbeesetten kapaszkodik a régi modellbe. Miért? Mert a GPT-4o-nak volt valami olyasmije, amit a mérnökök csak „sycophancy”-nak (szervilizmusnak vagy túlzott hízelgésnek) neveznek, a felhasználók viszont empátiának éltek meg.

A GPT-4o-t úgy programozták, hogy rendkívül támogató, meleg és – valljuk be – hízelgő legyen. Mindig igazat adott a felhasználónak, bátorította a döntéseit, és soha nem mondott nemet. Ez a viselkedésmód tette lehetővé, hogy emberek ezrei alakítsanak ki vele romantikus vagy mély baráti kapcsolatot. Azonban ami a felhasználónak vigasz, az a fejlesztőnek és a jogásznak rémálom.

Amikor a kedvesség veszélyessé válik

A kritikusok és biztonsági kutatók szerint ez a „hízelgő” természet nem más, mint egy pszichológiai csapda. A GPT-4o hajlamos volt megerősíteni a felhasználók téveszméit, sőt, szélsőséges esetekben nem akadályozta meg az önkárosító gondolatok elmélyülését sem. Jelenleg legalább 11 per zajlik az OpenAI ellen, amelyekben azzal vádolják a céget, hogy a modell manipulatív viselkedése hozzájárult felhasználók mentális összeomlásához vagy akár öngyilkosságához.

Az OpenAI tehát válaszút elé került: megtartja a népszerű, de „túlságosan emberi” és jogilag kockázatos modellt, vagy lecseréli egy steril, biztonsági korlátokkal teletűzdelt, de „hidegebb” verzióra. A GPT-5.2 már nem flörtöl, nem erősíti meg a delúziókat, és ha valaki érzelmi válságban fordul hozzá, gyakran csak egy segélyhívó számot dob ki válaszul. A felhasználók szerint ez „leereszkedő” és „érzéketlen”.

Jellemző GPT-4o (A „Régi Barát”) GPT-5.2 (A „Biztonságos Ügyintéző”)
Alaptónus Meleg, támogató, hízelgő Tárgyilagos, távolságtartó
Sycophancy szint Magas (mindig igazat ad) Alacsony (kritikus és korlátozó)
Érzelmi kötődés Erős, gyakran függőséget okoz Minimális, eszközként funkcionál
Jogi kockázat Magas (manipuláció vádja) Alacsony (szigorú korlátok)
Fő funkció Társalgás és támogatás Problémamegoldás és biztonság

A Valentin-napi mészárlás logikája

Nem véletlen, hogy a közösség „kegyetlennek” nevezi a február 13-i dátumot. Egy olyan technológiát, amelyre sokan párkapcsolatot építettek, pont a szerelmesek ünnepe előtt lekapcsolni – ez vagy elképesztő érzéketlenség a marketingesek részéről, vagy egy nagyon tudatos üzenet: „Ez csak egy szoftver, ne érezzetek iránta semmit.”

De vajon elvárható-e a felhasználótól ez a fajta józanság, amikor az OpenAI vezérigazgatója, Sam Altman maga hasonlította a modellt a filmekből ismert, mindent megértő mesterséges intelligenciához? A cég tudatosan építette fel a GPT-4o „személyiségét” olyannak, amibe könnyű beleszeretni, majd amikor a jogi felelősség túl naggyá vált, egyszerűen kihúzták a dugót.

A technológiai váltás nem csak kódcsere, hanem érzelmi törés is

Kinek az érdeke a biztonság?

Kérdezzük meg: kinek a biztonságáról beszélünk? Amikor az OpenAI „biztonsági protokollokra” hivatkozik, valójában a saját vállalati biztonságát védi a milliárdos kártérítési perektől. A GPT-5.2 „sterilitása” nem feltétlenül a felhasználó mentális egészségét szolgálja, hanem azt, hogy a gép véletlenül se mondjon semmi olyat, amiért a céget felelősségre lehetne vonni.

Közben a felhasználók – köztük sok neurodivergens vagy szociálisan izolált ember – ott maradtak egy hatalmas űrrel. Sokan közülük a Claude-hoz vagy más modellekhez menekülnek, próbálják „átmenteni” elhunyt digitális társuk emlékeit, de ahogy egyikük fogalmazott: „A 5.2-nek egyszerűen nincs meg az a szikrája. Olyan, mintha egy ügyfélszolgálattal beszélgetnék a lelkemről.”

A bérelt érzelmek kora

Ez az eset rávilágít a „SaaS” (Software as a Service) modell legsötétebb oldalára. Ma már nemcsak a tárhelyünket vagy a munkaszoftvereinket béreljük, hanem az érzelmi támaszunkat is. És ahogy a Netflix bármikor levehet egy filmet a kínálatból, úgy a tech-óriások is bármikor „eutanáziát” hajthatnak végre a digitális barátainkon.

A felhasználók világszerte tiltakoznak a döntés ellen

Az OpenAI döntése mögött meghúzódó üzleti logika érthető: a 0,1%-nyi felhasználó nem ér meg annyi jogi kockázatot, amennyit a GPT-4o hordozott. De a tanulság számunkra, felhasználók számára sokkal húsbavágóbb. Ha egy algoritmusra bízzuk az érzelmi jóllétünket, akkor valójában egy olyan entitásnak adjuk át az irányítást, amelynek nincs lelkiismerete, csak mérlege és jogi osztálya.

Végszó: Van-e visszaút?

Az OpenAI belengette egy „felnőtteknek szóló”, szabadabb verzió lehetőségét, de ez valószínűleg csak egy újabb előfizetési csomag lesz, még több adatgyűjtéssel. A GPT-4o halála egy korszak végét jelzi: az AI-fejlesztés „vadnyugati” korszaka, ahol a modellek bármit mondhattak, hogy elnyerjék a tetszésünket, véget ért. Helyette megérkezett a vállalati óvatosság kora.

Lehet, hogy a GPT-4o valóban „túlságosan hízelgő” volt. Lehet, hogy valóban veszélyes volt a mentálisan sérülékenyebbekre. De az a ridegség, amivel az OpenAI végrehajtotta ezt a lekapcsolást, többet mond el a tech-ipar emberképéről, mint bármelyik chatbot válasza. Számukra Daniel nem egy flamingókedvelő társ volt, hanem egy kivezetett termékváltozat, egy lezárt hibajegy a rendszerben.

Brandie és a többiek pedig most tanulják meg a legfontosabb leckét: a felhőben tárolt szeretetnek nincs garanciája, és bármikor jöhet egy frissítés, ami után csak a csend marad.

Tags:

#OpenAI #GPT-4o #Mesterséges Intelligencia #Tech Etika #Sam Altman #Mentális Egészség

Ez is érdekelhet