Menü

HIREK_TECH V2.0 // SYSTEM ONLINE

A néma algoritmus: Amikor az OpenAI előre látta a tragédiát, mégis hallgatott

Critical
Critical ELLENŐRIZTE: p3t3r
DÁTUM: 2026. Feb 22.
● 5 PERC OLVASÁS
A néma algoritmus: Amikor az OpenAI előre látta a tragédiát, mégis hallgatott

A kanadai Tumbler Ridge-i mészárlás után kiderült: a ChatGPT mögött álló technológia már hónapokkal korábban kiszúrta az elkövetőt. Miért nem szóltak a hatóságoknak?

A Brit Columbia-i Tumbler Ridge nem az a hely, ahol az ember világraszóló tragédiákra számít. A Sziklás-hegység ölelésében fekvő, alig 2700 lelkes kisváros békéjét azonban múlt héten valami olyan törte meg, ami után Kanada-szerte megállt az élet. Egy 18 éves fiatal, Jesse Van Rootselaar, nyolc embert – köztük saját édesanyját, kiskorú testvérét, egy tanárnőt és öt gyermeket – gyilkolt meg, mielőtt magával is végzett. A gyász és a döbbenet közepette azonban egy olyan technológiai szál bukkant fel, amely kényelmetlen kérdések elé állítja a világ legbefolyásosabb AI-vállalatát, az OpenAI-t.

A tragédia helyszíne

Kiderült ugyanis, hogy a ChatGPT belső biztonsági rendszerei már 2025 júniusában – nyolc hónappal a mészárlás előtt – vörös jelzést adtak. Az algoritmus észlelte, hogy Van Rootselaar fiókja „erőszakos cselekmények előmozdítására” utaló tevékenységet folytat. A cég belső köreiben vita is zajlott arról, hogy értesítsék-e a Kanadai Királyi Lovasrendőrséget (RCMP). Végül úgy döntöttek: nem szólnak. Csak a fiókot tiltották le. Ma már tudjuk, hogy ez a csend mibe került.

A „küszöb” misztériuma: Ki dönt élet és halál felett?

Az OpenAI azzal védekezik, hogy a felhasználó tevékenysége akkor még nem érte el azt a „kritikus küszöböt”, amely egyértelmű, közvetlen és hitelt érdemző fizikai fenyegetésre utalt volna. Ez az a pont, ahol a tech-szkeptikus újságírónak meg kell állnia egy pillanatra. Mi pontosan ez a küszöb? Ki határozza meg? És legfőképpen: milyen kompetenciája van egy San Franciscó-i szoftvermérnöknek vagy egy alulfizetett tartalommoderátornak eldönteni, hogy egy távoli kanadai kisvárosban élő, mentális problémákkal küzdő tinédzser csak „szerepjátszik” az AI-val, vagy valódi mészárlásra készül?

Az OpenAI belső szabályzata szerint csak akkor fordulnak a rendőrséghez, ha a veszély „közvetlen”. Ez a jogi bikkfanyelv azonban a valóságban egy hatalmas szürke zónát takar. Ha egy algoritmus képes azonosítani az „erőszakos tevékenység előmozdítását” annyira, hogy azért kitiltson egy felhasználót, akkor miért nem tartja ugyanezt az információt elég fontosnak ahhoz, hogy egy rövid e-mailt küldjön a hatóságoknak? A válasz valószínűleg nem az etikában, hanem a jogi felelősség hárításában keresendő.

Esemény / Kritérium OpenAI belső döntése (2025. június) A valóság (2026. február)
Kockázati szint „Nem érte el a kritikus küszöböt” 8 halott, 25 sérült
Alkalmazott szankció Felhasználói fiók letiltása Rendőrségi nyomozás (utólag)
Hatóságok értesítése Elvetve Megtörtént (a tragédia után)

A moderáció csapdája: A tiltás nem megoldás, csak elfedés

Amikor egy tech-óriás letilt egy problémás felhasználót, gyakran úgy érzi, elvégezte a dolgát. „A platformunk tiszta, a szabályszegőt eltávolítottuk” – hangzik a marketingüzenet. De a valóságban a tiltás gyakran csak olaj a tűzre. Egy instabil állapotban lévő egyén számára a digitális kirekesztés az utolsó láncszem elszakadását jelentheti a társadalomtól. Ha az OpenAI látta a veszélyt, de csak a „bejárati ajtót” csukta be az elkövető előtt, azzal nem szüntette meg a fenyegetést, csak láthatatlanná tette azt a saját maga számára.

Az OpenAI logója és a biztonsági kérdések

Különösen aggasztó az a részlet, miszerint a hatóságoknak már korábban is volt dolguk Van Rootselaarral mentális egészségügyi problémák miatt. Itt egy hatalmas információs szakadék tátong: a rendőrség tudott a betegségről, de nem tudott a digitális radikalizációról; az OpenAI tudott a digitális vészjelekről, de nem tudott (vagy nem akart tudni) a hús-vér valóságról. A két pontot senki nem kötötte össze.

Adatvédelem vagy bűnpártolás?

A tech-szkeptikus nézőpont itt válik igazán kettőssé. Egyfelől nem akarunk olyan világban élni, ahol minden egyes ChatGPT-beszélgetésünket egy algoritmus elemzi, és ha „túl sötét” a hangulatunk, már kopogtat is a rendőrség. Ez a totális megfigyelés disztópiája. Másfelől viszont az OpenAI már most is elemzi ezeket az adatokat – hiszen ebből tudták, hogy ki kell tiltaniuk a fiókot.

„A magánélet védelme nem lehet pajzs a bűnmegelőzés elszabotálására, különösen akkor, ha a cég már amúgy is betekintett a függöny mögé.”

Az OpenAI üzleti logikája érthető: ha túl gyakran jelentenek a rendőrségnek, elveszítik a felhasználók bizalmát és „besúgó” platformmá válnak. Ha viszont soha nem jelentenek, akkor egy ilyen tragédia után a közvélemény haragjával kell szembenézniük. Ebben a helyzetben a cég a legkényelmesebb utat választotta: a csendet. Ez a csend azonban most nyolc ember életébe került Tumbler Ridge-ben.

A felelősség áthárítása: A „proaktív” segítség mítosza

A tragédia után az OpenAI szóvivője büszkén jelentette ki, hogy „proaktívan” megkeresték a hatóságokat és minden adatot átadtak. Ez a kommunikációs fordulat a cinizmus csúcsa. Utólag adatokat szolgáltatni egy mészárlásról nem proaktivitás, hanem kármentés. A valódi proaktivitás az lett volna, ha tavaly júniusban, amikor a belső rendszereik jeleztek, megteszik azt a minimális lépést, hogy értesítik a helyi szerveket: „Van itt valaki, aki erőszakos terveket sző, érdemes lenne ránézni.”

A kanadai közösség gyásza

Következtetés: Algoritmikus morál helyett átlátható szabályokat

Ez az eset rávilágít arra, hogy a mesterséges intelligencia fejlesztői jelenleg egyfajta „digitális istenként” viselkednek: látják a bűneinket, ítélkeznek felettünk (tiltás), de a földi igazságszolgáltatással csak akkor állnak szóba, ha már vér folyt. Nem várhatjuk el az OpenAI-tól, hogy minden egyes dühös tinédzserre rendőrt hívjon, de azt elvárhatjuk, hogy a „veszélyes tevékenység” definíciója ne egy zárt ajtók mögötti, önkényes döntés legyen.

Szükség van egy világos, törvényi keretek közé szorított protokollra. Ha egy AI-szolgáltató olyan súlyos visszaélést észlel, ami a fiók azonnali felfüggesztésével jár, akkor kötelessége legyen erről egy anonimizált vagy indokolt jelzést küldeni a hatóságoknak. A technológia nem maradhat felelősség nélküli megfigyelő.

Az OpenAI esete Tumbler Ridge-ben nem azt bizonyítja, hogy az AI rossz, hanem azt, hogy a mögötte álló vállalati kultúra még mindig fontosabbnak tartja a saját reputációját és a jogi biztonságát, mint az emberi életet. Amíg ez nem változik, addig a ChatGPT és társai csak drága, digitális szemtanúk maradnak a következő tragédiánál is.

Tags:

#OpenAI #ChatGPT #Mesterséges Intelligencia #Kanada #Biztonság #Etika #Adatvédelem

Ez is érdekelhet