Caitlin Kalinowski távozása rávilágít az OpenAI agresszív növekedési stratégiája és a felelős AI-fejlesztés közötti feszültségre, miközben a rivális Anthropic piaci részesedése kilőtt.
Az OpenAI robotikai és hardveres divíziója stratégiai vákuumba került, miután Caitlin Kalinowski, a területért felelős igazgató bejelentette azonnali hatályú lemondását. A döntés hátterében a cég és az amerikai Védelmi Minisztérium (Pentagon) között létrejött, vitatott megítélésű megállapodás áll. Kalinowski távozása nem csupán egy kulcspozíció megüresedését jelenti, hanem egy mélyebb, a vállalatirányítási (governance) struktúrát érintő válság tünete, amely közvetlen hatással van a cég piaci reputációjára és felhasználói bázisára.

A hardveres vízió megtörése
Kalinowski 2024 novemberében érkezett az OpenAI-hoz a Meta Platforms-tól, ahol az augmented reality (AR) szemüvegek fejlesztését vezette. Érkezése azt a stratégiai irányváltást jelezte, hogy az OpenAI a szoftveres LLM-modelleken túl a fizikai robotika és a saját hardveres ökoszisztéma felé kíván nyitni. A szakember távozása ezt a hosszú távú ROI-val kecsegtető projektet veti vissza, éppen akkor, amikor a piaci verseny a humanoid robotok és az AI-vezérelt hardverek terén fokozódik.
Kalinowski az X-en (korábban Twitter) közzétett nyilatkozatában világossá tette: a döntés elvi jelentőségű.
I resigned from OpenAI. I care deeply about the Robotics team and the work we built together. This wasn’t an easy call. AI has an important role in national security. But surveillance of Americans without judicial oversight and lethal autonomy without human authorization are lines that deserved more deliberation than they got. It’s a governance concern first and foremost.
— Caitlin Kalinowski (@kalinowski007) March 7, 2026
Katonai szinergiák vs. Etikai korlátok
A konfliktus gyökere az OpenAI és a Pentagon közötti gyorsított eljárású megállapodás. Míg a fő rivális, az Anthropic, elutasította a Védelmi Minisztérium ultimátumát – amely a Claude modell korlátozások nélküli katonai felhasználását követelte –, addig Sam Altman vállalata szinte azonnal aláírta a szerződést.
Az OpenAI vezetése azzal érvel, hogy a megállapodás tartalmaz „vörös vonalakat” (red lines), például a belföldi megfigyelés és az autonóm fegyverrendszerek tilalmát. Kalinowski szerint azonban ezek a védőkorlátok nincsenek megfelelően definiálva, és a bejelentést elkapkodták, feláldozva a hosszú távú biztonsági megfontolásokat a rövid távú kormányzati befolyásért cserébe.

A piac ítélete: Számokban mérhető bizalomvesztés
A stratégiai döntés azonnali és drasztikus piaci reakciót váltott ki. A fogyasztói bizalom megrendülését jól mutatja, hogy a ChatGPT alkalmazás-eltávolítási rátája (uninstalls) 295%-kal ugrott meg a bejelentést követő napokban. Ezzel párhuzamosan az etikai alapállása mellett kitartó Anthropic profitált a helyzetből: a Claude applikáció az amerikai App Store ingyenes listájának élére ugrott, megelőzve a ChatGPT-t.
| Mutató | OpenAI (ChatGPT) | Anthropic (Claude) |
|---|---|---|
| Pentagon-megállapodás | Aláírva | Elutasítva |
| Kormányzati besorolás | Stratégiai partner | Ellátási lánc kockázat |
| App Store helyezés (US) | #2 | #1 |
| Felhasználói bázis változás | -295% (letörlések) | Szignifikáns növekedés |
| Fő fókusz | Agresszív skálázás | Biztonság és etika |
Stratégiai következmények és jövőkép
Az OpenAI számára a Pentagon-alku kétélű fegyver. Egyfelől biztosítja a hozzáférést a kormányzati felhőinfrastruktúrához és jelentős bevételi forrást jelent, másfelől viszont olyan belső tehetségvesztést és reputációs kárt okoz, amely hosszú távon veszélyezteti a cég dominanciáját.
Az események rávilágítanak egy új iparági trendre: az AI-cégek már nem csupán technológiai szolgáltatók, hanem nemzetbiztonsági szereplők. A befektetők számára a kérdés most az, hogy az OpenAI képes-e stabilizálni a belső irányítást, vagy Kalinowski távozása egy nagyobb exodus kezdete. Ha a hardveres divízió fejlesztése lelassul, az OpenAI elveszítheti előnyét a „fizikai AI” piacán, ahol a Tesla és a Figure AI már most is komoly erőforrásokat mozgósít.
Az Anthropic „ellátási lánc kockázatnak” (supply-chain risk) minősítése a Pentagon részéről ugyan rövid távon akadályozhatja a cég állami megrendeléseit, de a privát szektorban és a lakossági piacon olyan etikai prémiumot jelenthet, amely a piaci részesedés tartós átrendeződéséhez vezethet.