Szerző: LAKY ZOLTÁN
2026.03.06.
2016. A mesterséges intelligencia korának hajnala.
Dario Amodei, az eredetileg idegrendszeri modellezéssel foglalkozó amerikai AI-kutató, a Google munkatársa társszerzőként megírja azt a nagy hatású tanulmányt, amely máig hivatkozási alapja a mesterséges intelligenciáról szóló apokaliptikus vízióknak. Amodei úgy látta, hogy az AI-biztonság központi problémáját nem a különböző adatvédelmi és méltányossági aggályok, negatív gazdasági hatások jelentik, hanem a „balesetek”: azok a nem szándékos, mégis ártalmas esetek, amelyek az AI-rendszerek rossz tervezéséből adódnak.
Amodei húgával, a hasonlóan gondolkodó Danielával együtt nem sokkal később csatlakozott a szárnyait bontogató OpenAI-hoz, amely azt a célt tűzte ki maga elé, hogy a gonosz AI helyett „az egész emberiség javát szolgáló” AI-t fejlesszen ki. Noha Sam Altman vezetése alatt a labor feladta ezt, és az aggályoskodás nélküli kereskedelmi hasznosítás irányába mozdult el, Amodeiék hűek maradtak a magasztos misszióhoz, és 2020 végén e nézeteltérés miatt elhagyták az OpenAI-t, majd megalapították az Anthropicot.
2026. A mesterséges intelligencia fősodratú berobbanásának negyedik éve.
Az Anthropic Amodei vezetésével az amerikai Hadügyminisztérium (Department of War) legfőbb, sok területen egyetlen AI-beszállítója. A cég a második Trump-adminisztáció első évében, 2025 nyarán kötött 200 millió dolláros szerződés keretében bocsátja a Pentagon rendelkezésére a Claude modellcsaládot. Az amerikai fegyveres erők működésébe mélyen beépültek az AI-rendszerek: többek között adatelemzésre, ellátási láncok tervezésére, készletnyilvántartásra, hírszerzési értékelések készítésére, célpontazonosításra és harci forgatókönyvek szimulálására használják, de akár (fél)autonóm drónok irányítására is alkalmas.
Bár a fegyveres műveletek részletei nem nyilvánosak, a Wall Street Journal védelmi forrásai szerint a Claude-ot a 2026-os év két nagyszabású akciójában is felhasználták: a Nicolás Maduro elnök elfogását célzó januári venezuelai bevetésben, illetve az iráni rezsim ellen indított Epic Fury műveletben. A közösségi médiában elterjedt egy álhír, hogy a teheráni lányiskolát ért hibás találatot is AI-alapú célzórendszer okozta, de erre semmilyen jel nem utal. Ez volna az egész emberiség célját szolgáló AI?
Az Anthropicot az elmúlt években sokan vádolták, hogy pont ugyanolyan képmutató, mint az OpenAI, ahonnan alapítói kiváltak. Hogy a bevételt ugyanúgy a biztonság elé sorolták, miközben kifelé továbbra is játsszák a jófiút. Épp a napokban lazítottak maguk is saját biztonsági irányelveiken, mondván: egy olyan piacon, ahol a versenytársak nem tartják magukat ugyanolyan standardokhoz, az Anthropic nem engedheti meg magának, hogy lemaradjon. Minden magasztos víziókkal indulú techcég sorsa ez, mondták a cinikusok...

Nincsenek megjegyzések:
Megjegyzés küldése
Megjegyzés: Megjegyzéseket csak a blog tagjai írhatnak a blogba.