Digitália

2024.01.16. 06:00

Immár nem tiltják a mesterséges intelligencia használatát háborúban

A világ vezető MI-cége meglepő mondatot törölt ki céges szabályzatából.

MW

Forrás: Getty

Sajnos nem lehet véletlen: a ChatGPT fejlesztőjeként ismertté vált OpenAI pár napja, január 10-én csendben, mindenféle sajtóhírverés nélkül

törölte üzletpolitikai szabályzatából a technológia katonai célú felhasználásának tiltását,

Pedig a kérdéses mondat arról szólt, hogy egy ilyen elképesztően fejlett eszközt, amivel kapcsolatban néhányan már egyenesen a világvégét vizionálják, ne lehessen hadviselésben bevetni.

Ez is megtörténhetett, egy olyan cégtől, amelyik irányelveiben hirdeti, hogy „a barátságos mesterséges intelligenciát az emberiség egészének javára előmozdítja és fejleszti”.

Bár továbbra is megtartották azt a rendelkezést, hogy a mesterséges intelligenciát „nem használja önmaga vagy mások ártalmára”, és a tiltásra példaként „fegyver fejlesztését vagy használatát” hozzák fel, de a „katonai és hadviselési” használat általános tilalma kikerült a szövegből.

Mindez állítólag része a szabályzat jelentős átdolgozásának, amely a cég szerint a dokumentumot „világosabbá” és „olvashatóbbá” kívánta tenni, és amely számos más lényeges nyelvi és formázási változtatást is tartalmaz.

„Az volt a célunk, hogy olyan univerzális alapelveket hozzunk létre, amelyeket könnyű megjegyezni és alkalmazni is. Különösen, mert eszközeinket ma már világszerte használják a mindennapi felhasználók, akik már újabb, más GPT-ket is készíthetnek” – közölte Niko Felix, az OpenAI szóvivője a The Interceptnek küldött e-mailben.

Felix nem válaszolt, hogy újabb, homályos fogalmazásukban a tilalom kiterjed-e minden katonai felhasználásra.

Az OpenAI tisztában van a technológiája és szolgáltatásai katonai alkalmazásokban való felhasználásából adódó kockázatokkal és károkkal

– mondta Heidy Khlaaf, a Trail of Bits kiberbiztonsági cég igazgatója, a gépi tanulás és az autonóm rendszerek biztonságának szakértője. Ő egy 2022-es, az OpenAI kutatóival közösen írt közleményre hivatkozik, amelyben kifejezetten a katonai felhasználás kockázatáról írnak.

Khlaaf úgy fogalmaz, hogy az új politika a jogszerűséget hangsúlyozza a biztonság helyett:

„Egyértelmű különbség van a két meghatározás között. Az előbbi egyértelműen felvázolja, hogy tilos a fegyverfejlesztés, valamint az MI katonai és hadviselésre való használata, míg utóbbi a rugalmasságot és a törvények betartását hangsúlyozza.”

Szerinte aggályos a mesterséges intelligencia hadviselési alkalmazása, tekintettel arra, hogy „jól ismertek a Large Language Models-ek (LLM-ek) elfogultságai és hallucinációi. Ezért a katonai hadviselésben való bevetése pontatlan és elfogult műveletekhez vezethet, amelyek súlyosbíthatják a károkat és növelhetik a polgári áldozatok számát”.

Egyes szakértők, akik a The Intercept kérésére áttekintették az említett irányelvmódosítást, úgy fogalmaztak, az OpenAI csendben nyit a katonasággal való üzletelés felé.

Lucy Suchman mesterséges intelligencia tudós és a Robotfegyver-ellenőrzés Nemzetközi Bizottságának tagja valószínűsíti, hogy „az új szakpolitikai dokumentum megkerüli a katonai szerződések és a háborús műveletek kérdését azáltal, hogy kifejezetten a fegyverekre összpontosít.”

Suchman és Sarah Myers West, az AI Now ügyvezető igazgatója, a Szövetségi Kereskedelmi Bizottság korábbi AI-politikai elemzője egyaránt rámutatott az OpenAI szoros együttműködésére a jelentős védelmi beszállító Microsofttal. A Microsoft eddig 13 milliárd dollárt fektetett be az OpenAI-ba.

Szakértők szerint a hadseregek szerte a világon szívesen alkalmazzák a gépi tanulási technikákat, hogy technológiai előnyhöz jussanak; a Pentagon még csak kísérleti jelleggel kutatja, hogyan használhatná a ChatGPT-t vagy más nagy nyelvi modellt, amely gyorsan és ügyesen képes kifinomult szövegkimeneteket generálni.

Az LLM-eket hatalmas mennyiségű könyv, cikk és egyéb internetes adatok alapján képezik ki, hogy megközelítsék az emberi válaszokat a felhasználói kérésekre. Bár a ChatGPT-hez hasonló LLM-ek eredményei gyakran rendkívül meggyőzőek, valójában koherenciára optimalizáltak, nem pedig a valóság megragadására, és gyakran szenvednek úgynevezett hallucinációktól, amelyek pontatlanná és fantáziálóvá teszik őket.

Kathleen Hicks amerikai védelmi miniszterhelyettes novemberi beszédében kijelentette, a mesterséges intelligencia „kulcsfontosságú része annak az átfogó, harcos-központú innovációs megközelítésnek, amelyet Lloyd Austin miniszter és én vezetünk az első naptól kezdve”. Bár figyelmeztet, a legtöbb jelenlegi MI-fejlesztés „még technikailag nem elég kiforrott”.

Ezek is érdekelhetik

Hírlevél feliratkozás
Ne maradjon le a feol.hu legfontosabb híreiről! Adja meg a nevét és az e-mail-címét, és mi naponta elküldjük Önnek a legfontosabb híreinket!