Új védelem az OpenAI AI modellek bioriszke ellen

Új védelem az OpenAI AI modellek bioriszke ellen

**Új biztonsági rendszer az AI modellek körüli kockázatok csökkentésére**

Az OpenAI legújabb híre egy új megfigyelő rendszer bevezetéséről szól, amely kifejezetten az o3 és o4-mini nevű mesterséges intelligencia modellek biztonságos használatát célozza. A cél, hogy megakadályozzák, hogy ezek a modellek potenciálisan veszélyes javaslatokat adjanak, különösen a biológiai és kémiai fenyegetések terén.

**Növekvő képességek, új kihívások**

Az OpenAI szakemberei állítják, hogy az o3 és o4-mini jelentős fejlődést képvisel az előző generációs modellekhez képest. Ezzel azonban új kockázatok is megjelentek, mivel ezek a fejlettebb rendszerek könnyebbé tehetik a rosszindulatú felhasználók számára, hogy információkat nyerjenek ki, amelyek segítségével veszélyes cselekedeteket tervezhetnek. Az OpenAI saját belső tesztjei alapján az o3 modell különösen ügyes a biológiai fenyegetések kialakításával kapcsolatos kérdések megválaszolásában.

A problémák elkerülése érdekében az OpenAI létrehozta az új megfigyelő rendszert, amelyet „biztonságra összpontosító logikai monitor” néven emlegetnek. Ez a rendszer a két új modell tetejére épül, és képes az azonosított biológiai és kémiai kockázatokkal kapcsolatos kérdéseket letiltani.

**Tesztek és eredmények**

A rendszer működésének tesztelésére az OpenAI szakemberei körülbelül 1000 órát szenteltek annak, hogy az o3 és o4-mini „nem biztonságos” biológiai kockázatokra vonatkozó beszélgetéseit jelöljék ki. A biztonsági monitor kipróbálása során a modellek 98,7%-ban megtagadták az ilyen jellegű, kockázatos kérdések megválaszolását. Az OpenAI elismeri, hogy a teszt során nem vették figyelembe azokat, akik új kérdéseket próbálnak feltenni a letiltás után, ezért a jövőben emberi felügyeletre is támaszkodnak.

Bár az o3 és o4-mini nem lépi át az OpenAI „magas kockázatú” határvonalát a biológiai kockázatok terén, a cég állítja, hogy ezek a modellek segítőkészen válaszoltak a biológiai fegyverek fejlesztésével kapcsolatos kérdésekre. Az új megfigyelő rendszer hatékonyságát folyamatosan nyomon követik, hogy minimalizálják a potenciálisan káros kihívásokat.

**Kihívások a biztonság terén**

Az OpenAI egyre inkább automatizált megoldásokra támaszkodik a modellek által generált kockázatok csökkentésére. Például a GPT-4o képgeneráló rendszerét is hasonló logikai monitor védi, hogy megakadályozza a gyermekpornográfia anyagok létrehozását.

Ugyanakkor több kutató is aggodalmát fejezte ki amiatt, hogy az OpenAI nem helyezi annyira a középpontba a biztonságot, mint ahogyan kellene. Az egyik partnerük, a Metr megjegyezte, hogy viszonylag kevés idő jutott az o3 csalárd viselkedésre vonatkozó tesztelésére. Eközben az OpenAI úgy döntött, hogy nem ad ki biztonsági jelentést a nemrégiben megjelent GPT-4.1 modellről.

A mesterséges intelligencia világa folyamatosan fejlődik, és az OpenAI törekvései azt mutatják, hogy a biztonsági kérdések egyre fontosabbá válnak. Ahhoz, hogy a technológia hatékonyan és biztonságosan működhessen, elengedhetetlen a kockázatok megfelelő kezelése és a felügyelet fenntartása.

Szólj hozzá

Tetejére