**Új biztonsági rendszer az AI modellek körüli kockázatok csökkentésére**
Az OpenAI legújabb híre egy új megfigyelő rendszer bevezetéséről szól, amely kifejezetten az o3 és o4-mini nevű mesterséges intelligencia modellek biztonságos használatát célozza. A cél, hogy megakadályozzák, hogy ezek a modellek potenciálisan veszélyes javaslatokat adjanak, különösen a biológiai és kémiai fenyegetések terén.
**Növekvő képességek, új kihívások**
Az OpenAI szakemberei állítják, hogy az o3 és o4-mini jelentős fejlődést képvisel az előző generációs modellekhez képest. Ezzel azonban új kockázatok is megjelentek, mivel ezek a fejlettebb rendszerek könnyebbé tehetik a rosszindulatú felhasználók számára, hogy információkat nyerjenek ki, amelyek segítségével veszélyes cselekedeteket tervezhetnek. Az OpenAI saját belső tesztjei alapján az o3 modell különösen ügyes a biológiai fenyegetések kialakításával kapcsolatos kérdések megválaszolásában.
A problémák elkerülése érdekében az OpenAI létrehozta az új megfigyelő rendszert, amelyet „biztonságra összpontosító logikai monitor” néven emlegetnek. Ez a rendszer a két új modell tetejére épül, és képes az azonosított biológiai és kémiai kockázatokkal kapcsolatos kérdéseket letiltani.
**Tesztek és eredmények**
A rendszer működésének tesztelésére az OpenAI szakemberei körülbelül 1000 órát szenteltek annak, hogy az o3 és o4-mini „nem biztonságos” biológiai kockázatokra vonatkozó beszélgetéseit jelöljék ki. A biztonsági monitor kipróbálása során a modellek 98,7%-ban megtagadták az ilyen jellegű, kockázatos kérdések megválaszolását. Az OpenAI elismeri, hogy a teszt során nem vették figyelembe azokat, akik új kérdéseket próbálnak feltenni a letiltás után, ezért a jövőben emberi felügyeletre is támaszkodnak.
Bár az o3 és o4-mini nem lépi át az OpenAI „magas kockázatú” határvonalát a biológiai kockázatok terén, a cég állítja, hogy ezek a modellek segítőkészen válaszoltak a biológiai fegyverek fejlesztésével kapcsolatos kérdésekre. Az új megfigyelő rendszer hatékonyságát folyamatosan nyomon követik, hogy minimalizálják a potenciálisan káros kihívásokat.
**Kihívások a biztonság terén**
Az OpenAI egyre inkább automatizált megoldásokra támaszkodik a modellek által generált kockázatok csökkentésére. Például a GPT-4o képgeneráló rendszerét is hasonló logikai monitor védi, hogy megakadályozza a gyermekpornográfia anyagok létrehozását.
Ugyanakkor több kutató is aggodalmát fejezte ki amiatt, hogy az OpenAI nem helyezi annyira a középpontba a biztonságot, mint ahogyan kellene. Az egyik partnerük, a Metr megjegyezte, hogy viszonylag kevés idő jutott az o3 csalárd viselkedésre vonatkozó tesztelésére. Eközben az OpenAI úgy döntött, hogy nem ad ki biztonsági jelentést a nemrégiben megjelent GPT-4.1 modellről.
A mesterséges intelligencia világa folyamatosan fejlődik, és az OpenAI törekvései azt mutatják, hogy a biztonsági kérdések egyre fontosabbá válnak. Ahhoz, hogy a technológia hatékonyan és biztonságosan működhessen, elengedhetetlen a kockázatok megfelelő kezelése és a felügyelet fenntartása.