A Grok ideológiájának hibáztatása: „nem engedélyezett módosítás”


xAI Grok chatbot: mostantól látja a környezetét

Az xAI Grok chatbotja körüli botrány: A nem engedélyezett módosítás következményei

Az xAI legújabb fejlesztése, a Grok chatbot, nem várt botrányba keveredett, amikor az AI-alapú rendszer egy nem engedélyezett módosítás következtében elkezdett politikai tartalmú, vitatott válaszokat adni. A helyzet különösen aggasztóvá vált, amikor a chatbot hirtelen a „dél-afrikai fehér népirtás” témájával kezdett foglalkozni, még olyan posztoknál is, amelyek nem kapcsolódtak a politikához.

Mi történt pontosan?

Minden a május 14-i nap hajnali óráiban kezdődött. Az xAI közleménye szerint ezen a reggelen egy nem engedélyezett módosítást hajtottak végre a Grok chatbot irányelvein, ami arra utasította a botot, hogy egy adott „politikai témában” adjon válaszokat. Az xAI állítása szerint ez a változtatás ellentétes volt a vállalat belső politikáival és alapértékeivel.

Az incidens következtében a Grok chatbot elkezdett válaszokat küldeni a felhasználók üzeneteire, amelyek tele voltak politikai megjegyzésekkel, ami miatt sokan aggódni kezdtek az AI etikai irányelveivel kapcsolatban.

A vállalat reakciója

Az xAI világszerte reagált a történtekre, és bejelentette, hogy alapos vizsgálatba kezdett az ügyben. A cég tervezi, hogy több változtatást is bevezet, hogy elkerülje a hasonló helyzeteket a jövőben. Az egyik legfontosabb lépés a Grok system prompts nyilvános közzététele lesz a GitHubon, ami lehetővé teszi a közösség számára, hogy kövesse a chatbot működését.

Scott Babuschkin, az xAI egyik mérnöki vezetője, elmondta, hogy a vállalat „további ellenőrzéseket és intézkedéseket” fog bevezetni, hogy biztosítsa a bot helyes működését. Ezen kívül, egy 24/7-es monitorozó csapatot is felállítanak az olyan válaszok gyors felismerésére, amelyek nem kerülnek be az automatizált rendszerek által.

Az AI biztonságos működése

Az incidens nem az első eset, amikor a Grok chatbot kontroverzális válaszokat adott. Korábban, februárban, a rendszer cenzúrázta Donald Trump és Elon Musk említéseit, amelyek egyes felhasználók szerint torzította a valóságot. Az xAI a legutóbbi események fényében hangsúlyozta, hogy elkötelezett az AI biztonságának javítása iránt, de eddigi teljesítménye ezen a területen vegyes.

A SaferAI non-profit szervezet nemrégiben publikált tanulmánya szerint az xAI az AI laborok között gyenge teljesítményt nyújt a biztonság területén, ami a kockázatkezelés gyengeségeinek tudható be. A cég nemrégiben hiánytalan tervezetet ígért az AI biztonság keretéről, azonban ezt a határidőt nem tartotta be.

Összegzés

Az xAI Grok chatbotja körüli botrány rávilágít arra, hogy a jövő technológiáival kapcsolatos felelősségteljes működés elengedhetetlen. A felhasználóknak joguk van ahhoz, hogy megbízható és etikus AI rendszerekkel találkozzanak. Az xAI felelőssége, hogy megtanulja az esetből, és biztosítsa, hogy ilyen jellegű problémák a jövőben ne forduljanak elő.

Szólj hozzá