Ezen a héten az AI -ben: A milliárdosok beszélnek a munkahelyek automatizálására | Techcrunch

Ezen a héten az AI -ben: A milliárdosok beszélnek a munkahelyek automatizálására | Techcrunch

Hiya, emberek, üdvözöljük a TechCrunch szokásos AI hírlevelében. Ha ezt minden szerdán szeretné, akkor iratkozzon fel ide.

Lehet, hogy észrevetted, hogy a múlt héten kihagytuk a hírlevelet. Az ok? A kaotikus AI hírciklus még inkább a kínai AI -társaság által a Pandemon -t tette a DeepSeek hirtelen kiemelkedésére, valamint az ipar és a kormány gyakorlatilag valaha is.

Szerencsére visszatértünk a pályára – és nem egy pillanatra túl hamar, figyelembe véve a múlt hétvégén az Openai -ból származó Newsy fejlesztéseit.

Az Openai vezérigazgatója, Sam Altman megállt Tokióban, hogy egy színpadi beszélgetést folytasson Masayoshi fiával, a japán konglomerátum Softbank vezérigazgatójával. A SoftBank egy nagy Openai befektető és partnermiután ígéretet tett arra, hogy segítsen finanszírozni az Openai hatalmas adatközpont -infrastruktúra -projektjét az Egyesült Államokban

Tehát Altman valószínűleg úgy érezte, hogy néhány órát tartozik a fiának.

Miről beszélt a két milliárdos? Nagyon sok kivonó munkát végez az AI „ügynökök” révén, a másodlagos jelentéstételenként. Son szerint a cég évente 3 milliárd dollárt költ az Openai termékekre, és az OpenAI-val egyesíti a „Cristal (SIC) Intelligence” platform kidolgozását, azzal a céllal, hogy a hagyományosan fehérgalléros munkafolyamatok millióit automatizálja.

„Az összes feladat és munkafolyamat automatizálásával és autonómiájával a SoftBank Corp. átalakítja üzleti és szolgáltatásait, és új értéket hoz létre” – mondta a SoftBank a sajtóközlemény hétfő

Megkérdezem azonban, hogy mi az alázatos munkavállaló, hogy gondolkodjon mindezen automatizálásról és autonómizálásról?

Mint Sebastian Siemiatkowski, a Fintech Klarna vezérigazgatója, aki gyakran Brags arról, hogy az AI helyettesíti az embereketÚgy tűnik, hogy a Son úgy véli, hogy a munkavállalók ügynöki stand-beállítása csak a mesés gazdagságot kicsaphatja. A fényt a bőség költsége. Ha a munkahelyek széles körben elterjedt automatizálása történik, A munkanélküliség óriási léptékben a legmegfelelőbb eredménynek tűnik

Elkezelődik, hogy az AI verseny élvonalában lévők – olyan vállalatok, mint az Openai és a befektetők, mint például a SoftBank – úgy döntenek, hogy sajtótájékoztatókkal töltik el az automatizált vállalatok képének festését, amelyek kevesebb munkavállalójával foglalkoznak a bérszámfejtésen. Természetesen vállalkozások – nem jótékonysági szervezetek. És az AI fejlesztése nem olcsó. De talán az emberek bízna az AI -ben Ha a telepítést irányító személyek kissé nagyobb aggodalmat mutattak jólétük miatt.

Étel a gondolkodáshoz.

Hír

Mély kutatás: Az Openai új AI „ügynököt” indított, amelynek célja, hogy segítse az embereket mélyreható, összetett kutatások elvégzésében a Chatgpt, a vállalat AI-alapú chatbot platformja segítségével.

O3-mini: Más Openai hírekben a cég új AI „érvelési” modellt, az O3-MINI-t indított, a tavaly decemberi előnézetet követve. Ez nem az OpenAI legerősebb modellje, de az O3-Mini jobb hatékonysággal és válaszsebességgel büszkélkedhet.

Én kockázatosnak tiltom ott: Az Európai Unió vasárnapjától kezdve a blokk szabályozói betilthatják az általuk tartott AI rendszerek használatát, amelyek „elfogadhatatlan kockázatot” jelentenek. Ez magában foglalja a társadalmi pontozáshoz és a tudatalatti reklámhoz használt AI -t is.

Játék az AI „Doomers” -ről: Van egy új játék az AI „Doomer” kultúráról, lazán alapul, Sam Altman 2023 novemberében az Openai vezérigazgatójaként való elhagyása. Dominic és Rebecca kollégáim megosztják gondolataikat a premier nézése után.

Technika a terméshozamok növelésére: A Google X „Moonshot Factory” ezen a héten bejelentette legújabb diplomáját. Öröklődő mezőgazdaság egy adat- és gépi tanulás-vezérelt indítás, amelynek célja a növények termesztésének javítása.

A hét kutatási dokumentuma

Az érvelési modellek jobbak, mint az átlagos AI a problémák, különösen a tudomány és a matematikai és a matematikai kérdések megoldásakor. De nem ők ezüstgolyó.

A Új tanulmány a Tencent kínai vállalat kutatóitól Vizsgálja az érvelési modellekben az „alulgondolkodás” kérdését, ahol a modellek idő előtt, megmagyarázhatatlanul elhagyják a potenciálisan ígéretes gondolati láncokat. A tanulmány eredményei szerint az „alulképző” minták inkább nehezebb problémákkal fordulnak elő, és a modellek az érvelési láncok közötti váltáshoz vezetnek, anélkül, hogy válaszokat kapnának.

A csapat javaslatot javasol, amely „gondolatváltó büntetést” alkalmaz, hogy ösztönözze a modelleket, hogy „alaposan” fejlesszék ki az egyes érvelési sorokat, mielőtt megvizsgálnák az alternatívákat, fokozva a modellek pontosságát.

A hét modellje

Képhitelek:Yue

A Tiktok tulajdonos Bytedance, a kínai AI társaság, a Moonshot és mások által támogatott kutatók egy új nyitott modellt adtak ki, amely képes viszonylag magas színvonalú zenét generálni az utasításokból.

A modell, úgynevezett Yuenéhány perc hosszú hangot adhat ki, énekkel és hátlapokkal. Ez egy Apache 2.0 licenc alatt van, azaz a modell kereskedelemben használható korlátozások nélkül.

Vannak hátrányai azonban. A Yue futtatásához húsos GPU -t igényel; Egy 30 másodperces dal előállítása hat percet vesz igénybe egy NVIDIA RTX 4090-rel. Sőt, nem egyértelmű, hogy a modellt szerzői joggal védett adatok felhasználásával képezték-e; Az alkotói nem mondták el. Ha kiderül, hogy a szerzői joggal védett dalok valóban a modell képzési készletében voltak, a felhasználók a jövőbeli IP -kihívásokkal szembesülhetnek.

Megragadó táska

Képhitelek:Antropikus

Az AI Lab Antropic állításai, hogy kifejlesztett egy technikát az AI „Jailbreaks” megbízhatóbb védelmére, az AI rendszer biztonsági intézkedéseinek megkerülésére használható módszerek.

A technika, Alkotmányos osztályozókaz „osztályozó” AI modellek két halmazára támaszkodik: egy „bemeneti” osztályozó és egy „kimenet” osztályozó. A bemeneti osztályozó a Sarbes -t egy védett modellhez csatolja a jailbreak -t és más tiltott tartalmat leíró sablonokkal, míg a kimeneti osztályozó kiszámítja annak valószínűségét, hogy egy modell válasza a káros információkkal foglalkozik.

Az antropikus azt mondja, hogy az alkotmányos osztályozók szűrhetik a jailbreaks „túlnyomó többségét”. Ez azonban költséggel jár. Minden lekérdezés 25% -kal igényesebb, és a védett modell 0,38% -kal kevésbé valószínű, hogy válaszol az ártalmatlan kérdésekre.

(TagStotranslate) AI (T) hírlevél (T) Ezen a héten az AI (T) -ben ezen a héten az AI hírlevélben

Forrás: techcrunch.com

Szólj hozzá

Tetejére