Root NationHírekinformatikai újságA technológiai szakértők az AI-kísérletek leállítását követelik

A technológiai szakértők az AI-kísérletek leállítását követelik

-

Technológiai vezetők és kiemelkedő AI-kutatók aláírták nyílt levél, amely felszólítja az AI-laboratóriumokat és a vállalatokat, hogy "azonnal függesszék fel" munkájukat.

Az aláírók, köztük Steve Wozniak és Elon Musk egyetértenek abban, hogy a kockázatok legalább hat hónapos szünetet tesznek szükségessé olyan technológiák gyártásában, amelyek túlmutatnak a kereteken. GPT-4. Ez azért van így, hogy örömet és elégedettséget szerezzünk a jelenleg létező AI-rendszerekből, és lehetővé tegyük az embereknek, hogy alkalmazkodjanak hozzájuk, és lássák, hogy hasznosak.

Technológiai vezetők és szakértők az AI-kísérletek leállítását kérik

A levél hozzáteszi, hogy óvatosságra és előrelátásra van szükség az AI-rendszerek biztonságának biztosításához, de ezeket figyelmen kívül hagyják. A GPT-4-re, egy olyan új OpenAI-modellre való hivatkozás, amely szöveggel tud válaszolni az írott vagy vizuális üzenetekre, a vállalatok versenyeznek, hogy kifinomult chatrendszereket építsenek a technológia segítségével. Példa, Microsoft a közelmúltban megerősítette, hogy frissített Bing keresőmotorja több mint 4 hete fut a GPT-7 modellen, és a Google nemrégiben hivatalosan is bemutatta Dalnok – LaMDA alapú saját generatív mesterséges intelligencia rendszer.

A mesterséges intelligencia miatti aggodalmak már régóta fennállnak, de nyilvánvaló a verseny a legfejlettebb technológia alkalmazásáért. mesterséges intelligencia az első már riasztó. "Az elmúlt hónapokban az AI-laboratóriumok ellenőrizetlen versenybe keveredtek az egyre erősebb digitális elmék fejlesztéséért és megvalósításáért, amelyet senki – még a szerzőik sem – nem érthet meg, nem tud előre jelezni vagy megbízhatóan irányítani" – áll a levélben.

Technológiai vezetők és szakértők az AI-kísérletek leállítását kérik

A levelet a Future of Life Institute (FLI) non-profit szervezet tette közzé, amely a globális katasztrófa- és egzisztenciális kockázatok, valamint az új technológiákkal, különösen az MI-vel való visszaélések minimalizálásán dolgozik. Korábban Musk 10 millió dollárt adományozott az FLI-nek az AI biztonsági kutatására. Rajta és Wozniakon kívül az aláírók között van a mesterséges intelligencia területén számos világelső, mint például a Center for AI és a digitális politika elnöke, Mark Rothenberg, az MIT fizikusa és az FLI elnöke, Max Tegmark, valamint a szerző Yuval Noah Harari.

Harari társszerzője volt a New York Timesban a múlt héten megjelent cikknek, amely figyelmeztetett a kapcsolódó kockázatokra mesterséges intelligencia, amelyen a Center for Humane Technologies alapítói és a nyílt levél más aláírói, Tristan Harris és Aza Raskin dolgoztak vele.

A felhívás egy több mint 700 gépi tanulással foglalkozó kutató által végzett tavalyi felmérés nyomán készült, amelynek közel fele azt mondta, hogy körülbelül 10%-os az esélye a mesterséges intelligencia „rendkívül rossz következményeinek”, beleértve az emberi kihalást is. Amikor a MI-kutatás biztonságáról kérdezték, a válaszadók 68%-a azt mondta, hogy többet vagy sokkal többet kell tenni.

Olvassa el még:

forrásEngadget
Regisztrálj
Értesítés arról
vendég

0 Hozzászólások
Beágyazott vélemények
Az összes megjegyzés megtekintése