Root NationHírekinformatikai újságA Google egykori vezetője a mesterséges intelligenciát az atomfegyverekhez hasonlította

A Google egykori vezetője a mesterséges intelligenciát az atomfegyverekhez hasonlította

-

A Google korábbi vezérigazgatója, Eric Schmidt a mesterséges intelligenciát (AI) az atomfegyverekhez hasonlította, és a kölcsönösen biztosított pusztításhoz hasonló elrettentő rezsimet szorgalmazott, amely megakadályozza, hogy a világ legerősebb nemzetei pusztítsák el egymást.

A Google egykori vezetője a mesterséges intelligenciát az atomfegyverekhez hasonlította

Schmidt a mesterséges intelligencia veszélyeiről beszélt az Aspen Biztonsági Fórumon július 22-én a nemzetbiztonságról és a mesterséges intelligenciáról szóló megbeszélésen. Amikor az erkölcs értékéről kérdezték a technológiában, Schmidt kifejtette, hogy ő maga is naiv volt az információ erejével kapcsolatban a Google kezdeti időszakában. Ezután arra szólított fel, hogy a technológia jobban illeszkedjen az általuk kiszolgált emberek etikájához és erkölcséhez, és furcsa összehasonlítást vont a mesterséges intelligencia és a nukleáris fegyverek között.

Schmidt a közeljövőről beszélt, amelyben Kínának és az Egyesült Államoknak megállapodást kell kötnie a mesterséges intelligenciáról. "Az 50-es és '60-as években egy olyan világot hoztunk létre, ahol a nukleáris kísérletekre vonatkozóan "nincs meglepetés" szabály, és ennek eredményeként betiltották őket" - mondta Schmidt. „Ez a bizalom vagy a bizalomhiány egyensúlyának példája, ez a „nincs meglepetés” szabálya. Nagyon aggódom amiatt, hogy az Egyesült Államok Kínát korruptnak, kommunistának vagy bárminek, és Kína vesztesnek tekinti Amerikát... lehetővé teszi az emberek számára, hogy azt mondják: „Úristen, készülnek valamire”, majd valami érthetetlen kezdődik...

Az AI és a gépi tanulás lenyűgöző és gyakran félreértett technológia. Alapvetően nem olyan okos, mint azt az emberek gondolják. Remekmű szintű alkotásokat készíthet, legyőzheti az embereket a Starcraft II-nél, és kezdetleges telefonhívásokat kezdeményezhet a felhasználók számára. A nehezebb feladatok elvégzésére irányuló kísérletek, például egy nagyvárosi autóvezetés azonban nem jártak sikerrel.

Schmidt egy képzeletbeli közeljövőről beszél, amelyben Kína és az Egyesült Államok egyaránt aggódni fognak a biztonsági kérdések miatt, ami arra kényszeríti őket, hogy kössenek egyfajta szerződést az AI korlátozásáról. Felidézte az 1950-es és 60-as éveket, amikor a diplomácia egy sor ellenőrzést dolgozott ki a bolygó leghalálosabb fegyverei körül. De egy évtizednyi nukleáris robbantásba telt, és ami a legfontosabb, Hirosima és Nagaszaki elpusztítása, hogy a béke eljöjjön a nukleáris kísérleti tilalomról szóló szerződés, a SALT II és más mérföldkőnek számító jogszabályok megkötése előtt.

A második világháború végén Amerika által elpusztított két japán város több tízezer ember életét követelte, és bebizonyította a világnak az atomfegyverek örök rémét. Ezután Oroszország és Kína kormánya rohant fegyverek beszerzésére. Az a mód, ahogyan élünk azzal a lehetőséggel, hogy ezeket a fegyvereket használni fogják, az úgynevezett kölcsönösen biztosított megsemmisítés (MAD), az elrettentés elmélete, amely biztosítja, hogy ha egy ország nukleáris fegyvert indít be, lehetséges, hogy bármely másik ország megteszi. Nem használjuk a legpusztítóbb fegyvereket a bolygón, mert fennáll annak a lehetősége, hogy legalább a civilizációt elpusztítják a világon.

Schmidt színes megjegyzései ellenére nem akarunk és nem is kell MAD for AI. Először is, az AI még nem bizonyította pusztító erejét az atomfegyverekhez képest. De a hatalmon lévők félnek ettől az új technológiától, és általában rossz okokból. Az emberek még azt is javasolták, hogy adják át a nukleáris fegyverek feletti irányítást egy mesterséges intelligenciának, mivel úgy gondolják, hogy az jobb döntést hozna a használatáról, mint egy ember.

A Google korábbi vezetője a mesterséges intelligenciát az atomfegyverekhez hasonlította

A mesterséges intelligenciával nem az a probléma, hogy olyan potenciálisan pusztító ereje van, mint egy nukleáris fegyvernek. A lényeg az, hogy a mesterséges intelligencia csak annyira jó, amennyire az emberek kifejlesztették, és az alkotóinak értékeit hordozza. A mesterséges intelligencia a klasszikus "szemetet be, szemét ki" problémától szenved: a rasszista algoritmusok rasszista robotokat hoznak létre, és minden mesterséges intelligencia magában hordozza az alkotók elfogultságát.

Demis Hassabis, a DeepMind vezérigazgatója, a Starcraft II-es játékosokat legyőző mesterséges intelligencia kiképző cége, úgy tűnik, jobban érti ezt, mint Schmidt. A Lex Friedman podcastjában adott júliusi interjúban Friedman megkérdezte Hassabit, hogyan lehet irányítani egy olyan erős technológiát, mint a mesterséges intelligencia, és hogyan kerülheti el magát Hassabis, hogy ez a hatalom megrontsa.

Khasabis válasza önmagáról szól. "A mesterséges intelligencia túl nagy ötlet" - mondta. „Fontos, hogy ki hozza létre a mesterséges intelligenciát, milyen kultúrákból származik és mik az értékei. Az AI-rendszerek maguktól tanulnak, de a rendszerbe belenyomódik a rendszer szerzőinek kultúrája és értékei."

A mesterséges intelligencia a szerző tükre. Egy 1,2 megatonnás robbanással nem tud a földdel egyenlővé tenni egy várost. Kivéve, ha valaki ezt tanítja neki.

Segíthet Ukrajnának az orosz megszállók elleni küzdelemben. Ennek legjobb módja, ha adományokat adományoz az ukrán fegyveres erőknek ezen keresztül Savelife vagy a hivatalos oldalon keresztül NBU.

Olvassa el még:

forrásvice
Regisztrálj
Értesítés arról
vendég

0 Hozzászólások
Beágyazott vélemények
Az összes megjegyzés megtekintése