Root NationCikkekAnalitikaA mesterséges intelligencia hat parancsolata

A mesterséges intelligencia hat parancsolata

-

A következő éveket a mesterséges intelligencia technológiák rohamos fejlődése jellemzi. Lehetséges, hogy világosan meghatározott keretrendszereket kell bevezetni az AI létrehozásához és használatához? Elegendő 6 hónap tapasztalat egy olyan technológia szabályozásához, amely még ki sem lépett a laborból? Ez a kérdés egyre gyakrabban hangzik el a szakértők és az újságírók szájából, ha mesterséges intelligenciáról van szó. Egyre gyakrabban hallatszanak hangok és felszólítások a mesterséges intelligencia szabályozására - mind felhasználói, mind a projektfejlesztés szintjén. Az ilyen fellebbezések története meglehetősen régen kezdődött.

A mesterséges intelligencia mindenütt jelenléte a digitális térben, és mindenekelőtt olyan modellek, amelyek képesek olyan tartalmat létrehozni, amely nem különbözik az ember által alkototttól, nagyon eltérő érzelmeket vált ki. Egyrészt van egy csapat rajongónk, akik a mesterséges intelligenciában látják a jövőt, és viszonylag korlátozott képességei ellenére (mivel az AI nem gondolkodik, gyakran csak az internetről veszi az információkat) nem félnek rábízni sok feladatot. . A barikád másik oldalán áll egy csoport, amely szkepticizmusát és aggodalmát fejezi ki a mesterséges intelligencia fejlődésének jelenlegi trendjei miatt.

AI posztulátum

A hidat a két csoport között a mesterséges intelligencia kutatói jelentik, akik egyrészt számos példát hoznak fel arra, hogy a mesterséges intelligencia milyen pozitív hatással volt a környező valóságra. Ugyanakkor megértik, hogy túl korai még a babérjain pihenni, és egy hatalmas technológiai ugrás számos kihívást és nagy felelősséget jelent. E hozzáállás egyértelmű példája a mesterséges intelligencia és gépi tanulás kutatóinak nemzetközi csoportja, amelyet Dr. Ozlem Garibay, a Közép-Floridai Egyetem munkatársa vezetett. A 47 oldalas kiadvány, amelyet 26 tudós írt a világ minden tájáról, hat kihívást azonosít és ír le, amelyekkel a kutatóintézeteknek, vállalatoknak és nagyvállalatoknak meg kell küzdeniük, hogy modelljeik (és az azokat használó szoftverek) biztonságosak legyenek.

Igen, ez egy komoly tudományos munka fontos magyarázatokkal a mesterséges intelligencia jövőjének megértéséhez. Akit érdekel, önállóan tud olvassa el ezt a tudományos jelentést és vonja le a saját következtetéseit. Egyszerű szavakkal, a tudósok azonosították a mesterséges intelligencia 6 parancsolatát. Minden mesterséges intelligencia fejlesztésnek és tevékenységnek meg kell felelnie ezeknek, hogy biztonságos legyen az emberek és a világ számára.

AI posztulátum

Pontosan e tudományos munka alapján írt cikkemben megpróbálom megfogalmazni azokat a főbb posztulátumokat, törvényszerűségeket, amelyek szerint a mesterséges intelligencia léteznie és fejlődnie kell. Igen, ez az én szinte szabad értelmezésem a tudósok következtetéseiből a mesterséges intelligencia fejlesztésével kapcsolatban, és kísérletet teszek arra, hogy ezeket úgymond bibliai változatban mutassam be. De így szerettem volna megismertetni Önnel a tekintélyes tudósok e tudományos munkáját.

Szintén érdekes: AI építése: Ki vezeti a versenyt?

Az első törvény: Az emberi jólét

A kutatók első posztulátuma az, hogy a mesterséges intelligencia munkáját az emberi jólétre összpontosítsák. Az „emberi értékek, a józan ész és az etika” hiánya miatt a mesterséges intelligencia úgy tud fellépni, hogy az az emberi jólét jelentős romlásához vezet. A problémák a mesterséges intelligencia emberfeletti képességeiből adódhatnak (például, hogy a mesterséges intelligencia milyen könnyen veri meg az embert – és nem csak a sakkban), de az is, hogy az MI nem gondolkodik önmagáért, ezért nem képes „kiszűrni” az elfogultságokat, ill. nyilvánvaló hibák.

AI Postulat

- Reklám -

A kutatók megjegyzik, hogy a mesterséges intelligencia technológiákba vetett túlzott bizalom negatívan befolyásolhatja az emberek jólétét. Az a társadalom, amely keveset ért a mesterséges intelligencia-algoritmusok tényleges működéséhez, hajlamos túlzottan megbízni benne, vagy éppen ellenkezőleg, negatívan viszonyul egy bizonyos modell által generált tartalomhoz, különösen a chatbotokhoz. Figyelembe véve ezeket és más tényezőket, Garibay csapata azt szorgalmazza, hogy az emberi jólétet helyezzék a mesterséges intelligencia és az ember jövőbeli interakcióinak középpontjába.

Olvassa el még: ChatGPT: egy egyszerű használati útmutató

A második törvény: Felelősség

Az elszámoltathatóság egy olyan kifejezés, amely folyamatosan megjelenik a mesterséges intelligencia világában azzal összefüggésben, hogy mire használjuk a gépi tanulást, és hogyan fejlesztik és képezik pontosan az AI-modelleket és -algoritmusokat. A nemzetközi csapat hangsúlyozza, hogy a mesterséges intelligencia tervezése, fejlesztése és megvalósítása kizárólag jó szándékkal történjen.

AI Postulat

Véleményük szerint a felelősséget nem csak technikai, hanem jogi és etikai kontextusban is figyelembe kell venni. A technológiát nemcsak hatékonysága, hanem felhasználása szempontjából is figyelembe kell venni.

"A fejlett gépi tanulási technikák bevezetésével egyre fontosabbá válik annak megértése, hogyan született egy döntés, és ki a felelős érte” – írják a kutatók.

A harmadik törvény: Titoktartás

Az adatvédelem olyan téma, amely bumeránggal foglalkozik minden technológiáról szóló diskurzusban. Főleg, ha a közösségi hálózatokon mindenről szó esik. Ez azonban rendkívül fontos a mesterséges intelligencia számára, mert adatbázis nélkül nem létezik. És mik azok az adatbázisok?

A tudósok úgy írják le őket, mint "az alapvető építőelemek absztrakcióját, amelyek a világlátásunkat alkotják". Ezek a blokkok általában hétköznapi értékek: színek, formák, textúrák, távolságok, idő. Míg a szűk mesterséges intelligencia egyetlen célra összpontosít, például arra, hogy egy adott fényintenzitás mellett milyen mértékben nyílik ki a redőny, és nyilvánosan elérhető objektív adatokat használ, addig az AI szélesebb körű alkalmazásokban (itt például a szöveg-kép modellek, például a Midjourney, vagy nyelvi modellek, például a ChatGPT ) használhatnak emberekről szóló és általuk létrehozott adatokat. Meg kell említeni a sajtóban megjelent cikkeket, könyveket, az interneten megjelent illusztrációkat és fényképeket is. A mesterséges intelligencia algoritmusai mindenhez hozzáférnek, mert mi magunk adtuk nekik. Ellenkező esetben nem fog tudni semmit, és egyetlen kérdésre sem ad választ.

AI Postulat

A felhasználói adatok alapvetően érintik mind azokat, akikről ezeket az adatokat gyűjtik, mind a rendszerben lévő személyeket, ahol a mesterséges intelligencia algoritmusait megvalósítják.

Ezért a harmadik kihívás a magánélet tág értelmezéséhez és az olyan jogok biztosításához kapcsolódik, mint az egyedül maradáshoz való jog, az önmagunkhoz való hozzáférés korlátozásának joga, a személyes élet vagy üzleti titokhoz való jog, a személyes adatok ellenőrzésének joga. információ, vagyis a személyiség, az egyéniség és a méltóság védelméhez való jog. Mindezt be kell írni az algoritmusokba, különben a magánélet egyszerűen nem létezik, és az AI-algoritmusok felhasználhatók csaló sémákban, valamint bűncselekményekben.

Olvassa el még: A ChatGPT használatának 7 legmenőbb módja

Negyedik törvény: Projektstruktúra

A mesterséges intelligencia lehet rendkívül egyszerű és egycélú, de a nagyobb, széleskörű és többfeladatos jellegű modellek esetében nem csak az adatvédelem, hanem a tervezési struktúra is probléma.

Például a GPT-4, az OpenAI legújabb mesterséges intelligencia modellje mérete és a mesterséges intelligencia világára (és azon túl) gyakorolt ​​hatása ellenére nem rendelkezik teljes körűen nyilvános dokumentációval. Vagyis fogalmunk sincs arról, hogy mik a végső céljai a fejlesztőknek, mit szeretnének elérni a végeredményben. Ezért nem tudjuk teljes mértékben felmérni az AI-modell használatával kapcsolatos kockázatokat. Ezzel szemben a GPT-3, amelyet a 4chan fórumból származó adatok alapján képeztek ki, egy olyan modell, amellyel semmiképpen sem akar kommunikálni. A 4chan fórum az egyik legérdekesebb jelenség az interneten. Ez egy példa az abszolút, teljes anarchiára, amelyet a gyakorlatban semmilyen keret nem korlátoz. Itt jöttek létre olyan hackercsoportok, mint az Anonymous vagy a LulzSec. Sok legnépszerűbb mém forrása, ahol vitatott témákat lehet megvitatni és még vitatottabb véleményeket közzétenni. Bár az angol nyelvű imageboard megjegyzi, hogy "eddig legális", ez kissé megkérdőjelezhető, mivel a 4chan időnként kapcsolatba lép a médiával, beleértve a rasszista, náci és szexista tartalmakat is.

AI Postulat

- Reklám -

Garibay professzor csapata azt szeretné, ha a mesterséges intelligencia minden modellje világosan meghatározott kereteken belül működne. Nemcsak annak a személynek a jóléte miatt, akivel az MI kölcsönhatásba lép, hanem azért is, mert képes felmérni a modell használatával kapcsolatos kockázatokat. Minden projekt felépítésének tartalmaznia kell a különböző kulturális csoportok és érdekelt felek igényeinek, értékeinek és kívánságainak tiszteletben tartását. A mesterséges intelligencia létrehozásának, képzésének és finomhangolásának folyamatának az emberi jólétre kell összpontosítania, a végterméknek – az AI-modellnek – pedig magának az emberi közösségnek a termelékenységének növelésére és javítására kell irányulnia. Azokhoz a modellekhez, amelyekben a kockázatok nem azonosíthatók, korlátozott vagy ellenőrzött hozzáférést kell biztosítani. Nem jelenthetnek veszélyt az emberiségre, hanem éppen ellenkezőleg, hozzá kell járulniuk az ember és a társadalom egészének fejlődéséhez.

Olvassa el még: Twitter Elon Musk kezében – fenyegetés vagy „javulás”?

Az ötödik törvény: kormányzás és független felügyelet

A mesterséges intelligencia algoritmusai szó szerint megváltoztatták a világot mindössze egy év alatt. A Bard by Google és a Bing premierje: Microsoft jelentősen befolyásolta mindkét óriás tőzsdei részvényeit. Egyébként a részvények hátterében is hozzájárultak e társaságok részvényeinek növekedéséhez Apple. A ChatGPT-t elkezdték aktívan használni az iskolások, kommunikálnak vele, megvizsgálják és kérdéseket tesznek fel. A legfontosabb, hogy képes legyen önállóan tanulni, kijavítani a hibáit. A mesterséges intelligencia egyes országok kormányaiban is elkezd dolgozni. Ez a román miniszterelnök, Nicolae Chuca esete bérelt egy virtuálist egy asszisztens, aki tájékoztatja őt a társadalom szükségleteiről. Vagyis a mesterséges intelligencia egyre fontosabb szerepet tölt be életünkben.

AI

Tekintettel a mesterséges intelligencia, az ember és a környezet egyre erősödő kölcsönös függésére, a tudósok szükségesnek tartják irányító testületek létrehozását és fejlesztésének független felügyeletét. Ezek a szervek irányítják majd a mesterséges intelligencia teljes életciklusát: az ötlettől a fejlesztésig és megvalósításig. A hatóságok megfelelően meghatározzák a mesterséges intelligencia különböző modelljeit, és figyelembe veszik a mesterséges intelligenciával és a társadalmi élet tárgyaival kapcsolatos eseteket. Vagyis a mesterséges intelligencia bírósági perek, valamint perek tárgyává válhat. Bár persze nem ő személyesen, hanem a fejlesztői.

Olvassa el még: Mindent a Neuralinkről: A cyberpunk őrület kezdete?

A hatodik törvény: Az ember és a mesterséges intelligencia kölcsönhatása

A mesterséges intelligencia programokban mindenki találhat magának valamit: generálhat szöveget, észlelhet tartalmat a képeken, válaszolhat kérdésekre, képeket generálhat, felismerhet embereket a fotókon, adatokat elemezhet. Ezek a többszörös felhasználási módok nem csak azokat aggályosítják, akik megpróbálják a mesterséges intelligenciát a jogi és etikai normákhoz igazítani. Sokan attól tartanak, hogy az AI-modellek kiszorítják őket a munkaerőpiacról. Mert a mesterséges intelligencia algoritmusai gyorsabban, olcsóbban és talán jobban is képesek lesznek ugyanezt megtenni, mint egy ember. Ugyanakkor vannak, akik munkájuk során az AI-ra támaszkodnak, vagyis a mesterséges intelligencia már ma is nélkülözhetetlen asszisztens számukra.

AI

Ám a tudósok által hivatkozott tanulmányokból egyértelműen kiderül, hogy az emberek olcsó mesterséges munkaerővel való helyettesítése még messze van. Ennek ellenére már most is ragaszkodnak ahhoz, hogy szigorú hierarchiát kell kialakítani az emberek és a mesterséges intelligencia közötti interakciók között. Véleményük szerint az embert a mesterséges intelligencia fölé kell helyezni. A mesterséges intelligenciát az ember kognitív képességeinek tiszteletben tartásával kell létrehozni, figyelembe véve érzelmeit, társadalmi interakcióit, elképzeléseit, tervezését és a tárgyakkal való interakcióját. Vagyis minden helyzetben az embernek kell kiállnia a mesterséges intelligencia felett, irányítani a modell által létrehozott viselkedést, tartalmat, és felelősséget vállalni érte. Egyszerűen fogalmazva, még a legfejlettebb MI-nek is engedelmeskednie kell egy személynek, és nem lépheti túl a megengedettet, hogy ne sértse meg alkotóját.

Olvassa el még: Hogyan használja és adaptálja Ukrajna a Starlinket a háború idején

Visnovki

Igen, valaki azt fogja mondani, hogy a tudósok semmi fontosat és újat nem jeleztek jelentésükben. Mindenki erről beszél már régóta. De már most az AI-t valamilyen törvényi keretbe kell helyezni. A GPT-4 után nyúlni olyan, mint vakon a késért nyúlni. Eltitkolják előlünk a legfontosabb információkat. A mesterséges intelligencia minden fejlesztése, és különösen az Open AI ChatGPT projektje gyakran emlékeztet arra, hogy egy kisgyermeket neveljek. Néha úgy tűnik, hogy ez egy idegen származású gyermek. Igen, földönkívüli, de még mindig gyerek, aki tanul, hibázik, néha nem illően viselkedik, ingerlékeny, veszekszik a szüleivel. Bár nagyon gyorsan nő és fejlődik.

AI

Lehet, hogy az emberiség nem tart lépést a fejlődésével, és a dolgok kikerülhetnek az irányítás alól. Ezért az emberiségnek már meg kell értenie, miért fejlesztjük mindezt, ismernie kell a végső célokat, "felelős szülőknek" kell lennie, mert különben a "gyerek" egyszerűen tönkreteheti a "szüleit".

Olvassa el még: 

Yuri Svitlyk
Yuri Svitlyk
A Kárpátok fia, a matematika el nem ismert zsenije, "jogász"Microsoft, gyakorlati altruista, bal-jobb
- Reklám -
Regisztrálj
Értesítés arról
vendég

0 Hozzászólások
Beágyazott vélemények
Az összes megjegyzés megtekintése