KuriózumEgy híres kutató kétségbeesett felhívása: ha nem állítjuk le a mesterséges intelligencia...

Egy híres kutató kétségbeesett felhívása: ha nem állítjuk le a mesterséges intelligencia fejlesztését, az emberiség vesztét okozhatjuk

Iratkozz fel hírlevelünkre, vagy kövess minket a Viberen, a Telegramon és a Google Hírek-en!

Egy a múlt hónap végén közzétett, Elon Musk és több technológiai szakértőből álló csoport által aláírt nyílt levél felszólította a mesterséges intelligenciákat fejlesztő laboratóriumokat, hogy hagyjanak fel az OpenAI által nemrég kiadott GPT-4 modellnél erősebb rendszerek fejlesztésével legalább 6 hónapra, a társadalomra és az emberiségre leselkedő potenciális kockázatokra hivatkozva.

Eliezer Yudkowsky AI-kutató, aki leginkább a barátságos mesterséges intelligencia gondolatának népszerűsítéséről vált ismertté, a TIME magazinban azt írta, hogy ez a 6 hónapos haladék valóban jobb a semminél, de közel sem elég, és ő maga nem írta alá a levelet, mert úgy érzi, az alábecsüli a helyzet súlyosságát.

A fő probléma nem az „emberekkel versengő” intelligencia (ahogyan a nyílt levélben szerepel), hanem az a kérdés, hogy vajon mi történik azután, hogy a mesterséges intelligencia elér egy „embert meghaladó intelligencia szintet” – mondja Yudkowsky.

Azt is kijelenti, hogy nem tudjuk előre kiszámítani, mi fog történni, de véleménye szerint egy emberfeletti mesterséges intelligencia kiépítésének legvalószínűbb eredménye az emberiség pusztulása a Földön.

Magyarázata szerint nem arról van szó, hogy elviekben ne maradhatnánk életben pusztán azért, mert valami önmagunknál értelmesebbet alkotunk, de ehhez precizitás, képzettség és új tudományos meglátások szükségesek.

E pontosság és felkészültség nélkül a szakértő szerint a legvalószínűbb eredmény egy olyan mesterséges intelligencia, amely nem azt teszi, amit mi akarunk, és általában véve nem törődik az emberi élettel. Azt is hangsúlyozta, hogy ez a törődés elvileg beprogramozható lehet az AI rendszerekbe, de jelenleg még nem állunk készen erre, és nem tudjuk, pontosan hogy kell eljárnunk.

„E törődés hiányában egy olyan mesterséges intelligencia rendszert kapunk, ami sem nem szeret, sem nem gyűlöl, hanem olyan algoritmusokból áll, amelyeket bármire lehet használni” – mutatott rá Yudkowsky.

Szerinte az emberiség szembennállását egy esetlegesen emberfeletti intelligenciával leginkább ahhoz lehetne hasonlítani, mintha a 11. század szállna szembe a 21. századdal, vagy ahhoz, ahogy az Australopithecina (az emberfélék családján belül a Hominina öregnem egy mára eltűnt csoportja) próbálta felvenni a versenyt a Homo sapiens mellett, de végül alulmaradt. Mai tudásunk szerint több millió évig az Australopithecus-fajok voltak a legfejlettebb, legemberszerűbb főemlősök, és pár millió évig fennmaradtak az előemberek megjelenése után is, azokkal párhuzamosan élve, de végül teljesen kihaltak.

Ugyanakkor Yudkowsky szerint nem szabad a fejlett mesterséges intelligenciára úgy gondolnunk, mint egy élettelen gondolkodóra, ami csak számítógépeken létezik, és rosszindulatú e-maileket küld. Egy emberfeletti mesterséges intelligencia – állítja Yudkowskyaz embereket olyan lényeknek fogja fel, akik az ő szemszögéből nézve „ostobák és lassúak”.

A szakértő elmondása szerint egy kellően intelligens mesterséges intelligencia nem sokáig fog a számítógépekre korlátozódni. Kifejtette, hogy az a tény, hogy már most is lehetséges DNS-szálakat e-mailben elküldeni a laboratóriumokba, hogy fehérjéket állítsanak elő, valószínűleg lehetővé teszi majd az AI számára, hogy mesterséges életformákat építsen, vagy egyenesen a posztbiológiai molekuláris gyártás felé induljon el.

„Ha valaki túl erős mesterséges intelligenciát épít a jelenlegi körülmények között, várhatóan az emberi faj minden tagja és a Föld összes biológiai élőlénye elpusztul” – mondta.

Digitális elmék, amelyek jogokat követelhetnek

Eliezer Yudkowsky szerint ugyanakkor erkölcsi problémák is felmerülnek ezzel kapcsolatban. Azt mondja, nem tudjuk meghatározni, hogy egy mesterséges intelligencia rendelkezik-e öntudattal, mivel fogalmunk sincs, hogyan lehet dekódolni mindent, ami ezekben a gigantikus rendszerekben végbemegy. Ha azonban egy ponton valóban öntudattal rendelkező digitális elmét hozunk életre, ezeket bizonyos jogok illetnék meg, és már nem lenne szabad az irányításunk alatt tartanunk.

De nemcsak a kérdés morális vonatkozásai riasztóak, ez a helyzet ugyanis rendkívüli bizonytalansághoz is vezet, ami potenciálisan veszélyes lehet.

Február 7-én a Microsoft vezérigazgatója, Satya Nadella nyilvánosan kijelentette, hogy a Bing új mesterséges intelligencia-alapú rendszere segítségével a „Google táncolni fog”, és azt mondta: „Azt akarom, hogy az emberek tudják, hogy mi értük el, hogy táncoljon.”

Eliezer Yudkowsky szerint a Microsoft vezérigazgatójának megközelítése pontosan azt mutatja, hogy közel sem vesszük elég komolyan a problémát, és arra figyelmeztet, hogy 6 hónap alatt nem fogjuk áthidalni ezt a szakadékot.

Több mint 60 év telt el a mesterséges intelligencia fogalmának első felvetése és tanulmányozása és a mostani szint elérése között, és a biztonságos feltételek megteremtéséhez legalább fele ennyi időre lehet szükség.

„Mind meg fogunk halni”

Yudkowsky arra figyelmeztet, hogy ha az első próbálkozás során hibát követünk el, nem lesz második esélyünk, hogy kijavítsuk azt, és mivel nincsenek kész terveink, szerinte nem állunk készen, és belátható időn belül nem is fogunk készen állni erre a feladatra.

A mesterséges intelligencia fejlesztésében elért eredmények messze meghaladják nemcsak a vonatkozó szabályok lefektetését, de egyáltalán ezen rendszerek működésének megértését is. Ez pedig Yudkowsky szerint az emberiség pusztulásához vezethet.

Sok kutató, aki ezeken az AI-rendszereken dolgozik, úgy gondolja, hogy katasztrófa felé tartunk, de többen inkább csak privát csatornákon merik ezt kijelenteni, semmint nyilvánosan. Úgy gondolják, ezen a ponton képtelenség megállítani az előrehaladást, mert ha ők vállalnák is, hogy szünetet tartanak, mások folytatnák a fejlesztést. Yudkowsky szerint ez a forgatókönyv az emberiséghez méltatlan véghez vezethet, és mindent meg kell tenni ennek megelőzése érdekében.

Mit kellene tenni a szakértő szerint

A kutató szerint azonnal határozatlan idejű és világméretű moratóriumot kell bevezetni az AI-fejlesztésben, és ez alól nem lehetnek kivételek, még a kormányok és hadseregek sem.

Ha az irányelvek bevezetése az Egyesült Államokban kezdődik, akkor Kínának látnia kell, hogy az Egyesült Államok nem törekszik előnyre, hanem megpróbál megakadályozni egy borzalmasan veszélyes technológiát, amelynek nem lehet igazi tulajdonosa, és ami mindannyiunkkal végezhet a Földön – figyelmeztet Yudkowsky.

„Ha végtelen szabadságom lenne törvényeket alkotni, talán egyetlen kivételt tennék a kizárólag biológiai és biotechnológiai problémák megoldására kiképzett mesterséges intelligenciák számára, amelyeket nem az internetről származó szövegekkel képeznek ki, és nem olyan szinten, hogy beszélni vagy tervezni kezdjenek; de ha ez távolról is bonyolítaná a kérdést, azonnal elvetném ezt a javaslatot, és azt mondanám, hogy egyszerűen állítsuk le az egészet” – írta a TIME magazin véleménycikkében.

Határt kell szabni annak, hogy ki mennyi számítási teljesítményt használhat fel egy mesterséges intelligencia rendszer képzéséhez, és ezt az elkövetkező években lefelé kell mozgatni, hogy kompenzáljuk a hatékonyabb képzési algoritmusokat. – tette hozzá.

Bill Gates szerint a mesterséges intelligencia fejlesztésének megszakítására irányuló törekvések nem oldják meg a problémát

Gates szerint jobb lenne az AI-rendszerekhez kapcsolódó fejlesztések legjobb felhasználására összpontosítani, mert nehéz megmondani, mit eredményezne egy globális szünet.

Más szakértők, köztük az Apple társalapítója, Steve Wozniak szerint mérlegelni kell a lehetséges kockázatokat és előnyöket a társadalom számára. „Nem hinném, hogy az, ha egy adott csoportot megkérünk arra, tartson egy kis szünetet, megoldaná a kihívásokat. Egyértelmű, hogy ennek a technológiának hatalmas előnyei vannak…a tennivalónk az, hogy azonosítjuk a problémás területeket” – magyarázta Gates.

Legfrissebb

Hirdetés

Aktuális kedvencek

Ez is tetszeni fog

Kapcsolódó cikkek