2018-ban bekövetkezett halála előtt Stephen Hawking nem kerülgette a forró kását, amikor az emberiség jövőjéről beszélt. Az angol elméleti fizikus azt az elvet vallotta, miszerint a fajunk életét jelenleg „csak” három dolog sodorhatja veszélybe: a mesterséges intelligencia (AI), a genetikailag módosított vírusok és a nukleáris háború. Ezek azonban akár apokaliptikus következményekkel is járhatnak.
Miközben rohanunk előre a technológia fejlődésével, és már-már megszállottként halmozzuk a fejlesztésekben elért sikert, Hawking arra figyelmeztetett, hogy ezzel olyan ismeretlen és „új utakat teremtünk, amelyeken a dolgok rosszul sülhetnek el”.
Ugyanis a fejlődésnek ára is van: minden eddiginél sebezhetőbbé tesz minket, és az ember okozta ilyesfajta katasztrófákra még vészjóslóan felkészületlenek vagyunk.
A világhírű fizikus úgy nyilatkozott: „Bár egyetlen adott évben a Föld bolygót érő katasztrófa esélye meglehetősen alacsony lehet, az idő múlásával ez összeadódik, és a következő ezer vagy tízezer évben szinte bizonyossággá válik. Addigra ki kellene terjednünk az űrbe és más csillagok felé, így egy katasztrófa a Földön nem jelentené az emberi faj végét. Azonban legalább a következő száz évben nem fogunk önfenntartó kolóniákat létrehozni az űrben, ezért ebben az időszakban nagyon óvatosnak kell lennünk” – intézte szavait Hawking azokhoz, akik játszanak a tűzzel.
A legendás fizikus ugyanakkor arról is említést tett, hogy egy bizonyos szempontból nem kell aggódni, ugyanis az emberek hajlamosak arra, hogy éppen az utolsó pillanatban „mentsék meg a helyzetet”, ezért arra biztatta a tudóstársait, hogy kitartóan folytassák a saját területükön való előrelépést.
„Nem fogunk leállni a fejlődéssel, vagy visszafordítani azt, ezért fel kell ismernünk a veszélyeket, és kordában kell tartanunk azokat. Optimista vagyok, és hiszem, hogy sikerülni fog. Fontos, hogy biztosítsuk, hogy ezek a változások a helyes irányba haladjanak” – hangsúlyozta Hawking, akinek a meglátásai azzal egyidőben hangzottak el, amikor úgy nyilatkozott, az „autonóm fegyverek” fejlődését követően Terminátor-szerű gyilkos robotok irthatják ki az emberiséget.
Stephen Hawking egyike volt annak a több mint 1000 vezető tudósnak és üzletembernek, akik aláírták az Élet Jövője Intézet (Future Of Life Institute) nyílt levelét.
A levél szerint az AI-uralta fegyverekkel való versengés „gyakorlatilag elkerülhetetlen”, és „nem lenne előnyös az emberiség számára”. Hawking, aki élete során kiemelkedő szakmai sikereket ért el, a laikusoknak szóló ismeretterjesztési munkássága révén vált igazán híressé, és azon kevés tudós közé sorolható, akik részei lettek a populáris kultúrának is, mint például Albert Einstein.