Предупредувањата доаѓаат од сите агли: вештачката интелигенција претставува егзистенцијален ризик за човештвото и мора да се заузда пред да биде предоцна.
Но, кои се овие сценарија за катастрофа и како машините би требало да го избришат човештвото?
Повеќето сценарија за катастрофи започнуваат на истото место: машините ќе ги надминат човечките капацитети, ќе ја избегнат човечката контрола и ќе одбијат да бидат исклучени.
„Откако имаме машини кои имаат цел за самоодржување, ние сме во неволја“, изјави академик за вештачка интелигенција Јошуа Бенџо на настан овој месец.
Но, бидејќи овие машини се уште не постојат, замислувањето како тие би можеле да го осудат човештвото често се остава на филозофијата и научната фантастика.
Филозофот Ник Бостром напишал за „разузнавачка експлозија“ за која вели дека ќе се случи кога суперинтелигентните машини ќе почнат да дизајнираат сопствени машини. Тој ја илустрирал идејата со приказната за суперинтелигентна вештачка интелигенција во фабрика за спојници за хартија.
На вештачката интелигенција и е дадена крајната цел и така „продолжува со претворање на прво на Земјата, а потоа на сè поголемите делови од набљудуваниот универзум во спајалици за хартија“.
Идеите на Бостром беа отфрлени од многумина како научна фантастика, не само затоа што тој одделно тврдеше дека човештвото е компјутерска симулација и поддржа теории блиски до евгениката. Тој неодамна се извини и откако беше откриена расистичка порака што ја испрати во 1990-тите.
Сепак, неговите размислувања за вештачката интелигенција беа огромно влијателни, инспирирајќи ги и Елон Маск и професорот Стивен Хокинг.
Ако суперинтелигентните машини сакаат да го уништат човештвото, сигурно им треба физичка форма.
Црвенококиот киборг на Арнолд Шварценегер, испратен од иднината да стави крај на човечкиот отпор од вештачка интелигенција во филмот „Терминатор“, се покажа како заводлива слика, особено за медиумите.
Но, експертите ја отфрлија идејата.
„Овој концепт на научна фантастика веројатно нема да стане реалност во наредните децении, ако воопшто и воопшто ќе стане реалност“, напишала кампањата на групата Stop Killer Robots во извештајот за 2021 година.
Сепак, групата предупреди дека давањето моќ на машините да донесуваат одлуки за животот и смртта е егзистенцијален ризик.
Експертот за роботи Керстин Даутенхан, од Универзитетот Ватерло во Канада, ги омаловажи тие стравови.
Таа изјави за АФП дека вештачката интелигенција веројатно нема да им даде на машините повисоки способности за расудување или да ги зафати со желба да ги убијат сите луѓе.
„Роботите не се зли“, рече таа, иако призна дека програмерите би можеле да ги натераат да прават лоши работи.
Помалку отворено научно-фантастично сценарио гледа дека „лошите актери“ користат вештачка интелигенција за да создадат токсини или нови вируси и да ги ослободуваат во светот.
Големите јазични модели како GPT-3, кој се користеше за создавање на ChatGPT, се испостави дека се исклучително добри во измислувањето на ужасни нови хемиски агенси.
Група научници кои користеле вештачка интелигенција за да помогнат во откривањето нови лекови, направиле експеримент каде што ја измениле својата вештачка интелигенција за да бараат штетни молекули наместо тоа.
Тие успеале да генерираат 40.000 потенцијално отровни агенси за помалку од шест часа, како што е објавено во списанието Nature Machine Intelligence.
Експертот за вештачка интелигенција, Џоана Брајсон од училиштето Херти во Берлин, рече дека може да замисли некој да најде начин за побрзо ширење на отров како антракс.
„Но, тоа не е егзистенцијална закана“, рече таа за АФП. „Тоа е само ужасно, страшно оружје.
Правилата на Холивуд диктираат дека епохалните катастрофи мора да бидат ненадејни, огромни и драматични – но што ако крајот на човештвото беше бавен, тивок и не конечен?
„На најмрачниот крај на нашиот вид може да дојде крајот без наследник“, вели филозофот Ху Прајс во промотивното видео за Центарот за проучување на егзистенцијалниот ризик на Универзитетот Кембриџ.
Но, тој рече дека има „помалку мрачни можности“ каде што луѓето надополнети со напредна технологија би можеле да преживеат.
„На чисто биолошкиот вид на крајот му доаѓа крајот, со тоа што нема луѓе наоколу кои немаат пристап до оваа овозможувачка технологија“, рече тој.
Замислената апокалипса често е врамена во еволутивна смисла.
Стивен Хокинг во 2014 година тврдеше дека на крајот нашиот вид повеќе нема да може да се натпреварува со машините со вештачка интелигенција, велејќи за Би-Би-Си дека тоа може да „го означи крајот на човечката раса“.
Џефри Хинтон, кој ја помина својата кариера градејќи машини што личат на човечкиот мозок, подоцна за Google, зборува со слични термини за „суперинтелигенции“ кои едноставно ги престигнуваат луѓето.
Неодамна тој за американската телевизија PBS изјави дека е можно „човештвото е само минлива фаза во еволуцијата на разузнавањето“.