Легендарният физик Стивън Хокинг отправи сериозно предупреждение, че създаването на пълноценен изкуствен интелект (ИИ) може да доведе до края на човешката раса.
В последната си книга „Кратки отговори на големите въпроси“ и в серия от медийни изяви ученият призова правителствата и научната общност за строга регулация на технологията. Според него съществува реален риск ИИ да излезе от контрол, преди обществото да е подготвено за неговата мощ.
Основната опасност се корени в разликата между биологичното и технологичното развитие. Хокинг твърдеше, че хората са ограничени от бавната биологична еволюция, докато машините могат да се препроектират с все по-висока скорост.
Веднъж достигнал определен праг, изкуственият интелект бързо ще надмине човешките възможности и ще започне да доминира над глобалните системи, правейки конкуренцията от страна на човека невъзможна.
Физикът обърна специално внимание на заплахата от военния изкуствен интелект и разработването на автономни оръжия. Той подчерта, че една глобална надпревара във въоръжаването с подобни технологии неизбежно ще провокира катастрофални световни конфликти. Освен военните рискове, Стивън Хокинг прогнозира и тежки икономически сътресения, при които автоматизацията и машинното обучение ще заменят работните места на средната класа, задълбочавайки глобалното неравенство.
Въпреки мрачните си прогнози, ученият признаваше и огромния потенциал за развитие. При успешен контрол и правилно насочване, ИИ би могъл да помогне за изкореняването на бедността, лечението на нелечими болести и възстановяването на околната среда.
Според Хокинг обаче човечеството трябва да действа бързо и да търси възможности за колонизация на нови планети в рамките на следващите 100 години, за да гарантира своето оцеляване при евентуална екологична катастрофа или ядрена война.