О необходимости срочно «отключить все системы ИИ» заявил исследователь ИИ из США Элиезер Юдковский. Он говорил об опасностях технологии с начала 2000-х годов, пишет журнал Time.
В материале отмечено, что Элиезер Юдковский воздержался от подписания письма бизнесменов Илона Маска и Стива Возняка, поскольку оно преуменьшает «серьёзность ситуации». По словам учёного, этого мало для решения проблемы.
«Многие учёные, которые погружены в эти проблемы, в том числе я, ожидают, что наиболее вероятным итогом создания сверхчеловечески умного ИИ при любых обстоятельствах, отдалённо напоминающих нынешние, будет то, что буквально все на Земле умрут», — подчеркнул эксперт.
Юдковский сообщил, что ИИ «не заботится ни о людях, ни о разумной жизни в целом». Он предлагает запрет, который будет «бессрочным и всемирным» без исключений для властей или вооружённых сил.
Стоит отметить, что учёный неоднократно крайне эмоционально предупреждал о возможных катастрофических последствиях ИИ.