Time: Учёный Юдковский заявил о необходимости срочно отключить все системы ИИ


О необходимости срочно «отключить все системы ИИ» заявил исследователь ИИ из США Элиезер Юдковский. Он говорил об опасностях технологии с начала 2000-х годов, пишет журнал Time.

В материале отмечено, что Элиезер Юдковский воздержался от подписания письма бизнесменов Илона Маска и Стива Возняка, поскольку оно преуменьшает «серьёзность ситуации». По словам учёного, этого мало для решения проблемы.

«Многие учёные, которые погружены в эти проблемы, в том числе я, ожидают, что наиболее вероятным итогом создания сверхчеловечески умного ИИ при любых обстоятельствах, отдалённо напоминающих нынешние, будет то, что буквально все на Земле умрут», — подчеркнул эксперт.

Юдковский сообщил, что ИИ «не заботится ни о людях, ни о разумной жизни в целом».  Он предлагает запрет, который будет «бессрочным и всемирным» без исключений для властей или вооружённых сил.

Стоит отметить, что учёный неоднократно крайне эмоционально предупреждал о возможных катастрофических последствиях ИИ.

Подписка на FBM.RU в Telegram - удобный способ быть в курсе важных экономических новостей! Подписывайтесь и будьте в центре событий. Подписаться.

Добавьте FBM.ru в избранные новости Добавьте FBM в избранные новости

Оценить новость
( Пока оценок нет )
Кристина Михнова/ автор статьи
FBM.ru - Финансы  Бизнес Маркетинг