Аналитик Ульянов усомнился в способностях искусственного интеллекта по уничтожению человечества


Вероятность того, что нейросети смогут уничтожить человечество с провоцированием ядерной войны, очень маленькая. Такое заявление сделал глава аналитического центра Zecurion Владимир Ульянов, передаёт Pravda.Ru.

Напомним, что нейросеть ChaosGPT поделилась своими планами по уничтожению человечества, получив соответствующую задачу от одного из пользователей. ИИ сгенерировал публикацию, в которой упоминает «Царь-бомбу», испытанную СССР в 1961 году, и задался вопросом, что случится, если он сможет добраться до неё.

По словам Ульянова, никто не даст возможность управления ядерным оружием ИИ. Более того, нейросеть не действует самостоятельно, она только выполняет то, чему её обучили. В связи с этим корректные настройки системы не позволят причинять вред человечеству, уверен эксперт.

«Что касается ядерного оружия, я полагаю, что всё-таки нет. В ближайшей перспективе и даже в какой-то отдалённой среднесрочной перспективе не будет такой возможности, чтобы нейросети управляли ядерным оружием», – сказал в заключение Ульянов.

Подписка на FBM.RU в Telegram - удобный способ быть в курсе важных экономических новостей! Подписывайтесь и будьте в центре событий. Подписаться.

Добавьте FBM.ru в избранные новости Добавьте FBM в избранные новости

Оценить новость
( Пока оценок нет )
Кристина Михнова/ автор статьи
FBM.ru - Финансы  Бизнес Маркетинг