EAD: Использование ИИ следует контролировать из-за угрозы ядерной катастрофы


Треть из опрошенных исследователей Стэнфордского университета уверены, что применение ИИ может стать причиной «катастрофы ядерного уровня». Итоги работы передаёт EADaily.

В материале говорится, что 36% высказавшихся не выступают за полный запрет искусственного интеллекта, однако они настороженны касаемо развития самостоятельных решений ИИ.

С ростом популярности моделей ИИ злоупотребления в сфере этики становятся «пожеланием заказчика». Таким образом, число инцидентов и коллизий, которые связаны с ИИ, повысилось в 26 раз. В частности, создавались фейковые видеоролики со знаменитыми политиками, ИИ применялось для мониторинга звонков заключённых тюрьмами США.

Этические стандарты ИИ нужны, поскольку бесконтрольное применение таких технологий может привести к серьёзным последствиям для всего человечества, в том числе спровоцировать глобальную катастрофу.

Подписка на FBM.RU в Telegram - удобный способ быть в курсе важных экономических новостей! Подписывайтесь и будьте в центре событий. Подписаться.

Добавьте FBM.ru в избранные новости Добавьте FBM в избранные новости

Оценить новость
( Пока оценок нет )
Кристина Михнова/ автор статьи
FBM.ru - Финансы  Бизнес Маркетинг