Patterns: Языковые модели типа ChatGPT упрощают написание поддельных научных исследований


Стало известно, что американские учёные обсуждают потенциальные риски, которые связаны с продвинутыми языковыми моделями, в том числе ChatGPT. Об этом информирует журнал Patterns.

Исследователи сообщают о возможности применения таких моделей злоумышленниками для разработки поддельных научных работ. С помощью ChatGPT учёные создали поддельную научную работу, чтобы доказать свою гипотезу.

Полученная работа была оформлена достаточно профессионально, однако имела ложную информацию, придуманных участников клинических испытаний, а также бессмысленные итоги. По словам экспертов, любой злоумышленник способен разработать подобную работу и отправить её на публикацию в научное издание.

Кроме того, исследователи провели аналог теста Тьюринга, в котором специалисты должны были выявить, статья написана человеком или машиной. Они ошибочно распознали 32% научных статей, сделанных языковыми моделями, а также 14% статей, созданных людьми.

Подписка на FBM.RU в Telegram - удобный способ быть в курсе важных экономических новостей! Подписывайтесь и будьте в центре событий. Подписаться.

Добавьте FBM.ru в избранные новости Добавьте FBM в избранные новости

Оценить новость
( Пока оценок нет )
Кристина Михнова/ автор статьи
FBM.ru - Финансы  Бизнес Маркетинг