Стало известно, что американские учёные обсуждают потенциальные риски, которые связаны с продвинутыми языковыми моделями, в том числе ChatGPT. Об этом информирует журнал Patterns.
Исследователи сообщают о возможности применения таких моделей злоумышленниками для разработки поддельных научных работ. С помощью ChatGPT учёные создали поддельную научную работу, чтобы доказать свою гипотезу.
Полученная работа была оформлена достаточно профессионально, однако имела ложную информацию, придуманных участников клинических испытаний, а также бессмысленные итоги. По словам экспертов, любой злоумышленник способен разработать подобную работу и отправить её на публикацию в научное издание.
Кроме того, исследователи провели аналог теста Тьюринга, в котором специалисты должны были выявить, статья написана человеком или машиной. Они ошибочно распознали 32% научных статей, сделанных языковыми моделями, а также 14% статей, созданных людьми.