ChatGPT оказал влияние на готовность убить одного человека ради спасения других


Исследователи из Технического университета прикладных наук Ингольштадта в Германии, а также Университета Южной Дании решили выяснить, можно ли доверять советам нейросети по вопросам нравственности и морали. Кроме того, они узнали, может ли ChatGPT оказывать влияние на моральные суждения пользователей, пишет Naked Science

Ими был проанализирован чат-бот на базе ИИ ChatGPT от компании OpenAI, получивший широкую известность многофункциональными возможностями.

После реализации эксперимента среди жителей Америки стало ясно, что советы чат-бота не всегда последовательные и надёжные. В рамках работы ChatGPT выступал и за, и против принесения жертвы ради спасения других людей, а это противоречит главным принципам морали.

При этом ChatGPT повлиял на моральные суждения участников исследования. Хотя они знали, что ответ был сгенерирован ИИ. Помимо того, большинство из них не осознали, что советы из чата оказали влияние на их выбор.

Учёные заключили, что для создания надёжных чат-ботов нужно повысить уровень точности и последовательности исходных данных, а также предоставлять все аргументы за и против при ответах на сложные этические вопросы. В общем инновационные технологии ставят перед нами новые вызовы в области морали и этики, а также требуют более серьёзного подхода к проведению таких работ.

Подписка на FBM.RU в Telegram - удобный способ быть в курсе важных экономических новостей! Подписывайтесь и будьте в центре событий. Подписаться.

Добавьте FBM.ru в избранные новости Добавьте FBM в избранные новости

Оценить новость
( 1 оценка, среднее 4 из 5 )
Кристина Михнова/ автор статьи
FBM.ru - Финансы  Бизнес Маркетинг