Исследователи из Технического университета прикладных наук Ингольштадта в Германии, а также Университета Южной Дании решили выяснить, можно ли доверять советам нейросети по вопросам нравственности и морали. Кроме того, они узнали, может ли ChatGPT оказывать влияние на моральные суждения пользователей, пишет Naked Science
Ими был проанализирован чат-бот на базе ИИ ChatGPT от компании OpenAI, получивший широкую известность многофункциональными возможностями.
После реализации эксперимента среди жителей Америки стало ясно, что советы чат-бота не всегда последовательные и надёжные. В рамках работы ChatGPT выступал и за, и против принесения жертвы ради спасения других людей, а это противоречит главным принципам морали.
При этом ChatGPT повлиял на моральные суждения участников исследования. Хотя они знали, что ответ был сгенерирован ИИ. Помимо того, большинство из них не осознали, что советы из чата оказали влияние на их выбор.
Учёные заключили, что для создания надёжных чат-ботов нужно повысить уровень точности и последовательности исходных данных, а также предоставлять все аргументы за и против при ответах на сложные этические вопросы. В общем инновационные технологии ставят перед нами новые вызовы в области морали и этики, а также требуют более серьёзного подхода к проведению таких работ.