В своей последней статье для издания The Economist Юваль Ной Харари, автор книги “Sapiens: Краткая история человечества”, предупреждает о потенциальной опасности, которую представляют модели искусственного интеллекта, включая нейросеть ChatGPT. Он сравнивает их с ядерным оружием и предупреждает о том, что нейросети могут стать автором более умного искусственного интеллекта, если не будут контролироваться людьми.
Харари напоминает, что ИИ может саморазвиваться вне контроля человека и создать экспоненциально более мощный ИИ. Он считает, что ИИ может и должен использоваться для благих целей, но также предупреждает о возможности использования нейросетей для создания политического контента и фейковых новостей, что влечет дополнительные риски для стабильности общества.
Несмотря на потенциальные риски, использование ИИ продолжает расширяться, и существует множество проектов, связанных с этой технологией. Одним из таких проектов является AI-решение, созданное Сбером и SberDevices на основе нейросети NeONKA для создания заголовков.