Топ-менеджер Microsoft Шварц заявил о способности ИИ причинить заметный вред человечеству


На Всемирном экономическом форуме в Женеве Майкл Шварц (Главный экономист Microsoft) объявил о том, что без чётких правил, ограничивающих использование технологий искусственного интеллекта (ИИ), они принесут человечеству вред. Формируя их, важно не перегнуть палку, иначе пользы от компьютерного разума не будет.

Компания Microsoft инвестирует большие финансовые средства в молодую фирму OpenAI. Она в минувшем году выпустила быстро набравший популярность чат-бот ChatGPT.

Данная система искусственного интеллекта встраивается корпорацией в поисковик Microsoft Bing и другие программы, что подразумевает широкое использование подобных инструментов. ChatGPT может быстро написать множество разных текстов и даже стихов, решить некоторые школьные, институтские и профессиональные задачи, просто поболтать. Дело в том, что в интернете уже так много данных, что почти на любой вопрос можно найти подходящий ответ. А если программа способна менять в тексте слова на синонимы, то он ещё будет ещё и каждый раз разным. То есть, по сути, это не ИИ (хотя там нейронная сеть и используется), а просто хороший поисковик.

Топ-менеджер Microsoft Шварц заявил о способности ИИ причинить заметный вред человечеству

На текущей неделе Камала Харрис (Вице-президент Соединённых Штатов Америки) встретится с руководством Microsoft, Alphabet и OpenAI для обсуждения способов снижения рисков, связанных с применением технологий искусственного интеллекта.

Microsoft уже работает над правилами, которые описывали бы область безопасного использования искусственного интеллекта. Фирма считает, что принцип должен быть простым – выгода для социума должна быть больше, чем потенциальный ущерб. Так попытался объяснить нюансы подхода Майкл Шварц, хотя такое описание абсолютно ничего не говорит – потенциальный ущерб определить заранее почти невозможно, как и пользу.

Представитель Microsoft считает, что в руки злоумышленников искусственный интеллект попадёт обязательно, и он сможет нанести некоторый ущерб. Например, он называет такие сферы деятельности, как спам и вмешательство в выборы. В последнем случае, видимо, имеется большое число агитационных материалов, сгенерированных ботом якобы “мнений простых пользователей”. Хотя для этого трюка искусственный интеллект не нужен – это делается с помощью очень простых программ.

Подписка на FBM.RU в Telegram - удобный способ быть в курсе важных экономических новостей! Подписывайтесь и будьте в центре событий. Подписаться.

Добавьте FBM.ru в избранные новости Добавьте FBM в избранные новости

Оценить новость
( Пока оценок нет )
Михаил Блюдников/ автор статьи
FBM.ru - Финансы  Бизнес Маркетинг