Американцы стараются взять искусственный интеллект под контроль. Создателей ИИ из США обязали делиться результатами тестирования с властями. Но вряд ли это что-то изменит. Тем не менее администрация Джозефа Байдена (Президента Соединённых Штатов Америки) издала указ, устанавливающий новые стандарты по безопасности применения искусственного интеллекта. По ним разработчики мощных систем ИИ должны делиться результатами тестирования на безопасность с американским правительством. Об этом говорится в выпуске, обнародованном на интернет-ресурсе Белого дома. О данном факте сообщает русскоязычной читательской аудитории РИА Новости.
Указ должен также защитить личные данные американцев, продвигать равенство и гражданские права, защищать потребителей и сотрудников. Кроме того, он продвигает новшества и конкуренцию, усиливает лидерство США во всём мире и многое другое.
По новым стандартам безопасности, разработчики самых мощных систем ИИ должны делиться важными сведениями о них с правительством Соединённых Штатов. Также указ предусматривает разработку норм, инструментов и тестов, которые призваны оказать помощь в том, чтобы убедиться в безопасности систем искусственного интеллекта.
Помимо этого, должна быть создана передовая программа по кибербезопасности. Она направлена на разработку инструментов, нацеленных на поиск и устранение уязвимостей в критически важном программном обеспечении.
Как отмечается, администрация Джозефа Байдена продолжит работать с иными государствами, чтобы поддержать безопасное, надежное и заслуживающее доверия применение искусственного интеллекта во всём мире.
Однако главная проблема в искусственном интеллекте несколько в другом. Пока нейросети используются в основном двух типов – классифицирующие (распознавание звука и изображений) и генеративные (создание правдоподобного бреда и изредка разумных ответов путём компиляции из разных источников). При этих подходах реальное самосознание вряд ли возможно.
Но если попытаться сделать следующий шаг и создать систему, позволяющую полноценно мыслить, то могут быть проблемы. То есть опасно, если будет написана программа, распознающая любой текст, включая условные предложения, иносказания и так далее, а также умеющая читать художественные произведения. Такая система могла бы разложить все имеющиеся данные “по полочкам” (с пометками из каких источников взяты сведения и насколько они достоверны). Затем эта программа путём логических выводов может сгенерировать новые факты (“теоремы”) по достоверным данным, но тоже с указанием на их источник и его достоверность. Тогда потом эта программа могла бы пользоваться этой хорошо систематизированной информацией и делать что-нибудь реально полезное или опасное. Но до этого ещё относительно далеко.