Разговоры об Apple и различные предположения о ее алгоритме сканирования фотоснимков, на которых может изображаться насилие над детьми, становятся все более актуальными. Несколько дней назад все же удалось доказать наличие алгоритма в iOS 14.3.
Алгоритм нашел один из пользователей веб-сайта Reddit. Асухариет Игвар обнаружил NeuralHash в недрах файловой системы.
Впоследствии он его перенес на Python, после чего выставил в общий доступ на крупнейший веб-сервис для хостинга IT-проектов GitHub. Сегодня у каждого пользователя есть возможность скачать скрипт, чтобы проверить свой ПК на наличие подобных фотоснимков. Если довериться версии разработчика, то код и детали данного алгоритма, которые указаны в официальной документации Apple – совпадают.
Пользователи, которые тестировали работу нового алгоритма, рассказали, что его все-таки можно обмануть. Например, просто обрезать изображение или повернуть его. Представители Apple в свою очередь полностью отрицают такую вероятность. По словам тестировщиков, сжатие изображения или изменение размера не влияют на обнаружение подобных фотографий.
Стоит также напомнить, что американская корпорация Apple в течение нескольких лет работала над созданием этого алгоритма.