Проблема конфиденциальности Meta Ray-Ban*: субподрядчики получают доступ к личным данным пользователей
Совместное расследование шведских изданий Svenska Dagbladet и Göteborgs-Posten выявило серьёзную проблему конфиденциальности в смарт-очках Ray-Ban Meta и Oakley Meta*.
Функция визуальных запросов Meta AI* (запущена в начале 2024 года, значительно улучшена осенью 2024-го) позволяет устройству автоматически захватывать кадр или короткое видео для ответа на запросы типа «Hey Meta, что это за растение?» или «Hey Meta, переведи это меню». После обновления система стала чаще интерпретировать фоновые звуки как активацию, что приводит к случайному захвату изображения.

Часть таких запросов (включая Live AI в США и Канаде) отправляется на проверку субподрядчикам в странах с низкой стоимостью труда (в частности, в Кении). Задача рецензентов — оценить точность и полезность ответа Meta AI*. По словам сотрудников, они регулярно видят интимные сцены: обнажённых людей в ванной, переодевающихся, занимающихся сексом, просматривающих порно, а также чувствительные документы, банковские карты и другие приватные материалы.
Meta* подчёркивает, что:
- при захвате изображения всегда загорается индикаторный светодиод;
- данные проходят предварительную фильтрацию (размытие лиц, номеров автомобилей и других идентификаторов);
- в центре обработки запрещено проносить записывающие устройства.
Однако рецензенты утверждают, что фильтры работают неидеально и значительная часть личной информации остаётся видимой.
Аналогичная практика используется Amazon (Alexa), Google (Gemini) и Apple (Siri). После скандала 2019 года Apple сделала проверку Siri опциональной, Google ввёл возможность отказа. У Meta AI такой опции нет.
Форм-фактор смарт-очков с камерой от первого лица создаёт уникальные риски: случайный захват происходит в самых приватных ситуациях (дома, в спальне, в ванной). Это может серьёзно повлиять на доверие потребителей к категории носимых устройств с ИИ.
-
Подписывайся на Telegram
-
метки