Демократи тиснуть на Meta з приводу планів розпізнавання облич для розумних окулярів

Decrypt

Коротко

  • Демократичні сенатори попереджають, що ідентифікація обличчя в реальному часі може піддавати людей ризику стеження, переслідування та цілеспрямованого залякування.
  • Попередні повідомлення цього місяця свідчать, що контрактори Meta переглядали чутливі кадри, зняті розумними окулярами, включаючи інтимні сцени.
  • У листі від законодавців запитують, чи планує Meta зв’язувати зняті обличчя з профілями у Facebook або Instagram і як буде оброблятися біометрична інформація.

Група демократів-сенаторів наполягає на тому, щоб Meta пояснила свої наміри щодо додавання функції розпізнавання обличчя до своїх розумних окулярів, посилаючись на зростаючі побоювання, що ця технологія може дозволити ідентифікацію людей у реальному часі без їхньої згоди. У листі до генерального директора Марка Цукерберга у вівторок сенатори Едвард Дж. Маркі (D-MA), Джефф Мерклі (D-OR) і Рон Вайден (D-OR) попередили, що ця функція може поставити громадськість під ризик «серйозних випадків стеження, переслідування та цілеспрямованого залякування», особливо враховуючи існуючу екосистему даних Meta. «Розумні окуляри можуть захоплювати зображення тисяч людей без їхньої згоди або відома і миттєво зв’язувати ці обличчя з іменами, місцями роботи або особистими профілями», — написали законодавці, додаючи, що такі можливості ризикують руйнувати «давні очікування приватності у публічних місцях».

 Цей тиск виникає на тлі вже існуючого контролю над тим, як Meta збирає та обробляє дані користувачів. Раніше цього місяця повідомлялося, що контрактори в Найробі переглядали чутливі кадри, зняті розумними окулярами Ray-Ban Meta, включаючи інтимні сцени. «У деяких відео видно, як хтось іде в туалет або роздягається», — повідомив один із контракторів журналістам, піднімаючи питання, чи були користувачі свідомі того, що їх записують.

Захисники приватності кажуть, що поєднання завжди увімкнених камер і систем штучного інтелекту, навчених на таких кадрах, посилює ризики. «Власник окулярів не може дати згоду від імені всіх людей, з якими він стикається», — попереджав Джон Давісон з Центру електронної приватності, зазначаючи, що навчання моделей на ідентифікованих кадрах ускладнює питання захисту даних. Meta заявила, що деякий контент може бути відфільтрований перед людським переглядом і що вона використовує комбінацію автоматичних і ручних процесів для покращення систем. Компанія не надала конкретних термінів щодо впровадження функції розпізнавання облич. Законодавці прагнуть отримати ясність щодо того, чи має намір Meta зв’язувати зняті обличчя з профілями у Facebook або Instagram, як вона планує отримувати згоду свідків і чи зберігатиме або ділитиметься біометричними даними. «Американці не дають згоду на збір біометричних даних просто тому, що йдуть по вулиці», — написали сенатори. Ці побоювання відлунюють ширший контроль над системами відеоспостереження на основі штучного інтелекту, включаючи системи, що використовуються компаніями, такими як Palantir Technologies, які привернули увагу за можливість масштабної інтеграції даних для урядових цілей. Meta було запропоновано відповісти на лист до 6 квітня. Технологічний гігант не одразу відповів на запит Decrypt про коментар.

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів