Думаю, не буде зайвим нагадати, що Facebook, Dropbox, Google, Microsoft та інші сканують фотографії на предмет CSAM, використовуючи все ту ж базу вже відомих фотографій.

 

Наприклад, Facebook повідомив про 15 млн збігів з такими фотографій в 2019 році, Dropbox - про 21 тисячі подібних збігів в 2020 році. 

Facebook, Dropbox, Google, Microsoft сканують фотографії на предмет CSAM, базу вже відомих фотографій


Ще один тред (теж від фахівця з криптографії), як подібні невідомі алгоритми детекції потенційно несуть в собі ризики для стеження за людьми:

Два (https://twitter.com/matthew_d_green/status/1423071186616000513)


Правда, все це відбувається виключно в хмарах, а тут частину завдання по детекції переноситься на пристрої користувачів. Швидше за все, під цим всім є і якісь юридичні підстави - типу "нам не дадуть зробити end2end шифрування, якщо не буде детекції такого контенту". Я не здивуюся, якщо виявиться, що це важлива умова для того, щоб оголосити, що бекапи iCloud стануть e2e-зашіфррованнимі, нарешті.


Apple стверджує, що таким чином конфіденційність і приватність підвищується, але моїх знань в криптографії недостатньо, щоб зрозуміти цей аргумент. Зрозуміло, що ситуації, де дійсно відбувається насильство над дітьми та їх сексуальна експлуатація, вимагають ґрунтовних підходів і рішень. Хотілося б, щоб при цьому не виникало відчуття, що тепер стежать прямо за тобою, причому відразу за допомогою твого, як та робота. Пригадується реклама Apple про те, що "те, що відбувається на вашому iPhone, залишається на вашому iPhone".


 (Https://alexmak.net/wp-content/uploads/2021/08/zackwhittaker_2021-Aug-05.jpg)Ну так, майже. Почитаю ще фахівців, що вони про це говорять.


https://alexmak.net/2021/08/05/ (https://alexmak.net/?p=21399&preview=true)child-safety (https://alexmak.net/?p=21399&preview=true)/ (https://alexmak.net/?p=21399&preview=true)

Просмотры:

Коментарі

Популярні публікації