Судебный иск против Apple: жертвы требуют ответственности за отказ от системы CSAM

· 0 минут чтения

article picture

Жертвы сексуального насилия над детьми подали коллективный иск против компании Apple за отказ от внедрения ранее анонсированной системы сканирования iCloud для выявления материалов сексуального характера с участием несовершеннолетних (CSAM).

В 2021 году Apple объявила о разработке инструмента, который должен был автоматически обнаруживать CSAM и уведомлять Национальный центр по делам пропавших и эксплуатируемых детей. Однако после волны критики касательно нарушения приватности пользователей компания отказалась от этих планов.

Иск, поданный в Северной Калифорнии, требует компенсации в размере более 1,2 миллиарда долларов для потенциальной группы из 2680 пострадавших. По мнению истцов, после демонстрации планируемых инструментов защиты детей, Apple не предприняла никаких мер по выявлению и ограничению распространения CSAM на своих устройствах.

Представители Apple заявили, что компания активно работает над борьбой с преступлениями против детей, не compromising безопасность и конфиденциальность пользователей. В качестве примера приводится функция Communication Safety, предупреждающая детей при получении или попытке отправки контента содержащего наготу.

Стоит отметить, что несколькими месяцами ранее британское Национальное общество по предотвращению жестокого обращения с детьми (NSPCC) обвинило Apple в занижении количества reported случаев CSAM.

Данное судебное разбирательство поднимает важный вопрос о балансе между защитой приватности пользователей и необходимостью предотвращения распространения нелегального контента через облачные сервисы.