Жертвы сексуального насилия над детьми подали коллективный иск против компании Apple за отказ от внедрения ранее анонсированной системы сканирования iCloud для выявления материалов сексуального характера с участием несовершеннолетних (CSAM).
В 2021 году Apple объявила о разработке инструмента, который должен был автоматически обнаруживать CSAM и уведомлять Национальный центр по делам пропавших и эксплуатируемых детей. Однако после волны критики касательно нарушения приватности пользователей компания отказалась от этих планов.
Иск, поданный в Северной Калифорнии, требует компенсации в размере более 1,2 миллиарда долларов для потенциальной группы из 2680 пострадавших. По мнению истцов, после демонстрации планируемых инструментов защиты детей, Apple не предприняла никаких мер по выявлению и ограничению распространения CSAM на своих устройствах.
Представители Apple заявили, что компания активно работает над борьбой с преступлениями против детей, не compromising безопасность и конфиденциальность пользователей. В качестве примера приводится функция Communication Safety, предупреждающая детей при получении или попытке отправки контента содержащего наготу.
Стоит отметить, что несколькими месяцами ранее британское Национальное общество по предотвращению жестокого обращения с детьми (NSPCC) обвинило Apple в занижении количества reported случаев CSAM.
Данное судебное разбирательство поднимает важный вопрос о балансе между защитой приватности пользователей и необходимостью предотвращения распространения нелегального контента через облачные сервисы.