IT 之家 12 月 9 日音书亚洲美图网,苹果公司因在 2022 年取消原定的儿童性惨酷材料(CSAM)检测蓄意而被告状。一位童年时辰曾遭逢性惨酷的 27 岁女性以假名告状苹果,指控其违反了保护受害者的答应。
苹果在 2021 年末曾晓示蓄意通过竖立端哈希值系统扫描 iCloud 中的图片,以检测和不容 CSAM 传播,并在用户发送或采纳含涌现执行的像片时发出劝诫。当今,涌现执行检测功能(Communication Safety)仍然存在,但 CSAM 检测功能因阴事民众、儿童安全组织和政府的等闲反对被取消。
告状者称,她在 CSAM 检测功能仍在时,曾接到王法部门的见告,发现她遭逢性惨酷的图片通过一台在佛蒙特州查获的 MacBook 被上传至了 iCloud。她在诉讼中暗示,苹果罢手这一功能的决定使这些材料得以等闲传播,苹果因此向破费者销售了"有劣势的产物",对像她这么的用户群体形成了伤害。
据该女子的别称讼师称,原告要求苹果转换其作念法,并向可能多达 2680 名其他稳当条款的受害者提供抵偿,此类受害者有权把柄法律取得至少每东谈主 15 万好意思元的抵偿。若是一谈受害者见效取得抵偿,苹果的抵偿金额可能卓越 12 亿好意思元(IT 之家备注:面前约 87.28 亿元东谈主民币)。
近似的案件已在北卡罗来纳州发生。别称 9 岁的 CSAM 受害者指控苹果,称她通过 iCloud 纠合收到生疏东谈主发送的行恶视频,并被饱读吹拍摄并上传近似执行。苹果公司冷落了一项驳回案件的动议,指出联邦步伐第 230 条保护其免于对用户上传到 iCloud 的材料承担包袱。但近期法院裁定,这一法律保护仅适用于积极执行审核的情形,可能放松苹果的抗辩意义。
麻豆 周处除三害针对新诉讼,苹果发言东谈主弗雷德・塞恩兹暗示:"苹果以为儿童性惨酷材料令东谈主发指,咱们力争于在不毁伤用户阴事和安全的前提下积极打击关连犯科。"他提到苹果膨胀了信息运用中的涌现执行检测功能,并允许用户举报无益材料。可是,原告过头讼师玛格丽特・马比以为,苹果的措施远远不够。
马比暗示亚洲美图网,她通过王法敷陈和关连文献发现了卓越 80 起与受害者图像及苹果产物关连的案例,其中一个共享这些图像的东谈主是别称湾区男人,其 iCloud 账户中存储了卓越 2,000 张行恶图片和视频。