查看: 1128|回复: 2
收起左侧

[IT业界] 以 CSAM 之名扫描手机,苹果提醒员工为 iPhone 后门问题做好准备

[复制链接]
蓝天二号
发表于 2021-8-15 08:59:20 | 显示全部楼层 |阅读模式
IT之家 8 月 15 日消息 众所周知,苹果此前推出了一项新政策,可在不经过用户许可的情况下扫描存储在 iCloud 照片库中的 CSAM(儿童性虐待照片)内容,一时间在海外激起千层浪,舆论浩荡纷纷反攻苹果。

但目前看来苹果依然是执意推行新政策,例如苹果本周已下发备忘录,以向其零售和在线销售人员提醒,要求他们准备好就如何回答消费者对于有关 iPhone 的 CSAM 后门的问题统一口径。

苹果:“让我们明确一点,这项技术检测范围仅限于存储在 iCloud 中的 CSAM 内容,我们不会同意任何政府扩大它的范围。”

但现在部分用户和外媒又抛出了一个问题:

长期以来,苹果确实一直在遵守当地的法律,如果某政府通过立法来要求苹果帮助搜寻用户手机中的其他类型图像 (犯罪、恐怖主义、政治、信仰、性取向等),苹果会怎么做? 就算按他们所说,苹果不会在没有相关法律的情况下接受任何政府的要求,但是,基于历史来看,难道苹果也会拒绝法律的要求吗?通往地狱的道路往往是由善意铺就的。

据悉,苹果还表示,将通过让独立审计师审查系统来解决隐私问题。

值得一提的是,苹果此前曾表示,将拒绝政府利用其技术监视用户的任何要求。
521c0d51-1542-4b91-a844-bf55d86c92b2.png
IT之家了解到,CSAM 功能受到了苹果广大用户、安全研究人员、电子前沿基金会 (EFF) 和 Facebook 前安全主管爱德华・斯诺登,甚至苹果自家员工的大量批评。

面对这些批评,苹果软件工程高级副总裁 Federighi 解答了大家主要关心的问题,强调苹果的系统将受到保护,不会被政府或其他具有“多层次可审计性”的第三方利用。

Federighi 还透露了一些关于系统保护措施的新细节,例如在苹果收到警报之前,手机会在照片库中匹配大约 30 个 CSAM 内容,然后它会确认这些图像是否是真实的 CSAM 照片。

只有当该照片与 30 个已知的 CSAM 照片匹配的阈值时,苹果才会知道用户的帐户和这些照片的信息,而不涉及用户的任何其他照片。此外,Federighi 表示检测过程是全程在手机本地的。
lianweidong
发表于 2021-8-15 09:47:05 | 显示全部楼层
检测过程是全程在手机本地的
我爱酱油瓶
发表于 2021-8-15 12:54:22 | 显示全部楼层
CSAM就是一个幌子,监控隐私才是本意。从明知没卵用还执意推行就知道了。
坚决抵制!
您需要登录后才可以回帖 登录 | 快速注册

本版积分规则

手机版|杀毒软件|软件论坛| 卡饭论坛

Copyright © KaFan  KaFan.cn All Rights Reserved.

Powered by Discuz! X3.4( 沪ICP备2020031077号-2 ) GMT+8, 2024-11-28 20:16 , Processed in 0.129283 second(s), 19 queries .

卡饭网所发布的一切软件、样本、工具、文章等仅限用于学习和研究,不得将上述内容用于商业或者其他非法用途,否则产生的一切后果自负,本站信息来自网络,版权争议问题与本站无关,您必须在下载后的24小时之内从您的电脑中彻底删除上述信息,如有问题请通过邮件与我们联系。

快速回复 客服 返回顶部 返回列表