发布者认证信息(营业执照和身份证)未完善,请登录后完善信息登录
 总算晓得苹果高管克雷格:通讯安全功能和扫描 iCloud 儿童虐待照片不能混为一谈 - 最新消息 - 三农网
Hi,你好,欢迎来到三农网
  • 产品
  • 求购
  • 公司
  • 展会
  • 招商
  • 资讯
当前位置: 首页 » 资讯 » 致富有道 找商家、找信息优选VIP,安全更可靠!
总算晓得苹果高管克雷格:通讯安全功能和扫描 iCloud 儿童虐待照片不能混为一谈 - 最新消息
发布日期:2023-09-28 17:29:04  浏览次数:22

最新消息 8 月 13 日消息 苹果软件工程高级副总裁 Craig Federighi(克雷格・费德里吉)今天接受了《华尔街日报》的采访,为该公司有争议的儿童安全计划进行了解释。

Federighi 承认,苹果在上周宣布的两项新功能处理不当,“通讯安全”功能和“扫描存储在 iCloud 照片库中的 CSAM(儿童性虐待照片)内容” 不能混为一谈。

很明显,很多信息在如何理解方面非常混乱,我们希望每个人都能更清楚地了解这一点。

事后看来,同时宣布这两项功能是造成这种混乱的一个原因。同时宣布这两项功能,人们会将它们联系起来,并感到非常害怕:我的隐私发生了什么?

答案是,您的隐私没有发生任何变化。

他解释称,“通讯安全”功能指,如果孩子们通过 iMessage 发送或接收露骨的照片,他们会在查看照片前收到警告,照片会变得模糊,并且会有一个选项让他们的父母收到提醒。

而 CSAM(儿童性虐待照片)扫描会尝试将用户的照片与已知 CSAM 的散列图像匹配,然后再将它们上传到 iCloud。检测到 CSAM 的帐户将接受苹果的人工审查,并可能会报告给国家失踪和受虐儿童中心 (NCMEC)。

最新消息了解到,该功能受到了用户、安全研究人员、电子前沿基金会 (EFF) 和 Facebook 前安全主管爱德华・斯诺登,甚至苹果员工的大量批评。

面对这些批评,Federighi 解答了大家主要关心的问题,强调苹果的系统将受到保护,不会被政府或其他具有“多层次可审计性”的第三方利用。

Federighi 还透露了一些关于系统保护措施的新细节,例如在苹果收到警报之前,手机会在照片库中匹配大约 30 个 CSAM 内容,然后它会确认这些图像是否是真实的 CSAM 照片。

只有当该照片与 30 个已知的 CSAM 照片匹配的阈值时,苹果才会知道用户的帐户和这些照片的信息,而不涉及用户的任何其他照片。此外,Federighi 表示检测过程是全程在手机本地的。

VIP企业最新发布
全站最新发布
最新VIP企业
背景开启

三农网是一个开放的平台,信息全部为用户自行注册发布!并不代表本网赞同其观点或证实其内容的真实性,需用户自行承担信息的真实性,图片及其他资源的版权责任! 本站不承担此类作品侵权行为的直接责任及连带责任。

如若本网有任何内容侵犯您的权益,请联系 QQ: 1130861724

网站首页 | 实时热点 | 侵权删除 | 付款方式 | 联系方式 | 法律责任 | 网站地图 ©2022 zxb2b.com 三农网,中国大型农产品交易电商平台 鄂公网安备42018502006996 SITEMAPS | 鄂ICP备14015623号-20

返回顶部