快看|苹果推出新手段,对抗儿童色情内容

科技公司的一大步?

图片来源:unspalsh

记者|陆柯言

苹果正计划在美国用户的iPhone上安装一款扫描系统,以寻找儿童色情图像,并及时采取干预措施。

苹果表示,其这一款名为“neuralMatch”的工具将通过一种名为“hashing”的技术来对图片进行监测,并将图片转换为与其对应的唯一数字,因此全程不会盗取用户的隐私。

“neuralMatch”的工作过程很简单,如果检测到了敏感内容,将交由人工审核,一旦确认是儿童受虐的图像,将会主动通知执法部门。

苹果于本周四开始进行测试这一系统,但大多数美国iPhone用户都要到今年晚些时候iOS 15更新后才能使用,其它国家的iPhone暂时无法体验。

该系统也引来不少担忧。约翰霍普金斯大学密码学研究员Matthew Green认为,这项技术可能会被用来陷害无辜的人。比如向任何一个人发送类似的图片,也会被苹果检测到。

也有观点认为,它可能会被希望监视公民的政府滥用,比如政府可以将检测对象更换成恐怖主义内容。

此前,Facebook、谷歌、微软以及苹果自身的iCloud都已推出过监测儿童虐待图像的系统,但真正应用到用户设备上还是头一回。这是科技公司对抗不法行为的一大步,但想必也会遭到不少挑战。

来源:界面新闻

广告等商务合作,请点击这里

未经正式授权严禁转载本文,侵权必究。

打开界面新闻APP,查看原文
界面新闻
打开界面新闻,查看更多专业报道

热门评论

打开APP,查看全部评论,抢神评席位

热门推荐

    下载界面APP 订阅更多品牌栏目
      界面新闻
      界面新闻
      只服务于独立思考的人群
      打开