记者|陆柯言
苹果正计划在美国用户的iPhone上安装一款扫描系统,以寻找儿童色情图像,并及时采取干预措施。
苹果表示,其这一款名为“neuralMatch”的工具将通过一种名为“hashing”的技术来对图片进行监测,并将图片转换为与其对应的唯一数字,因此全程不会盗取用户的隐私。
“neuralMatch”的工作过程很简单,如果检测到了敏感内容,将交由人工审核,一旦确认是儿童受虐的图像,将会主动通知执法部门。
苹果于本周四开始进行测试这一系统,但大多数美国iPhone用户都要到今年晚些时候iOS 15更新后才能使用,其它国家的iPhone暂时无法体验。
该系统也引来不少担忧。约翰霍普金斯大学密码学研究员Matthew Green认为,这项技术可能会被用来陷害无辜的人。比如向任何一个人发送类似的图片,也会被苹果检测到。
也有观点认为,它可能会被希望监视公民的政府滥用,比如政府可以将检测对象更换成恐怖主义内容。
此前,Facebook、谷歌、微软以及苹果自身的iCloud都已推出过监测儿童虐待图像的系统,但真正应用到用户设备上还是头一回。这是科技公司对抗不法行为的一大步,但想必也会遭到不少挑战。