自苹果公司8月5日宣布推出所谓儿童保护(儿童色情检查)的新功能以来,因其具有侵犯隐私的可能招致各方反对,下面是两封著名的公开信。
第一封:https://appleprivacyletter.com(翻译)
发起时间为8月6日,签署者主要由独立开发者组成,可以在 GitHub 上签署。斯诺登在序号6880,末尾部分有「保护儿童只是借口」和「这个协议和我 苹果只能留一个」的中文ID。
虽然剥削儿童是一个严重的问题,而且尽管所有的打击儿童剥削问题是毫无疑问正确的和善意的,但是苹果的提案引入了一个后门,这个后门有可能破坏对所有苹果产品用户的基本隐私保护。
第二封:https://cdt.org/wp-content/uploads/2021/08/CDT-Coalition-ltr-to-Apple-19-August-2021.pdf
发起时间为8月19日,主要由各民权、数字权利和人权的国际组织组成的联盟组成,见IYP评论:
由90多个致力于民权、数字权利和人权的国际组织组成的联盟,今天致函苹果公司首席执行官蒂姆·库克,敦促苹果公司放弃在其 iPhone、iPad 和 其他产品中建立监控功能的计划。
“尽管这些功能声称旨在保护儿童和减少儿童性虐待材料(CSAM)的传播,但是,我们非常担心它们会被用来审查受保护的言论,威胁到世界各地人们的隐私和安全,并对许多儿童产生灾难性的后果”,这封信的签署者包括民主与技术中心(CDT)、美国公民自由联盟(ACLU)、美国笔会、电子前沿基金会(EFF)、Access Now、英国隐私国际(Privacy International)、Derechos Digitales、全球之声、全球伙伴数字组织、以及来自欧洲、拉丁美洲、非洲、亚洲和澳大利亚的团体。
信中指出,苹果公司打算用来检测 “信息中露骨图像的算法” 出了名的不可靠* …… 而且容易错误地标记艺术、健康状况信息、教育资源、宣传信息和其他图像”。
由于苹果公司的审查计划,“iMessages将不再通过端对端加密信息系统向用户提供保密性和隐私,不再只有发送者和预定接收者能够获得所发送的信息。公开信中强调:“一旦内置了这种后门功能,政府可以迫使苹果公司将通知扩展到其他账户,并检测出因性行为以外的原因而令人反感的图像”。
苹果公司还在引入第二项功能,将对照儿童安全组织提供的CSAM图像的哈希数据库,扫描用户上传到iCloud的每张照片,当达到匹配的阈值时,将禁用该账户并向当局报告该用户和这些图像。
CDT安全与监控项目联合主任 Sharon Bradford Franklin 说,该联盟担心苹果将面临来自全球各地政府的压力,要求扫描CSAM以外的他们认为政治敏感的图像。
“我们可以预计,各国政府都将利用苹果公司在iPhone、iPad和电脑中建立的监控能力。他们将要求苹果公司扫描并阻止侵犯人权的图像、政治抗议和其他应受保护的自由表达内容,这些内容构成了自由和民主社会的支柱”。