广告
广告
  • 12:00 AM
  • POV

新的欧盟法律要求大型技术扫描虐待儿童内容是技术上不可行的

保护儿童和保护用户隐私之间的权衡强调了如何打击在线儿童性虐待确实是“邪恶的问题”。

新的欧盟法律要求大型技术扫描虐待儿童内容是技术上不可行的
[照片:Uladzimir Zuyeu/Getty Images]

欧洲委员会最近提出的法规通过要求科技公司在其系统中扫描儿童性虐待材料的内容来保护儿童。这是一项非常广泛和雄心勃勃的努力,将在包括美国在内的欧盟边界以外具有广泛的影响

广告
广告

不幸的是,在大多数情况下,提出的法规在技术上是不可行的。在他们可以工作的范围内,他们需要破坏端到端加密这将使技术公司以及政府和黑客可能看到私人通信。

该法规于2022年5月11日提出,将对托管内容并提供通信服务(包括社交媒体平台,短信服务和直接消息传递应用程序)的科技公司施加几项义务,以检测某些类别的图像和文本。

根据该提案,这些公司将被要求检测先前确定的儿童性虐待材料,新的儿童性虐待材料以及为性目的征集儿童。公司将被要求向欧盟中心报告被检测到的内容,欧盟中心是拟议法规将建立的集中协调实体。

广告
广告

这些类别中的每一个都提出了自己的挑战,这些挑战结合起来,使拟议的法规不可能作为包装实施。保护儿童和保护用户隐私之间的权衡强调了如何打击在线儿童性虐待是一种“邪恶的问题。”这使技术公司处于困难:必须遵守实现值得称赞的目标但没有手段的法规。

数字指纹

研究人员已经知道如何检测以前确定的儿童性虐待材料已有十多年了。这种方法,首先开发微软,将“哈希值”(一种数字指纹分配)分配给图像,然后可以将其与先前确定和哈希儿童性虐待材料的数据库进行比较。在美国,国家失踪和被剥削儿童中心管理着几个哈希价值数据库,一些科技公司维护自己的哈希集合。

将使用公司服务上传或共享的图像的哈希值与这些数据库进行了比较,以检测先前确定的儿童性虐待材料。该方法已被证明非常准确,可靠和快速,这对于使任何技术解决方案可扩展至关重要。

广告

问题是许多隐私拥护者认为与端到端加密不兼容严格解释,这意味着只有发件人和预期的收件人才能查看内容。由于拟议的欧盟法规要求科技公司向欧盟中心报告任何检测到的儿童性虐待材料,因此这将违反端到端的加密,从而在有效检测有害物质和用户隐私之间进行权衡。

认识新的有害材料

就新内容(即哈希数据库中未包含的图像和视频)而言,没有这种尝试的技术解决方案。顶级工程师一直在研究这个问题,建立和培训可以容纳大量数据的人工智能工具。谷歌和儿童安全非政府组织两者都使用机器学习分类器取得了一些成功,以帮助公司识别潜在的新儿童性虐待材料。

但是,如果没有独立验证工具准确性的数据,就无法评估其效用。即使准确性和速度与哈希匹配技术相当,强制性报告也会再次破坏端到端的加密。

新内容还包括直播,但拟议的法规似乎忽略了该技术所带来的独特挑战。直播技术在大流行期间变得无处不在,生命内容的儿童性虐待材料的生产有急剧增加

越来越多的孩子被诱使或强迫性脱俗的性行为,观众可以记录或屏幕捕捉。儿童安全组织已经指出,“感知第一人称儿童性虐待材料”的生产(即,表观自拍照的儿童性虐待材料)已经上升指数率在过去的几年中。此外,贩运者可能会为付费观看的罪犯造成对儿童的性虐待。

导致记录和直播的儿童性虐待材料的情况大不相同,但是技术是相同的。目前,没有技术解决方案可以检测到儿童性虐待材料的产生。技术安全公司Safetonet正在开发一个实时检测工具,但还没有准备好启动。

检测招标

也发现了第三类“诱因语言”的检测。科技行业已竭尽全力确定确定招标和诱惑语言所需的指标,但结果不同。微软率领Artemis项目,这导致了防房间工具。该工具旨在检测出于性目的的儿童的诱因和招标。

但是,正如拟议的法规所指出的那样,该工具的准确性为88%。在2020年,流行的消息传递应用WhatsApp大约交付每天1000亿条消息。如果该工具甚至将0.01%的消息识别为“诱惑语言”的“正面”,那么人类审稿人每天都将负责阅读1000万条消息,以识别误报的12%,这使得该工具完全不切实际。

与上述所有检测方法一样,这也将破坏端到端的加密。但是,尽管其他人可能仅限于查看图像的哈希值,但此工具需要访问所有交换的文本。

没有路径

欧盟委员会可能采取这种雄心勃勃的方法,希望促进技术创新,从而导致更准确和可靠的检测方法。但是,如果没有现有的工具可以完成这些任务,则法规将无效。

当有采取行动但没有采取途径的任务时,我相信断开连接只会在没有明确的指导和指导的情况下离开行业,这些法规旨在提供。

劳拉·德雷珀(Laura Draper)是美国大学技术,法律与安全计划的高级项目总监。

本文从谈话在创意共享许可下。阅读来源文章

广告
广告
广告