认识新的有害材料
就新内容(即哈希数据库中未包含的图像和视频)而言,没有这种尝试的技术解决方案。顶级工程师一直在研究这个问题,建立和培训可以容纳大量数据的人工智能工具。谷歌和儿童安全非政府组织刺两者都使用机器学习分类器取得了一些成功,以帮助公司识别潜在的新儿童性虐待材料。
但是,如果没有独立验证工具准确性的数据,就无法评估其效用。即使准确性和速度与哈希匹配技术相当,强制性报告也会再次破坏端到端的加密。
新内容还包括直播,但拟议的法规似乎忽略了该技术所带来的独特挑战。直播技术在大流行期间变得无处不在,生命内容的儿童性虐待材料的生产有急剧增加。
越来越多的孩子被诱使或强迫性脱俗的性行为,观众可以记录或屏幕捕捉。儿童安全组织已经指出,“感知第一人称儿童性虐待材料”的生产(即,表观自拍照的儿童性虐待材料)已经上升指数率在过去的几年中。此外,贩运者可能会为付费观看的罪犯造成对儿童的性虐待。
导致记录和直播的儿童性虐待材料的情况大不相同,但是技术是相同的。目前,没有技术解决方案可以检测到儿童性虐待材料的产生。技术安全公司Safetonet正在开发一个实时检测工具,但还没有准备好启动。
检测招标
也发现了第三类“诱因语言”的检测。科技行业已竭尽全力确定确定招标和诱惑语言所需的指标,但结果不同。微软率领Artemis项目,这导致了防房间工具。该工具旨在检测出于性目的的儿童的诱因和招标。
但是,正如拟议的法规所指出的那样,该工具的准确性为88%。在2020年,流行的消息传递应用WhatsApp大约交付每天1000亿条消息。如果该工具甚至将0.01%的消息识别为“诱惑语言”的“正面”,那么人类审稿人每天都将负责阅读1000万条消息,以识别误报的12%,这使得该工具完全不切实际。
与上述所有检测方法一样,这也将破坏端到端的加密。但是,尽管其他人可能仅限于查看图像的哈希值,但此工具需要访问所有交换的文本。
没有路径
欧盟委员会可能采取这种雄心勃勃的方法,希望促进技术创新,从而导致更准确和可靠的检测方法。但是,如果没有现有的工具可以完成这些任务,则法规将无效。
当有采取行动但没有采取途径的任务时,我相信断开连接只会在没有明确的指导和指导的情况下离开行业,这些法规旨在提供。
劳拉·德雷珀(Laura Draper)是美国大学技术,法律与安全计划的高级项目总监。