币趣网报道:
2024年将成为历史上规模最大的全球选举年。这与deepfakes的迅速崛起不谋而合。根据Sumsub的一份报告,仅在亚太地区,从2022年到2023年,deepfakes就激增了1530%。Fotografielink|Istock|Getty Images
网络安全专家担心,人工智能生成的内容有可能扭曲我们对现实的看法——在充满关键选举的一年里,这种担忧更令人担忧。但一位顶级专家却反其道而行之,认为深度造假对民主构成的威胁可能“言过其实”。思科Talos安全情报和研究小组的技术负责人Martin Lee告诉CNBC,他认为深度造假虽然本身是一项强大的技术,但不如假新闻那么有影响力。然而,他补充道,新的生成人工智能工具确实“有可能让虚假内容的生成变得更容易”。人工智能生成的材料通常可以包含常见的可识别指标,表明它不是由真人制作的。事实证明,视觉内容尤其容易出现缺陷。例如,人工智能生成的图像可能包含视觉异常,例如一个人有两只以上的手,或者一条肢体被合并到图像的背景中。在合成的语音音频和真人的语音剪辑之间进行解码可能会更困难。但专家表示,人工智能仍然只有其训练数据那么好。Lee说:“尽管如此,当客观地观看时,机器生成的内容通常可以被检测到。无论如何,内容的生成不太可能限制攻击者。”。专家此前曾告诉CNBC,他们预计人工智能产生的虚假信息将成为即将到来的世界各地选举的关键风险。

“用处有限”

企业科技公司Appian的首席执行官马特·卡尔金斯表示,人工智能“用处有限”。Appian帮助企业使用软件工具更容易地制作应用程序
他补充道,今天的许多生成性人工智能工具可能是“无聊的”。“一旦它了解了你,它就可以从惊人变成有用,但现在它还无法跨越这条线。”卡尔金斯在本周接受CNBC采访时表示:“一旦我们愿意相信人工智能拥有自己的知识,那将是非常不可思议的。”。卡尔金斯警告说,这可能会使其成为未来更有效、更危险的虚假信息工具,并补充说,他对美国在监管该技术方面取得的进展感到不满。他补充道,美国立法者可能需要人工智能制造出极其“冒犯性”的东西才能采取行动。卡尔金斯说:“给我们一年时间。等到人工智能冒犯我们。然后也许我们会做出正确的决定。”。“民主政体是被动的制度,”他说。不过,思科的Lee表示,无论人工智能有多先进,都有一些经过尝试和测试的方法来发现错误信息——无论是由机器还是人类制造的。“人们需要知道这些攻击正在发生,并注意可能使用的技术。当遇到触发我们情绪的内容时,我们应该停下来,停下来,问问自己这些信息本身是否可信,”李建议道。“它是由信誉良好的媒体发布的吗?”?其他知名媒体是否也报道了同样的事情?”他说,“如果不是,这可能是一场骗局或虚假信息运动,应该被忽视或报道。"
每周五在您的收件箱中每周汇总来自世界各地的顶尖科技故事。订阅