AI对网络安全的威胁,警告报告
根据英国和美国专家和研究人员的一份报告,人工智能(AI)造成了对网络,身体和政治安全的一系列威胁。
恶意使用人工智能报告审查了人工智能技术恶意使用的潜在安全威胁,并提出了更好的预测,预防和减轻这些威胁的方法。
“因为今天的网络安全在很大程度上是劳动约束,它与使用AI自动化的机会成熟。然而,增加了AI对网络防守的使用可能是风险的,“报告发布了。
随着AI功能变得更加强大和广泛,该报告预测现有威胁的扩展,使得攻击网络攻击更容易和更便宜,作为攻击者在防守者使用的AI系统中利用漏洞的威胁引入威胁,以及现有攻击的增加效果例如,通过自动化。
报告称,“使用AI涉及涉及网络攻击所涉及的涉及网络攻击的任务将减轻现有的攻击效果之间的权衡。”因此,研究人员认为,矛盾的网络攻击等矛盾网络钓鱼的威胁将会增加。例如,他们还期望通过使用语音合成来利用人类漏洞的攻击进行冒充。
该报告称,恶意演员对使用AI进行自然激励措施来试验使用AI攻击他人的典型不安全的系统,而公开披露的AI用于冒犯目的的使用仅限于“白帽”研究人员,进展步伐仅限于实验在AI中建议即将使用机器学习能力的网络攻击可能性。
“实际上,AI和网络安全的一些受欢迎的账户包括基于间接证据的索赔,即AI已经被复杂和动机的对手被用于犯罪。专家意见似乎同意,如果这尚未发生这种情况,那将很快,“报告说。
根据该报告的作者,世界是“在AI和网络安全共同演变的一个关键时刻,并且应该主动为下一波攻击做准备,”他们预测的数量和规模可能更大。
该报告警告说,虽然建立了启发式和机器学习算法的组合的工具,用于为典型的人类撰写恶意软件对典型的人类撰写的恶意软件相当有效,但是已经表明AI系统可能能够学会逃避它们。
该报告进行了四个高级建议:
政策制定者应与技术研究人员密切合作,以调查,预防和减轻AI的潜在恶意使用。研究人员和工程师伊犁应该认真对待他们的工作的双重性,允许滥用相关的考虑来影响研究优先事项和规范。应在研究领域中识别最佳实践,以解决两种使用的方法,如计算机安全性,以及在适用于AI的情况下导入的。积极寻求扩大讨论这些挑战的利益相关者和领域专家的范围。该报告称,攻击者将利用AI从经验中学到工艺攻击的能力,即当前报告说,目前的技术系统和IT专业人员为准备。
总体而言,作者认为,在未来几年,AI和网络安全将在串联中迅速发展,并且需要积极的努力来避免积极的攻击者。
该报告还突出了需要:
探索和潜在地实施红色组合,正式验证,负责AI漏洞,安全工具和安全硬件的披露。重新想象的围绕研究的常规和机构,从特殊关注的技术领域的出版前风险评估开始,中央通行许可模式,共享有利于安全和安全的制度,以及其他两种使用技术的其他教训。通过标准和规范促进责任文化。制定可以帮助AI帮助建立更安全的未来的技术和政策解决方案。该报告是牛福德大学人文研究所的未来与剑桥大学的存在性风险学院的未来之间的协作项目,是新美国安全,电子前基金会和Openai。