OpenAI Gym:给恶意软件穿上“隐身衣”

来源:互联网 发布:java开发投票系统 编辑:程序博客网 时间:2024/05/01 10:02

8月2日讯 在本届DEF CON黑客大会上,专家们展示了如何利用一套机器学习系统(OpenAI GYM)创建出能够规避检测的恶意软件。


我们已经多次讨论关于人工智能(简称AI)对威胁前景的影响。从防御角度来看,这类新型技术方案能够提前检测与威胁相关的恶意模式;但从进攻的角度来看,机器学习工具亦可被用于创建定制化恶意软件,从而突破现有反病毒软件的防线。

本届DEF CON黑客大会上,安全厂商Endgame公司数据科学技术主管哈拉姆·安德森演示了如何利用一套机器学习系统创建出能够有效规避安全解决方案检测的恶意代码。

安德森对埃隆·马斯克的OpenAI框架进行调整以创建恶意软件。其原理非常简单,只需要对该系统稍加调整,即可生成看似合法的恶意代码。

这套只需要几处修改即可避开反病毒引擎检测的系统被专家们命名为OpenAI Gym。


安德森解释称,“一切机器学习模型皆存在盲点。根据黑客自身的实际知识水平,其完全能够对这些盲点加以利用。”他和他的团队创建出一套系统,能够以对合法代码进行小幅修复,并将其提交至安全检查器。通过对安全检查器的响应分析结果进行查询,研究人员即可进一步小幅调整,从而提升恶意软件规避检测的能力。

批量生产恶意软件或成现实

专家们开发出的这套机器学习系统在15个小时的训练当中利用某款安全引擎对超过10万种恶意软件样本进行扫描,最终结果令人担忧:16%的恶意软件样本顺利通过了安全系统的防御扫描。

安德森和他的团队已经将OpenAI Gy的代码发布至GitHub之上,感兴趣的朋友可以点击此处查看。

根据GitHub上的工具包发布描述所言,“这是一套面向OpenAI Gym的恶意软件修改环境。OpenAI Gym属于一款用于开发以及比较强化学习算法的工具包。使用者能够借此编写出有能力学习如何修改PE文件(例如恶意软件)的代理,并根据特定修改操作带来的反馈实现特定目标(例如回避反病毒工具检测)。”

安德森鼓励各位安全专家体验OpenAI Gym并对其进行改进。