3月14日,人工智能公司OpenAI发布了ChatGPT(GPT-3.5阶段)的升级版GPT-4,让原本已经略显沉寂的 ChatGPT 话题再次迎来了“爆炸式热议”,毫无悬念地冲上了社交平台热搜。“AI 终将取代人类”、“GPT-4考试能力强过90%的人类”等话题受到越来越多的用户关注。
和之前的ChatGPT相比,此次GPT-4的升级堪称“重磅级”:采用了“超大多模态模型”,回答准确率上大幅提升;输出文本扩写能力增强,处理上限增加至2.5W个单词;在纯文本输入基础上增加了图像识别;创造力大幅提升,能够处理更细微的指令......
和ChatGPT相比,GPT-4是如此之优秀,带来的可怕结果是:在用户的疯狂订购下,OpenAI付款系统宕机了。
扔掉Chat之后,GPT-4更强大了
如果说基于GPT-3.5模型的ChatGPT还是个在及格线徘徊的“差生”,那么GPT-4的实力则有望踏入“尖子生”行列,不仅更加智能,也更加难以被“欺骗”。
扔掉Chat的前缀后,GPT-4能力发生了明显的变化。简单来说,随着OpenAI在深度学习方向上的不断扩展,GPT-4朝着“更像人”的方向迈出了一大步,它甚至参加了美国律师资格考试 Uniform Bar Exam、法学院入学考试 LSAT等,成绩排在前20%;还有用户在 YouTube上进行直播用GPT-4写文章、写代码、报税、写诗、讲笑话……
通过对26种语言进行测试,GPT-4在24种语言方面的表现均优于GPT-3.5等其他大语言模型,包括拉脱维亚语、威尔士语和斯瓦希里语等低资源语言,其中对中文识别的准确性达到了80.1%。
OpenAI演示了一段用GPT-4用26个单词写作的《灰姑娘》故事梗概,其中这26个单词的首字母正好对应26个字母从A到Z的正确排序,足以证明GPT-4在词汇量及语言创作方面能力的强大。
但最大的更新之处,在于GPT-4在图片识别方面的支持,能够在读懂图片内容的基础上,给出有逻辑的回答。比如当用户问下图有何特别之处,GPT-4能够直接描述出是“一名男子正在行驶中的出租车车顶上的熨衣板上熨烫衣服”。
在另一个例子中,GPT-4能够按照用户要求,在“读懂”论文的基础上给出摘要,并能对其中的某个试验过程进行精简的描述。
此外,GPT-4还能在一定程度上读懂网络上流行的搞笑“梗图”,比如能够描述出下图的搞笑之处在于“将过时的大型 VGA 连接器插入小型现代智能手机充电端口的荒谬做法”。
GPT-4将会成为黑客手中的利剑?
首先我们必须意识到一个问题,越来越智能的GPT-4会不会带来更加可怕的安全风险,或者成为网络犯罪组织手中的“利剑”?
在ChatGPT版本,FreeBuf曾深入探讨其在网络犯罪方面被利用的情况,以及可能给网络空间带来的安全风险。
一是其本身的风险,例如安全专家在ChatGPT生成的内容中发现了与公司内部机密十分相似的文本,原因可能是亚马逊员工在使用ChatGPT生成代码和文本时输入了公司内部数据信息。那么,在GPT-4中,这样的安全隐患将会仍旧存在,各大巨头依旧会对GPT进行防守。
在网安政策方面,GPT-4同样面临踩红线的危险。例如是否违反了GDPR的“最小数据”原则,是否满足“被遗忘权”或“删除权”,对于公共数据的使用是否合规,对于学术型、知识产权型信息的收集适合符合当前的法律、法规。
目前,我国《网络安全法》《数据保护法》《个人信息保护法》对于数据的采集、使用都有细致的规定,仅从现有的情况来看,GPT-4显然无法全部满足这些要求。而且未来全球的法律体系将朝着“数据保护”的方向进一步细化,那时GPT将面临更加严峻的合规压力。
其次是使用GPT-4编辑代码可能存在更多隐蔽的漏洞,在ChatGPT-3.5阶段,已经有企业和开发人员尝试利用它来写代码和漏洞排查。在卡巴斯基的一项实验中,分析师发现ChatGPT 可用于为未运行端点检测和响应 (EDR) 系统、检测代码混淆或逆向工程代码二进制文件的公司收集取证信息。
而更智能的GPT-4也被很多人给予厚望,当越来越多的开发人员使用GPT-4来编写代码,其中隐藏的漏洞将会成为更加可怕的定时炸弹,一旦被攻击者利用,将会给整个网络安全空间带来难以言表的灾难,尤其是在供应链安全领域需要提高警惕。
最后,如何防止GPT-4被黑客利用,从而给网络安全防御带来新的压力。一个十分明显的事实是,从ChatGPT 阶段开始,GPT 被用于黑产、网络犯罪、黑客攻击等领域的案例越来越多,未来甚至有可能成为常态。
例如Cybernews的研究人员曾发现,ChatGPT可以被黑客用于寻找网站的安全漏洞,在其帮助下,研究人员对一个普通网站进行了渗透测试,并在45分钟内结合ChatGPT提供的建议和代码更改示例完成了破解。
ChatGPT已经具备这样的能力,更何况更加智能的GPT-4?短时间想要利用GPT-4对网络安全体系产生实质性的强化似乎难以实现,但是被用于网络犯罪却已是近在眉睫,类似的安全风险该如何处理已经成为当下必须要思考的问题。
当然,在安全方面OpenAI也在持续努力。例如他们聘请了50 多位来自人工智能对接风险、网络安全、生物风险、信任和安全以及国际安全等领域的专家对模型进行对抗性测试,训练各种高风险场景,从而为缓解措施和模型的改进提供依据。例如通过搜集额外专业数据,以提高GPT-4拒绝有关如何合成危险化学品请求的能力。
但仅依靠这些,很明显无法满足安全的诉求,这也意味着我们需要从多方面入手来增强,以GPT-4为代表的人工智能在安全方面的能力,包括制定政策法规、以技术手段遏制作恶的风险等。
写在最后
无论如何,科技的进步对于人类的发展有着不可估量的作用,但与此同时我们更需要对风险有清晰的认识。换言之,我们以积极的态度拥抱GPT-4,但是我们更要做好应对风险的准备。
正如二战某领袖所说的那样:我们改变不了别人的想法,既然他们要备战,我们也要备战。对于GPT-4也是如此,我们无法改变他人用它来“作恶”,但我们可以决定如何用它来“为善”。
AI 这把剑,握在网安人的手里,同样异常锋利。
我们做好准备!