这是美国开放人工智能研究中心(OpenAI)发布GPT-4o的直播视频截图
美国开放人工智能研究中心(OpenAI)13日展示最新版本ChatGPT:与使用者展开语音对话、识别图像并展开讨论、翻译……相比先前版本,它与使用者对话基本无延迟,会倾听,能唠嗑,还善于察言观色,让人惊呼新版本ChatGPT“更像人”了。新版本ChatGPT取得了哪些突破?能在哪些领域实现应用?它对人工智能领域的影响有多大?
有哪些“进化”
开放人工智能研究中心13日发布的人工智能模型名为GPT-4o,编号中的字母“o”代表“omni”(全能),既能接受文本、音频和图像的任意组合输入,还能生成文本、音频和图像的相关回应。
该中心不仅围绕GPT-4o做了直播演示,还在社交媒体发布更多视频“炫技”。
在一段视频中,GPT-4o听起来明显“更会聊天了”,还时不时抛出几个笑话。它的音调有些许变化,言语间带着笑意,与它聊天更像与真人交谈。
实时聊天是ChatGPT的关键技能。相比先前版本,GPT-4o的不同主要表现在:一是使用者可以随时打断聊天机器人,无需像从前那样等它把话说完;二是它会实时对问题作出回应,不再有两到三秒的时滞;三是它能感知人的情绪,比如演示者呼吸急促,它会询问对方是否需要稍稍稳定下情绪。另外,GPT-4o可以生成不同风格的声音。
演示中,GPT-4o利用其视觉和语音能力,指导演示者在纸上逐步解出一道方程题,而不是直接给出答案。它还展示了英语与意大利语互译、用自拍照片识别情绪等能力。当一名演示者告诉它,自己正展示它是“多么有用和不可思议”时,它回答道:“哦,快别说了,怪害臊的。”
开放人工智能研究中心首席执行官萨姆·奥尔特曼在博客中写道,GPT-4o就像电影中的人工智能技术。“与电脑交谈一直让我感觉不自然,现在自然了。”