5月15日凌晨1点,抢在谷歌年度研发者大会Google I/O开幕前,OpenAI发布了全新时期AI模型——GPT-4o。
GPT-4o中的“o”表率“omni”,一般做为前缀运用,在《剑桥词典》中,它的英文释义是:everywhere or everything。
来学习一下以omni做为前缀的有些单词:
omnipresent
【形容词】无所不在的
例句:These days the media are omnipresent.
此刻资讯媒介无处不在。
omnipotent
【形容词】全能的; 无所不可的
例句:Doug lived in the shadow of his seemingly omnipotent father.
道格生活在他那看似无所不可的父亲的暗影里。
omniscient
【形容词】全知的;无所不知的
【名词】上帝;无所不知者
继续说回GPT-4o。到底为么能惊艳全网?
按照OpenAI官网的介绍,GPT-4o能够处理文本、音频和图像的任意组合输入,并生成对应的任意组合输出。
尤其是在音频方面,它能够在短至232毫秒的时间内响应用户的语音输入,平均320毫秒的用时已然接近人类在平常对话中的反应时间。
另外,GPT-4o在视觉和音频理解方面亦表现出色,支持包含中文在内的20种语言进行音频等多模态交互。
这么说可能有点抽象。@商英君 观看了官网发布的视频后,感觉AI好似真的长出了眼睛,不仅能和人类实时视频和语音(反应速度极大),还能辅导孩儿作业(官网视频里AI在教数学),乃至现场做起了双语翻译。
测试时期GPT-4o能看到你并经过周边的环境进行判断,还能感知你的心情,听她的回答亦很“human”。【换句话说,你跟 GPT-4o 对话就跟真人似的。】
Last but not least,GPT-4o宣布会免费向用户开放。
博主找了一圈运用入口,才发掘这些大佬都是引流好手呀~嘴上说着 GPT-4o 都能免花费,但此刻能用上 GPT-4o 的仅有 Plus 账号,普通用户要用上视频和语音功能,可能得再等等了。
不少自媒介人评论——“这是最接近于人的AI”,GPT-4o刷新了人工智能的极限。
奥特曼亦在推特上毫不避讳地,把 GPT-4o 跟科幻电影《Her》联系起来。(这部电影讲的是人和 AI语音助理谈爱情的故事)
网友乃至还用奥特曼的照片,整出来了个“ him ”。
果然,OpenAI 这次GPT-4o的现场演示效果再次惊艳世界,尤其是实时语音和视频交互的能力高出其他AI模型几个level有没有。
谷歌亦真是倒霉,每次要研发布会之前总会被OpenAI截胡,真的要思虑下是不是有内鬼了。。。
不外,谷歌亦不是吃素的。几个小时后,Google DeepMind首席执行官哈萨比斯亲自携谷歌版《Her》登场,2小时发布会疯狂复仇!
① 对标Sora的60s视频生成大杀器Veo:
效果炫酷,正面硬刚Sora!
② 谷歌版《Her》,名为Project Astra的AI助手:
一样能
会
还有
,不仅能几乎无延迟地和人类流畅交流,经过摄像头,Project Astra乃至能直接帮忙读代码:跟GPT-4o平起平坐。
③Gemini 1.5 Pro,上下文长度将达到惊人的200万(2000k)token。超过了日前所有的大语言模型,况且开放给个人用户运用。
相比之下,GPT-4 Turbo仅有128K,Claude 3亦仅有200K。这亦寓意着——你能够给模型输入2小时视频、22小时音频、超过6万行代码或140多万单词。
想用的能够去排队申请了。
最后还有一个重磅信息:谷歌搜索将被Gemini重塑,形态从此彻底改变!咱们再也不需要自己点进搜索结果,而是由于多过程推理的AI Overview来代办一切。
全部发布会共提了121次AI。
一波操作下来,网友们暗示:
你觉得呢?
参考源自:量子位
https://mp.weixin.qq.com/s/cAeLgg46Wq81rhgsJp0l4Q
https://mp.weixin.qq.com/s/i2aTl_z2WbN1KjafxKlL1g
https://mp.weixin.qq.com/s/R8eIK_twxz9CTO_K_RNYXw新智元
这期的内容就分享到这儿了。倘若你想加强自己的白话水平,欢迎加入Hitalk白话试学计划,0元定制1V1白话提高方法:
Hitalk白话试学计划
5课时 沪江白话美式音标
5课时 五步玩转纯正白话
10课时 10天秀出地道白话
10课时 10天搞定出境游白话
此刻统统免费领取
↑长按识别免费领取↑
↑长按识别免费领取↑
想不想提高外语水平
就看你自己的了
|宣传
点击阅读原文,0元试学返回外链论坛:www.fok120.com,查看更加多
责任编辑:网友投稿
|