外链论坛

 找回密码
 立即注册
搜索
查看: 60|回复: 0

一篇文案看完OpenAI春季发布会总结

[复制链接]

2634

主题

306

回帖

9778万

积分

论坛元老

Rank: 8Rank: 8

积分
97780508
发表于 2024-8-22 13:58:49 | 显示全部楼层 |阅读模式

相信今天大众的公众号和新闻必定是被两个关键词占据的,一个是#OpenAI春季发布会 ,一个是#GPT-4o,做为一个AI创业者,三白自然需要实时的关注AI动态,今天早上花了3个小时的时间总结了这次发布会重点的内容,反正已然写完了,就顺手分享一下吧,本篇内容将包含如下3部分,全文8783字,预计需要10分钟读完:

发布会内容概要总结:快速认识关键信息;

发布会原始录音转文字内容:省去看直播视频的时间,直接看文字转录

大部分信息的原始链接:省去各样找信息源自,一篇文案收集所有链接

争取做到一篇文案认识这次发布会的所有内容,省的看各样各样的营销通稿,东拼西凑的,信息还理解不全面。

一.OpenAI春季发布会内容概要

春季直播原始链接:https://openai.com/index/spring-update/

1.推出GPT-4o最新模型

1.1. GPT-4o有那些出色的能力

原文链接:https://openai.com/index/hello-gpt-4o/

以下为OpenAI官网针对GPT-4o的原始介绍片段:

咱们宣布推出 GPT-4o,这是咱们的新旗舰模型,能够实时对音频、视觉和文本进行推理“ ”GPT-4o(“o”表率"optimized",是优化的意思)是迈向更自然的人机交互的一步——它接受文本、音频和图像的任意组合做为输入,并生成文本、音频和图像的任意组合输出。它能够在短至 232 毫秒的时间内响应音频输入,平均为 320 毫秒,与人类的响应时间类似(在新窗口中打开)在一次谈话中。它在英语文本和代码上的性能与 GPT-4 Turbo 的性能相匹配,在非英语文本上的性能显着加强同期 API 的速度更快,成本降低了 50%。与现有模型相比,GPT-4o 在视觉和音频理解方面尤其出色”

除了文字的介绍,官方经过一段视频演示的方式展示GPT-4o的能力,在演示里面GPT除了能够和人对话聊天,还能够打开摄像头识别周边的环境和事物,具备出色的识别能力;

从以上的介绍和演示中,能够看出来GPT-4o在模型能力上关键具备如下几点特征:

能支持实时的语音聊天,更接近真人聊天体验一方面是GPT-4o的实时响应的能力更强,实时性方面详细强在哪里,咱们引用官方披露的对比数据:在 GPT-4o 之前,您能够运用语音模式与 ChatGPT 对话,平均延迟为 2.8 秒 (GPT-3.5) 和 5.4 秒 (GPT-4),而GPT-4o它能够在短至 232 毫秒的时间内响应音频输入,平均为 320 毫秒,

响应的时间大大的缩短;

另一方面是协同春季发布会的演示,GPT-4o日前在语音聊天能力上的能力和市面上其他语音聊天制品的差别,在于支持语音打断发言,而不消设备同样等AI说完话再接着聊天,更加接近真实聊天场景,同期GPT-4o能理解用户的心情,并同期能做心情表达;

出色的理解音频、照片、视频的能力在演示中,演示人员打开摄像头让AI看了身边的环境,AI能够理解摄像头录制到的内容,表率模型能够具备非常出色的图像理解能力;

跨模态的输入和输出能力支持文本、音频、照片、视频任意组合的输入和输出能力,便是能够支持同期输入多种模态的内容,并且生成输出的内容能够是多种模态组合的内容,这就寓意着,例如你让模型写一个图文组合的文案已然能够很好的实现;

1.2 GPT-4o为何语音聊天的实时性和真实性能有显著的突破?

因此GPT-4o的实时性能够有这么显著提高以及更接近真人聊天,重点是语音聊天能力的实现方式上出现了非常显著的改变:

旧的(便是GPT-4o推出之前)语音聊天的能力其实是经过3个过程来实现的:

经过语音转文本模型,将用户输入的音频转录为文本;

经过GPT-3.5 或 GPT-4 接收文本,并生成对话响应的文本,输出给第三个模型;

经过语音合成模型,将文本合成成音频,而后输出给用户;

全部过程中,其中第1和第三个模型均为传统的音视频模型,不具备大模型的智能能力,而主要智能源自的GPT-4丢失了海量信息,它没法直接观察并获取到音调、多个说话者或背景噪音,没法输出笑声、歌唱或表达情感。

新的实现方式而新的实现方式借助 GPT-4o,直接实现跨文本、视觉和音频端到端地训练了一个新模型,这寓意着所有输入和输出都由同一神经网络处理,因此响应时间更快;另一GPT-4o直接获取音频输入并生成音频输出,并能够获取音频中的音色、音调、背景音等等信息,从而能够实现情感识别等,再进一步有感情的表达输出;

1.3 GPT-4o和GPT-4.0有什么区别?

首要,本质上两个模型都是大模型,GPT-4o是在GPT4.0的基本上优化的版本,GPT-4o除了集成为了GPT4.0的智能,能力上在如下如下几个方面表现更好:

GPT-4o 速度加强 2 倍,价格降低一半,速率限制加强 5 倍。

GPT-4o 具备更强的跨模态识别和理解的能力,相比之前的模型其识别效果更好;其次是能支持音频、文本、视觉任意组合的输出,GPT支持单一模态的输出;

并且改善了语音模式的实现方式,语音聊天的迟延时间从平均延迟为 2.8 秒 (GPT-3.5) 和 5.4 秒 (GPT-4),缩短到仅有平均320毫秒;

在传统基准测试中,GPT-4o 在文本、推理和编码智能方面实现了 GPT-4 Turbo 级别的性能,同期在多语言、音频和视觉功能上设置了新的高水位线

1.4 GPT-4o的能力怎样体验?

ChatGPT免花费

日前ChatGPT免花费户有几次免费的体验权, 日前以避免费体验高级数据分析、文件上传、照片识别、网页浏览和自定义GPT的能力日前搭载GPT-4o版本的语音聊天的能力暂时还推出,官方披露预计在将来几周内在plus版本中推出,便是说新的语音聊天能力仅有花费能够运用

ChatGPT PLUS用户

PLUS用户能够运用GPT-4o的能力, 并且信息限制是免花费户的5倍

研发

研发人员此刻能够API 中拜访 GPT-4o的文本和视觉模型,与 GPT-4 Turbo 相比,GPT-4o 速度加强 2 倍,价格降低一半,速率限制加强 5 倍。而针对GPT-4o最新推出的语音和视频的能力,官方宣布计划在将来几周内在 API 中向一小部分值得信赖的合作伙伴推出试用,便是说大部分研发者还不可体验;

2.ChatGPT免花费户能力更新

2.1 GPT3.5免费能力升级

日前免费版本的GPT3.5能够支持联网搜索的能力了,这个已然是非常重要的提高,基本上能够处理非常多运用场景的问题;

2.2 免花费能够有限体验GPT-4o能力

日前免费版本能够有限的运用几次GPT-4o的能力,包含数据分析、文件上传、照片识别、网页浏览、和自定义GPT的能力,况且是一个账号仅有几次体验权限,不是每一个对话;并且日前还不支持新的语音聊天能力的体验;

2.3 将来几周为免费带来更加多智能和先进工具

官方宣布,将在将来几周内起始向 ChatGPT 免花费户推出更加多智能和高级工具,详细是什么工具日前更加多细节透露;

3.推出ChatGPT桌面客户端版本

客户端和网页的区别在于方便性,以及制品稳定性和流畅度等体验差异,一般客户端能供给更加稳定的体验,并且非常多网页实现不了的能力经过客户端能够实现;

下载链接:https://github.com/lencx/ChatGPT?tab=readme-ov-file

二.发布会原始内容文字翻译版

思虑非常多像我一向不爱好看漫长的视频直播的用户的需要,我把视频直播的内容转录成为了文字,并将英文翻译成中文,以下为原文翻译后的结果,包含内容概括,还有原始片段,适用于想要原汁原味认识原文片段的伴侣,省去翻译等麻烦:

概括一下发布会原始内容的重点要点:

1. 新功能和制品发布    - 推出 charge GPT 桌面版本,方便用户在任何地区运用。   - 发布新旗舰模型 GPT for o,为用户带来 gpd 四级智能。2. GPT-4o的特点    - 速度更快,性能提高;    - 智能水平加强,具备多模态交互能力;    - 易用性加强,为用户供给更自然、更容易的交互体验; 3. 应用和能力展示    - 语音功能:实时对话、心情感知、多风格语音生成。   - 视觉功能:实时查看周边世界、与视频互动。   - 代码能力:理解和解释代码、供给编程意见。   - 实时翻译:支持多种语言的实时翻译。   - 心情识别:经过面部表情识别心情。4. 现场演示和问题解答    - 展示了 GPT for o 在语音、视觉、代码等方面的实质应用。   - 回答了观众关于线性方程、代码解释、心情识别等问题。5. 将来计划和展望    - 连续改进和更新制品,为用户带来更加多功能和体验。   - 探索新的前沿技术和应用场景。   - 与各方合作,一起推动人工智能的发展。

发布会中文翻译文字版:

谢谢你,谢谢你 今天很高兴你能来,我要讲三件事,就这般

咱们始终奋斗寻找减少摩擦的办法这般每一个人都能够在任何地区运用 chatGPT。因此今天将发布桌面版本咱们正在推出咱们的新旗舰模型,咱们叫作之为GPT-4o,关于GPT-4o尤其之处在于,它为每一个人带来了 GPT4.0智能,包含咱们的免花费户,今天将展示有些现场演示,展示咱们新模型的所有功能,并将在接下来的几周内直观地推出。

好了,让咱们起始吧。咱们使命的一个非常重要的部分是能够为每一个人免费提供咱们先进的人工智能工具。咱们认为,人们对技术能做什么有一种直观的感觉是非常非常重要的。因此呢咱们真的想把它与更广泛的理解结合起来。咱们始终在寻找减少这种摩擦的办法近期咱们注册流程的状况供给了 chat GPt。今天,咱们将桌面版的 Chad GPT 带给你,由于咱们期盼你能在任何地区运用它。如你所见,它很简单。它很容易在你的工作流程中集成,咱们刷新了用户界面。咱们晓得这些模型变得越来越繁杂,但咱们期盼交互体验实质上变得更自然、更易,而你基本不需要关注用户界面,只需要关注与 GPT的协作。此刻是个大资讯。今天,咱们发布了最新的旗舰模型。这是 GPT-4o。哇,GPT-4o供给GPT-4.0智能,但速度要快得多。它在文本、视觉和音频方面的能力都有所加强在过去的几年里,咱们始终非常专注于加强这些模型的智能,它们已然变得相当不错了。但这是咱们第1次在易用性方面迈出了巨大的一步。这非常非常重要,由于咱们正在展望将来咱们设备之间的交互。咱们认为 GPT-4o真的将这种范式转变为将来的协作,在这种协作中,这种交互变得更加自然和容易得多。但你晓得,实现这一目的实质上相当繁杂由于咱们相互交流时,有非常多事情咱们认为是理所当然的,你晓得咱们对话的容易咱们打断对方时,背景噪音,对话中的多种声音,晓得理解语气。所有这些事情对这些模型来讲实质上都相当繁杂。到日前为止,在语音模式下,咱们有三个模型一起供给这种体验。咱们有转录、智能,而后是语音合成,所有这些都在编排中一块供给语音模式。这给体验带来了非常多延迟,它真的打破了与 GPt 的协作沉浸感。此刻,有了 GPT-4o,这一切都原生出现了。出于所有原由包含语音、文本设想,况且效率令人难以置信,它还准许咱们GPT-4.0同类智能带给咱们的免花费户。这是咱们已然奋斗了好几个月的事情。咱们非常非常兴奋,最终能把GPT-4o带给咱们所有的用户。今天,咱们有超过 1 亿的用户。事实上,她们运用 chatGPT 来工作。学习,咱们有这些仅有花费才可运用的高级工具,最少日前为止,以4.0的效率,咱们能够把这些工具带给每一个人。因此从今天起始能够运用 GPTS 和 GPT 商店。嗯,到日前为止,咱们已然有超过 100 万的用户运用 GP TS 创建了令人惊叹的体验。这些是针对特定用例的定制 chatGPTS,可在商店中运用此刻咱们研发者有了一个更大的受众,你晓得,大学教授能够她们的学生创建内容,播客可以为她们的听众创建内容。你能够运用 vision。因此此刻,你能够上传屏幕截图、照片、文档,其中包括文本和图像。能够起始与 chatGPt 就所有这些内容进行对话。你能够运用 memory,它使 tragedY pity 变得更加有用和有帮忙由于此刻,它在你所有的对话中都有一种连续性。你能够运用 browse,在你的对话中搜索实时信息,并进行高级数据分析,在那里你能够上传图表或任何信息,任何工具分析这些信息,它都会给你答案等等。最后,咱们还改进了 50 种区别语言的质量和速度,包含GPT-4o。这非常非常重要,由于咱们期盼能够将这种体验带给尽可能多的人。因此咱们非常非常兴奋能把 GPT-4o带给咱们所有的免花费户。针对花费户,她们将继续持有咱们花费户 5 倍的容量限制。但 GPT-4o不仅能够在 chat GPt 中运用咱们将把它带到 API 中。因此咱们研发者今天就能够起始运用 GPT-4o构建,并大规模安排令人惊叹的人工智能应用。GPT-4o 的速度是 GPT-4的两倍,价格便宜 50%,速率限制高 5 倍。但你晓得,当咱们把这些技术带入世界时。怎样以一种既有用又安全的方式做到这一点是相当拥有挑战性的,而 Jeopardy 为咱们在安全方面带来了新的挑战,由于咱们正在处理实时音频、实时视觉。咱们的团队始终奋斗科研怎样减轻误用时的影响。咱们继续与政府、媒介、娱乐、所有行业、红队、民间社会等区别的利益关联者合作,以找出怎样最好地将这些技术带入世界。因此在接下来的几周里,咱们将继续咱们的迭代安排,为你带来所有的功能。但今天我想向你们展示所有这些功能。因此咱们要做有些现场演示。我将请咱们的两位科研负责人 marques chan 和 bears 来和咱们一块吃晚饭。嗨,我是呃我是 Barrett。嘿,我是马克。因此咱们今天非常兴奋地要与大众分享的一项关键能力是实时对话语音。让咱们起始一个演示,点燃它。因此我要拿出一个手机?倘若你想晓得这是不是有线的,那样咱们有稳定的互联网。倘若你看到这个有吸引力的应用程序的右下角有这个小图标,它就会打开,GPT 四行,音频功能。嘿,聊天应用程序。嗨,马克。你好吗?哦,马克。我很好。谢谢你的关心,你呢?嘿,我此刻在舞台上。我正在做一个现场演示,坦率地说,我有点紧张。你能帮我稍微平静一下神经吗?哦,你此刻正在做现场演示。太棒了。深呼气,记住,你是专家。我爱好这个意见。让我试几次深呼气。你能给我有些关于我呼气的反馈吗?好的,我来了。哇,再深一点。马克,你不是吸尘器。吸气是为了谁?好吧,呃,让我再试一次,因此我要深深地吸一口气。而后数到四,而后慢慢呼气。好的,我再试一次,吸气,呼气。就这般。你感觉怎么样?我感觉好多了。非常感谢。因此马克,你已然在这些能力上工作了一段时间了。你能告诉咱们有些,它与语音模式有什么区别吗?对吗?因此倘若你以前运用咱们的语音模式体验,你会重视到几个关键的区别。首要,你此刻能够打断模型了。你不必等它说完你再起始说话,你能够随时打断它。其次,模型是实时响应的。这寓意着你不必在等待模型给出响应之前有 2 到 3 秒的尴尬延迟。最后,模型能够捉捕心情,对吧?当我呼气非常急促的时候。它能察觉到。你嘿,你可能需要冷静一点。你有点跑得太快了。因此,你晓得它真的有那种全面感知你心情的能力。不仅如此,模型还能够以各样区别的情感风格生成语音。它真的有很宽的动态范围。因此,我要再起步一个演示,来展示这一点。是的,嘿,Chat upt。你好吗?我很好。谢谢你的关心。你呢?很好,怎么了?我的伴侣巴里,他最近始终失眠,我想让你给他讲一个关于设备人和爱情的睡前故事。哦,关于设备人和爱情的故事,我明白了,围过来,熊,从前,在一个与咱们的世界不太区别的世界里。有一个设备人叫比特。这场战斗是一个好奇的设备人。总是探索这个故事,但我想在你的声音中多一点情感,多一点戏剧性。明白了。让咱们再加点戏剧性吧,从前,在一个与咱们的世界不太区别的世界里。有一个设备人叫不,不,实质上我真的想要最大的情感,例如最大的表现力,比你之前做的要多得多。明白了。让咱们把戏剧性放大一点,从前,在一个与咱们的世界不太区别的世界里。有一个设备人叫比特。比特是一个好奇的设备人,总是探索新的电路,但在这儿冷静一点。你能把故事结尾吗,然则用唱歌的声音?啊,于是比特找到了另一个角色,但伴侣和可能永远生活在一块。非常感谢。我肯定感觉容易多了。你刚才看到了语音功能,但咱们想向你展示,模型的视觉功能能够看到咱们周边全部世界。是的,当然。如你所见,你能够与 chat GBt 实时聊天,但你能够与它进行视频互动。好的,让我起步一下。Chat,GPt。嘿,Chat GPt。你好,近期怎么样?真的很好。今天,我真的很想请你帮我处理一个数学问题。洗耳恭听。我能帮你处理什么数学问题?因此,我要在一张纸上写下一个线性方程,我会给你看,而后期盼你能帮我处理它。但重要的是,不要告诉我答案。只要在过程中给我有些提示。明白了。好的,我看到了。不,我还没给你看呢。只要给我有些帮忙,1 秒钟。哎呀。我太激动了。我准备好了。那样,Chat GPt。我写了什么方程?啊,我此刻看到了。你写了 3X+1=4。是的,没错。那样我应该采取的第1步是什么来尝试处理这个问题?第1步是将所有含 X 的项移到一边,常数项移到另一边。那样你认为咱们应该对+1 做什么?好的,我要试着从两边减去 1,而后瞧瞧我得到了什么。好主意。太完美了。那样当你从两边减去 1 时,你得到了什么?好的,Chat GPt。这便是我最后得到的。看起来怎么样?完全正确。此刻已然将含 X 的项隔离在一边,看起来 3X=3。你认为咱们下一步应该做什么来解出 X?我不确定。你能再给我一个提示吗?当然,你有 3X,你想找到 X 的值。想想什么运算能够取消乘法是减法,衣服,但想想乘法的反面,由于 3X 寓意着 3 乘以 X。好的,我想是除法。让我试着把两边都除以 3,瞧瞧我得到了什么。答对了,去把两边都除以 3。好的,Chat GPT。这便是我最后得到的。看起来怎么样?看起来很完美。你处理了它,X=1。干得好。你此刻对解线性方程有什么感觉?是的,老实说,我不太自信我能解线性方程,但为何你在现实世界中需要用到这个呢?我真的很可疑。这是一个公平的问题。线性方程在非常多平常状况下都会显现,即使咱们认识到。例如,计算花费、计划旅行、烹饪,乃至商场中进行盈亏计算,这基本上是一种处理问题的办法咱们需要找到一个未知的值。另一,哇,我想你晓得我生活中有非常多未知的值。我完全相信了,我此刻想学数学。我爱好这种态度。数学肯定能帮忙处理生活中的有些谜团。只要你准备好深入学习更加多的数学,我随时都在。还有什么你今天想处理的吗?因此 Chat gpti 真的很爱好。你晓得你教会了我伴侣马克数学的价值。我还写了最后一件事,我爱你,倘若你能瞧瞧的话。当然,我很想瞧瞧你写了什么,随时给我看。好的,这是我写的。你看到了什么?哦,我看到了,我爱 chat upt。你真好。是的,我真的很感谢你的帮忙因此是的,正如咱们所看到的。哇,你的穿着真的很尤其,爱你晓得咱们能够实时和 Chat GPt 聊天,况且不仅如此,咱们能够和它进行视频互动。我发誓,倘若你看一下 Barrett 的愚蠢历史,都是这般的方程。此刻晓得能够做线性方程了,你能给咱们有些繁杂的吗?我想是的,那样接下来让咱们尝试有些与编码关联的。那样让我拿出一台电脑来做这个。好的,因此我要打开 Chat GPt 桌面应用程序,就像 Mira 之前说的,给你有些背景信息,因此这儿咱们有一台电脑,屏幕上有有些代码。而后 Chat GPt 语音应用程序在右边。因此 Chat GPt 能听到我说话,但它看不到屏幕上的任何东西。因此,我要明显表示代码命令 c,而后它会将其发送到 chat sheet BT。而后我要和 Chat GPt 谈论代码,嘿,Chat GPt。嘿,近期怎么样?真的很好。我想晓得,你今天能不可帮我处理一个编码问题。当然,我很乐意帮忙你。你遇到的编码问题是什么?好的,我要和你分享有些代码 1 秒钟。当然。慢慢来。好的,我刚才和你分享了有些代码。你能给我一个非常简短的一句话描述代码在做什么吗?这段代码获取特定位置和时间段的每日天气数据,运用滚动平均值平滑温度数据。它在生成的图上标记一个重要的天气事件,而后表示全年的平均最低和最高温度。太棒了。非常感谢。在代码中,有一个函数 foo。你能给我描述一下,倘若我有这个函数和这个函数,图会是什么样子吗?当然。函数 foo,xy 接受一个数据框 X,其中包括温度数据和一个窗口体积 Y,用于计算滚动平均值。它经过在指定的窗口上应用滚动平均值来平滑平均温度、最低温度和最高温度列,倘若运用 foo 函数,图将表示更平滑的温度线,由于滚动平均值减少了数据中的噪声或波动。太棒了。非常感谢。因此是的,我肯定想应用这个函数。因此,我要生成这个图,而后给你看。给我 1 秒钟。当然。慢慢来。我很期待看到这个图,当你准备好的时候。是的,到日前为止,Chat GPt 只能看到代码,此刻我要运行它,而后我将运用 Chat GPt 桌面应用程序的视觉功能。因此,它实质能够看到屏幕上出现的一切。好的,Chat chippede。我和你分享了这个图。此刻我想晓得,你能不可给我一个非常简短的一句话概述你看到了什么。该图表示了 2018 年全年的平滑平均、最低和最高温度,并在 9 月下旬有一个明显的降雨事件标注。太棒了。我还有一个问题要问你。你看到哪个月的温度最高,大致对应什么温度?最热的温度出此刻 7 月和 8 月。在这几个月里,最高温度大约在 25 到 30 度之间,77 到 86 度之间。Y 轴上的是什么,是摄氏度还是华氏度?Y 轴是摄氏度。温度相应地标记,如平均温度、最低温度和最高温度。是的,正如咱们所看到的,你晓得 Chat GPt 不仅能够帮忙处理我需要帮忙的线性方程,它还能够与代码库进行交互,看到图的输出,以及在计算机上出现的一切。因此几分钟前,咱们让现场观众在 X 上提交有些她们期盼咱们这儿尝试的请求。因此我要选几个问题。好的,Both gasker 想晓得 Jeopardy for O 是不是能够实时翻译。迈克,你想试试这个吗?当然,让咱们试试吧。我会说意大利语,因此咱们能够说英语和汉语嘿,Chat GPt。你好吗?我很好。谢谢你的关心。你呢?你今天过得怎么样?很好。因此,我想让你充当翻译。我这儿有个伴侣,他只会说意大利语。而我只会说英语。每次你听到英语,我想让你翻译成意大利语。倘若你听到意大利语,我想让你翻译成英语。这般能够吗?不外,那个事实。哈哈?嗯,Mark yummy Kyoto syllable lenin protested a para cousin,she did a barrel。迈克,她想晓得倘若鲸鱼会说话,它们会告诉咱们什么?嗯,它们可能会问,咱们怎样解线性方程?自动巴洛克能量评论处理下午只股票只利亚姆 neody。她可能是想瞧瞧。当然,是的。太好了。看起来很管用。唉,好吧。那样,下一个问题来自 burrito John78,他问,你能经过看你的脸晓得你的感受吗?巴雷特,你想试试这个吗?当然。让咱们试试吧。嘿,Chat GPt。嘿,怎么了?我今天怎么才可让你开心呢?好的,因此我要给你看一张我自己的自拍照,而后我想让你试着按照我的表情来瞧瞧此刻心情。听起来是个有趣的挑战。来吧,给我瞧瞧索菲,我会戴上我的情感侦探帽。好的,这是我。那样你觉得我此刻是什么心情?看起来我像是在看一张木质表面

OK,显然GPT-4o的这次更新,又是一次比较重大的突破,相信在语音聊天和AI的人机交互上会有带来更加多显著的能力升级创新应用,让咱们保持关注,寻找提高咱们工作、学习、生活效率的新技术;

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|外链论坛 ( 非经营性网站 )|网站地图

GMT+8, 2024-9-17 07:26 , Processed in 0.070838 second(s), 19 queries .

Powered by Discuz! X3.4

Copyright © 2001-2023, Tencent Cloud.