扩博智聊 x Jina-AI x 同合杉天

 

关键词
搜索 节目 运营 产品 智能 文本 图像 社区 企业 开发者 愿景 嘉宾 应用场景 语言模型 视频平台 人工智能 语音合成 模型训练
文字记录
说话人 1 00:00
我其实想接着刚那个飒姐的话题接着聊,因为我们接下来可能也需要用到就是那个提示词,你甚至你看现在甚至市面上那个招聘,甚至有一些要招,那些专门就是提示词所谓的。对对对,prompt。

说话人 2 00:14
engineer 在美国可以 30 万美金的年薪。是。

说话人 1 00:17
啊,那好夸张,你知道吗?我觉得国内应该也会有这种风气。

说话人 2 00:30
大家好,欢迎收听扩播治疗智慧的智聊天的聊。我是主持人潘天一,扩博治疗是一个有 AI 味道的访谈节目,节目背后的扩博智能虽然也是一家 AI 企业,但是我们的节目中邀请的嘉宾也好,讨论的话题与行业也好,都并不一定限于扩播智能自己服务的行业领域,所以我们的愿景是通过扩博治疗这个节目让我们的听众更广泛的了解到在不同行业中多样化的人工智能应用场景,和这些行业里有趣有故事的人。

说话人 2 01:06
如果您喜欢这一期节目,请给我们留个言或点个赞,也欢迎在各大博客与电台平台上搜索订阅并关注扩播治疗智慧的智,聊天的聊。那最近我们都知道就是这个大型远模型,随着这个 ChatGPT 的到来,还有很多这个,嗯,这种艺术生成,就比如说图像生成这种多模态的模型的这个到来,让其实让中国的这个 AI 的市场也火起来了。然后有了这个背景的话,我其实是通过一个朋友认识到了一家公司叫吉纳AI,他跟我当初说的时候,这个公司是做这种大型语言模型的,这种运营部署,各种这种英法,就底层的这种逻辑的。那么我们是今天非常有幸邀请到了吉纳 AI 公司的这个技术运营张萨,欢迎来到我们的节目。

说话人 3 02:03
hello,hello,大家好,我叫张萨,来自直男AI。

说话人 2 02:07
然后还有一个特殊点,这我们这一期的特殊点是其他 AI 也把他们这个这种社区应用的一个合作伙伴叫同和。三天,他的创始人Casey,也就是何成亥也邀请到了我们的这个节目里边,所以他们其实我们扩博治疗节目第一次有这个两家公司来参加我们的这个节目,所以我们看看怎么样?欢迎到我们节目开始。

说话人 1 02:41
唉,大家好,大家好,那个我这边我叫何哲瀚,来自同关 3 天,现在是在负责这个智能运营、智能创作和那个智能剪辑之类这些业务。

说话人 2 02:53
嗯嗯,我们这次是首次有一个这个京沪月快线,哈哈,当然我们这边代表的是库博,当然是代表沪,然后卡西安是从广州来的,然后播入在我们的这个节目里,然后我们今天有幸确实在现场跟我们吉娜的张萨,他是北京这边的过来的。嗯,今年录制完了以后就溜回去了是吧?哈哈哈,对的,所以我们一开始就会有一个嘉宾的介绍,那么我们就按照顺序,要不你张三来说一下,大概就是你怎么是,你的背景是什么?你怎么走到这个这个 AR 领域的。

说话人 3 03:31
嗯好呀好呀,我可能是 Gina 唯一一个校招生进入的。那是吧,哈哈哈,对,我是。

说话人 2 03:40
现在是什么故事?哈哈哈,给我们分享一下。

说话人 3 03:42
嗯,对,我是当时大学里面学AI,然后后面毕业之后就 gap 了一年, gap 完之后有一次很偶然的机会发现了在技术社区里面有一个活动,叫 impact chicken,是3月 8 号的一场妇女节活动。嗯,那是,也正好就是吉娜 AI 在国内办的第一场活动。嗯,刚好我就一参加那个活动以后,发现吉娜 AI 所做的方向就是我非常非常感兴趣的方向,是 AI 加搜索。那 AI 加搜索的话就有别于 elastic search 的以文搜文,它更多的是以图搜图、以文搜图、以图搜声音这种各种各样的,相当于是打通了多模态数据的搜索。我觉得这个是非常有意思,而且是非常未来的方向,于是就结识了当时我的 leader Lisa,然后我们之间有一些很有趣的对话,嗯,有一些很奇妙的化学反应,然后 Lisa 就邀请我说你要不要来我们公司来试一试,然后就很幸运的加入了g。

说话人 2 04:49
OK。那么陈汉。

说话人 1 04:52
我是之前在那个腾讯和字节实习课工作过,然后现在是出来自主创业,在这个打算在 AIGC 领域,然后这些智能的这些创作,智能媒体运营这些领域就能够做出一点成绩来,因为我的话是大学是那个软件工程毕业的,然后当时就算是比较就跟正苗红这种城市人了,然后出来然后到当然我当时算是一个是个人的技能以及我的一些就是在这方面还是挺有想法,然后也是被那个大公司的一些大佬们看中,然后我就在里面工作。

说话人 1 05:27
但后面因为我当时是在那个字节的飞书部门,然后他们的 IT 部门,然后边的话,因为我自己其实当时进了字节,因为你知道字节最有名的产品,像它的头条,它的抖音,它的这个信息流,对吧?对,我其实对这些是比较好奇的,以及那个比较感兴趣的,我甚至当时是想着说也就是做一个跳板,然后能够深入到这些大的部门里面去学习。

说话人 1 05:52
但是随着我对于他们公司的这些业务越来越深的了解,我会觉得,其实,嗯,抽包就是包拣,抽丝包拣来看,其实它好像也就那么回事,以及它里面有很多的所谓的大公司兵以及它的一些不足,但是其实它还是给了我很多正向的引导,他教会了我很多东西。这也是我后面在创业过程中所密切相关的。

说话人 1 06:14
OK,然后,对,然后随着这个 AIGC 这个浪潮,也算是因为我之前在大学时候我做过 up 主,在 b 站也做过一些这些媒体运营相关的一些工作,我觉得就是如果说能够有机的把媒体运营那个媒体制作和这个技术,对吧?那个给他结合一下,跟和 IT 这些那个高科技这些 a i 深度学习,甚至是这些跟它有机结合的话,说不定能够有更多不一样的可能性。所以。

说话人 2 06:45
是不是可以说就是虽然你的背景是软件工程,但是你更加关注或者你现在所在的这个领域是一个媒介的,就是场景。嗯,你到时候,那你到时候在字节或者在腾讯是偏技术吗?是跟 AR 有关系吗?还是。

说话人 1 07:03
也是可以说是一点关系都没有?我们是偏应用的,我们是纯IT。对。

说话人 2 07:08
OK 理解,那还是有个跨度,我觉得这里我们这个对话里边唯一真的是本行专业的是张3,他是真的是学了 AI 的。

说话人 1 07:20
是的,是的。

说话人 2 07:20
是的。OK,那我们就在这个吉纳这边的这个公司介绍来稍微看一下,就是作为一个这种现在尤其是这个大型语言模型和多模态模型开始火以后,抓到很多这种红利的这个参与者之一。那么吉娜是怎么看待你们在这个上面现在有什么比较大的打算?

说话人 3 07:43
嗯,对,我现在做一个介绍,就我们公司实际上是 2020 年成立的,然后目前公司是 60 多位成员,总部在德国柏林,差不多有一半的同事都 base 在海外,但是我们在北京和深圳都是有办公室的。然后深圳那边会比较偏研发一点,就我们一直以来三年以来都是做的是多模态的AI,虽然那个 OpenAI g p t 4 发布的时候不是说他们是多模态嘛?对,那个时候其实我们 2020 年就开始做这一块了。

说话人 3 08:16
OK,但是那一块的话,我们 2020 年的时候我们主要是偏搜索,我们围绕多模态搜索,包括文本、声音、视频等等这种多种模态的数据之间的相互搜索,打造了一套非常完整的一套 ML OPS 的一套系统,这套系统就是专门面向开发者和企业去从 0 搭建这样一个云,原生的这样的以文以图收视频的这样的系统,它就可以使用。那这套系统包括是从原型设计到开发到云上的部署,再到背后的一些模型的微调,以及云上的客观瑟琴,我们都给它做全了。

说话人 3 09:01
对这套系统的话就是我们的一套 pass 的服务。这其中我们做的比较成功的是 fine tuna plus,还有一个inference,那 fine tuner plus 的话,它就是对模型进行微调。我们可以这么一个介绍,面向听众的话,因为我们调用大模型的API,比如说我们调用 OpenAI 的API,调用 Google 的API,就很像是去饭店吃饭那个 OpenAI 和 Google 就是知名大饭店,他们灶台大火力猛,炒态的师傅功底又很强,你家里的那个然后燃气灶是很难达到这个效果的。而且你去饭店的话,你也不需要挑菜、切菜、洗菜、炒菜烧,刷锅洗碗,你的菜品质量是非常有保障的。但是你经你心里还是会觉得说他还是没有家里做的放心,他的数据和代码都跑到我的服务器那,多放心对不对?所以而且你们这个大饭店说不定有很多的添加剂、防腐剂,背地里全是科技和狠活。

说话人 3 10:06
而且 OpenAI 和 Google 都是这些做西餐的,他们会不会做中餐?会不会做湘菜粤菜,对不对?这就是我们推出 fun tuner plus 的原因,我们让这种通用的大模型转变成客户所在行业的专家,我们根据客户数据和需求,把这一类 Google 和 OpenAI 的大模型做一个定制化的微调,让它更适合的去解决客户所在行业的问题。并且微调的权重完全都是保留在客户组织的基础设施里面的,所以说以微调后的模型是完完全全属于你的,完全部署在你的企业内网,就基本上就杜绝了你数据泄露的可能性。

说话人 2 10:48
是,我还是第一次听到,就是用一个饭店的比喻去描述这种。嗯,国外的大型语言模型还蛮有还,我觉得还蛮合适。听着听着。

说话人 3 11:00
对对对,这个灵感其实是来自于我们的社区用户王德芙。

说话人 1 11:05
那个知名的社交达人。

说话人 3 11:07
对对对,嗯,OK,除了翻 tuna plus 之外, inference 也是我们做的比较成功的一个产品,它其实就是我们推出了一种云端的 API 解决方案,为了给企业和开发者提供经济又实惠的 AI 模型能力。比如奥利普模型、克利普模型可以用来去处理一些常见的 AI 任务,它就是为那些可能没有太多 AI 工程师的企业,但是想要拥在自己的应用中加入 AI 能力的这样的企业去服务的。比如说生成 embedding 的能力、视觉推理、视觉问答、图像描述生成等等常见任务,你就可以选用inference,因为 inference 给你提供的非常简易使用的一系列的 AI 模型的API,你只需要选择任务,选择模型,你就可以把这个 API 集成到你的服务里面,目前我们也是支持了不利普模型、克利普模型和各种变体。

说话人 3 12:07
对,同时它还有开源的版本,只是说开源的版本目前没有,包括 Blap 模型也目前开源的版本是克里巴service,然后在 GitHub 上也有过万的开发者的star。

说话人 2 12:22
OK,刚才我还想问一个问题,其实就是你说到那个 fine tuner 的时候,是说这个机遇模型做这个微调,那你们这边就是有哪一些基础的模型可以选?

说话人 3 12:35
范 Tun 的 plus 的话,它理论上是市面上所有的开源的、合规的大模型,可商业化的大模型我们都可以提供服务。

说话人 2 12:46
所以它是对接多个这种开源模型。然后它其实一个微调的框架就等于是你对它其实。

说话人 3 12:54
搭建这个,对我们相当于是把这个大模型的微调变成了一个流程化的服务,然后是一个可定制企业的可定制化服务。

说话人 2 13:02
OK,这个听起来还是蛮有用的,哈哈哈,而且蛮易用的,应该是,对对对,唉,那我们说到这个应用的话,就是尤其是这个推理这边的应用和这个开源加上这个社区。那么我这里想就是 cue 一下我们的这个开发者的代表陈汉,就是从你们这个角度来说,什么吸引了你们来用嗯, g 哪吒的这些产品。

说话人 1 13:29
对,这个的话就是在我看来就 g 哪在,至少在我们团队心目中就它就相当于一个驱动层,就是说比如说我们,嗯,这个电脑接了显卡或者说接了硬盘或者接了一些外设。那可能要打个驱动嘛?我们才能够真正用它。那些显卡或者说那些硬件对我们来说就是那个 AI 模型。然后基纳这一层相当于一个驱动层。对,我们通过这个驱动层我们可以访问各种各样不同的模型。对。

说话人 2 13:54
那么那么从合生天就是用这个技术来说,它最终要服务的是什么?它里面的应用场景。是啊。

说话人 1 14:01
我们的应用场景那可能会非常的业务,就比如说像智能剪辑,那我们可能用户在用户来看其实就很简单,可能就只有一个按钮,或者说只用输入输出,对吧?他直接调整一些相关的软件面板上的参数。然后他就比如说我们具体有个业务,就像那个智能剪辑,你把那个视频全部丢到我们的软件,然后软件它一键,对吧?自动它可以给你输出一个这个成片出来,然后你这个是个工程文件,或者说你的成片都可以。那你的工程文件或者是字幕你都可以丢到那个软件里面,二次编辑,它可能最终就会出来的是这样一个东西。

说话人 1 14:33
但实际上它中间的那个生成的这个工程文件的这个过程是非常的复杂的,里面可能有很多的操作,比如说如何排列它是一个最优的,以及他的那个,比如说像那个声音轨道那一层,可能有些人他念稿的时候比较磕磕巴巴的,对吧?他那个有很多那些气口,是吧?那我们可能就通过一些算法可以帮他把这些给移除,实际上就是在这个就或者是也不局限于说我们的这个业务,我们只能减这个业务,可能有其他的业务,比如说像什么啊?云生成,或者说t、 s 或其他的,其实他们其实中间在用户看来这个路径好像就很短,好像就一点一下按钮啪东西就出来了。是,但实际上它可能中间会流过很多的模型,有很多的算法,有很多的处理,然后最终才能达到用户的那个结果。

说话人 2 15:22
我觉得我们还没说到足够业务,因为这个就是一个技术点,所以我其实还蛮好奇的就是这些最终的用户,他们是什么领域的?他们是用你们产品来,他们。

说话人 1 15:34
来做是OK,他们比如说是一些代运营,或者他们是一些广告主,他们是一些素材商,OK,他们用我们东西剪出来之后,或者甚至是一些博主,对吧?嗯,有了他就通过我们的工具去缩短他们这个媒体剪辑这些创中这些内容的一个时间成本。

说话人 2 15:52
OK,有一,可以就是拿几个例子来说,就是你们的自己的客户是用你这些工具去实现了一些什么东西。我。

说话人 1 16:01
举个例子,像接下来我们有个业务,就所谓的博主代运营,OK,嗯,像我们自己那MCN,我们旗下就有很多自己的那些博主,那么他们用我们这些工具可以直接就他们可能是一些中长视频的作者,他们一个视频可能有 10 分钟、 15 分钟甚至更长,对吧?他们可能就像我们这样的一个 contact 这种闲聊,但是他要发布到短视频平台,比如什么抖音、快手或者 anyway 其他的平台,那他就需要去缩短这个时间。

说话人 1 16:24
那么通过我们的工具可以,就比如说他这个就直接把他们的这个视频的内容识别出来,比如他们那个,对吧?识语音识别卡完识别出来之后直接丢给那个GPT,然后出来一个比较短的一个文章,然后他们自己就通过我们的工具,然后一剪,唉,素材一倒,他就直接出成片直接发布到那个短视频平台,就类似这种。

说话人 2 16:46
唉,我还想我前因那个阵子自己开了一个那个网上的一个授课,嗯,然后可能我有两次录了这个,一共大概有四五 6 个小时的视频,然后我是想精简一些,这个叫精简。

说话人 1 17:02
是不是?对,比如说。

说话人 2 17:04
短视频平台上放几十几秒钟的这个东西。对对,我还。

说话人 1 17:07
在想我要不要经典语录放那些黄金时间?对对对,那。

说话人 2 17:12
其实就是说我也可以用你们的这个这个工具去把这些精简的地方找出来,是。

说话人 1 17:16
吧?对对对。

说话人 2 17:18
是的,我很好奇他是用什么原理去找这些?就是我,因为我是我,我给一点背景,我是那个,嗯,就是自己是个可能老派的,之前我在这个 AI 行业之前,因为我也是外面转进来的,我是做电影的,然后所以我自己是这种就是自己手把手操作这个剪辑软件这个背景出身的。那么所以,哈哈哈,我很怀疑就是他凭什么能找到那些很好的这些点子?他怎么去找?就是因为我是靠人这个去主观的去判断,那对他来说这个主观意识是怎么来的?

说话人 1 17:54
主观意识就这个其实我就是用到吉尔他们提供的那个,就是可以阿斯service,就相当于就是说你可以输入文字,然后去这个模型,它的实际根本的一个用途就在于就说你输入一段文字,然后去他就去看就是具体的图片,具体的视频,它到底和这个文字的相关性是多少?就这其实是多模态的一种搜索,对吧?嗯,那我们就通过结合它的这个功能,然后把它集成到我们自己的软件,然后可能对很多很多的内容进行这样两两的匹配,然后最终给它匹配出我们想要的那个效果来,那个结果来。

说话人 2 18:29
所以它中间是不是还要把我视频的那个说的这些话先转成这个文本,让文本里边去识别那些可能就是含金量高的。这个片段我。

说话人 3 18:40
其实觉得好像不是这样的,是,哈哈哈,是 clip 模型的话,它是通过文本图像对算的,所以你不需要把你的视频转录成文本,它才可以实现搜索。事实上它是直接实现了文本到图片的搜索,我们刚刚提到的去文本到视频的搜索,嗯,它实现的是将视频的关键帧抽取出来,对,就关。对于可能不了解关键帧的 1 客户用户来说,关键帧就是一段画面中最能代表这段画面的一帧,OK。

说话人 2 19:10
对,所以就是他更加像是一个搜索,你就对搜索其实蛮好奇的,这个作为一个创造者自己本身那所以就是。嗯,这种技术的话,张厂说就是你们的平台现在是提供了这种服务层面的东西,可以给,可以给这个从铜河山天或者其他的这个,但他们算是比较有代表性的。这个你们的社区成员吗?对的。

说话人 3 19:42
对的,就因为市面上其实有很多很好的 AI 模型,那你怎么让像铜河山天这样把这些模型很好的应用到自己的产品中,让自己的产品是一个非常非常有吸引力,非常让听众听了以后就觉得,哇哦,我想要我是一个创作者,那我想要更加了解一下你们的产品。嗯,能够去赋能自己的这个,不管是说快速剪辑,还是赋能自己的业务发展等等。嗯,比如说去提升我自己的,我是一个创作者,我如何用你们的产品去提升我们,用我们观众的体验。对,其实对于很多这样的应,就是很多这样的企业或者开发者来说,他们都是缺乏一个好的工具去开发这样的 AI 的能力的,就需要很多的工程师资源去开发这样的基础设施,哪怕是上线一个简单的 AI 模型,你可能也需要一些在技术上的投资,那现在我们的 ROI 又可能会卡的比较多一点。所以,嗯,没有。

说话人 1 20:44
其实是好的,这应该是要聚焦于就 ROI 这些。对,肯定是赚钱嘛,是吧?第,这是第,要维持供血,要维持一个企业正常的运转,那肯定是需要走这一步的。

说话人 3 20:55
对的,所以没有。如果你没有用 inference 的话,你可能就需要自己去招算法的工程师,招 AI 的工程师去做这些模型的部署,做模型的微调,再去把它封装成一个 API 给内部团队或者是外部团队使用,而且你需要保证你这个服务是稳定的,那你可能要去做更多的工作。那这边的话就是 Gina AI 为什么要去推出 inference 的原因。

说话人 2 21:18
嗯嗯,对,我自己就是在工作时间外做了一些爱好项目,尤其是那个现在 OpenAI 的这个模型出来以后,我就发现他的那个 API 就特别好用。哈哈哈,可能大家都是为什么现在世上有那么多这个基于ChatGPT,什么各种 chat 某某某或者什么某某某 GPT 的应用,就是因为它那个 API 实在太好用了,我也搭建了各种各样的这个聊天机器,虽然这个我搭建东西可能都是就是用来玩的,就是他没有什么真正的商业价值,但是就是因为他那么易用,所以我相信就是这个会督促很多本来可能没有这个能力的这些想做事情的人可以去做尝试。然后就是可能不像我就随便就是瞎搞,但是可能就会碰撞出一些比较有价值的这个这种应用,那,嗯,我还想稍微 follow up 一下,刚才张超你说的就是,嗯,那如果现在这个这种产品在你们的这个整个就是现在是这个开源的社区,现在这用户有多少然后有多少就你们去准备去让他就 on boarding,或者他们是不是自己就会去用这个 in France?

说话人 3 22:34
是这样,因为克里巴 service 其实是一个比较好用的产品,我觉得陈汉可能会比我说的更加有信服度一些。等会我们cue。

说话人 2 22:43
他,先让你来说可以,没问题。

说话人 3 22:46
对,没问题。然后我们目前是刚,因为我们之前的可能主要海外的社区会放在 slack 上面,然后大约是在 5000 人左右,然后也是一个比较活跃的社区。然后最近我们为了要适应这个大的浪潮,我们一开始把它迁移到 discord 上,然后大家输入 disco 的吉娜都是AI,就可以加入到我们的全球的开发者社区,那中国的社区的话就可能更多的是在微信群去沟通。

说话人 2 23:15
我还可以想问一下,就是它全球的这个社区和中国社区的这个活跃度。

说话人 3 23:22
社区的活跃度的话我觉得有一个比较大的区别是海外的开发者,他们可能更多的是觉得兴趣爱好驱动的,他们会觉得,哇,你们这个技术很酷,我想要在自己的项目里面试试看。嗯,那像中国的开发者的话,他们更多的是企业的项目的需求,有碰到自己的业务上的需求,他们在互联网上看到了我们的这个产品,能够解决他们的需求,他们才会加入到我们的社区。对,这个是一个比较。

说话人 2 23:54
必要就非常针对性的,尤其是你说那个企业的应用,我一下子就想到就是最终还是要来赚钱的嘛。哈哈,这个对,现在可以 cue 一下陈汉,你们这边是就是等于是跟着这个思路了解到的他们。

说话人 1 24:09
吗?对,是的是的,我们其实也就了解到这个曲娜,我们跟他们的这个源于那个就是刚聊到一个人物,就王德福,哈哈哈,对的社交达人。然后我当时因为看他做那个,用那个克里瓦斯 service 做那个文收图或者文收视频,然后我才真正开始了解去哪。

说话人 2 24:29
唉,这个你们多讲讲这些故事,我觉得,哈哈哈,因为我没有在这个社区里边我不太了解,就是他就是中国这个区域是一个什么样子的,就是有一些什么名人。

说话人 3 24:41
然后中国区的话就会有Simon,有的王德福等等一批名人,还有包括我们的考阿拉老师。我们来聊一聊王德福。王德福是一个非常有意思的人,他是在哔哩哔哩的人工智能小黄鸭博主,然后他为金娜做了一个视频,是,嗯,他在视频中演示了一个用文字去搜索让子弹飞电影片段的这个事例,然后在进来公众号文章里面也有出现。对,然后那个视频的话应该是有过几万的播放量,所以也为我们带来了很多吉娜的关注者。对。

说话人 2 25:26
OK,那刚才还有提到。

说话人 3 25:28
一些Simon,是吗? Simon 是给我们做了一个口红搜索引擎。

说话人 2 25:34
哦,这个是什么逻辑?哈哈哈,听起来还是蛮有用,蛮有那个有趣。

说话人 3 25:38
的。对,口红搜索引擎的话,它其实是。

说话人 1 25:41
他那个应该直男直友好吧?哈哈哈,教我们这些直男怎么去给女朋友选的品。

说话人 2 25:48
是吧?最。

说话人 1 25:49
怎么选最合适的这个口红色号?哈哈哈,我盲猜他那个应该是就肤色吧,或者说跟那个口红他可能做了一些这种。

说话人 3 26:01
Simon 的话,他就是为了解决七夕佳节给他女朋友送礼物这件事情,然后他用 Gina 的框架开发了一个口红搜索的引擎,那这个搜索引擎的话其实就是实现了,首先是识别你的肤色,然后去找到最适合你的口红的色号。另外一个它还实现了就是识纯色的识别这两个,这两样一件事情。

说话人 2 26:27
所以它的做法就是你上传一张照片,是吧?它就可以给你搭配一些这个关键词,就是你到时候去买的时候要怎么跟他们说,是吧?对。

说话人 3 26:38
他,事实上他是对他是提实现了一个,比如说你可以上传一张女明星的剧照,比如说你喜欢刘亦菲,你喜欢嗯,什么古蒂拉扎,你就可以上传这张照片,然后你去找到对应的,他会返回你对应的口红色号,然后他的一些名称还有匹配度,然后你就可以去找到那一款口红去复现它的颜色。

说话人 2 27:03
那虽然这款这个产品是在七夕,为了七夕,但是我们今天录制是5月 21 号,就在录制的前一天肯定又迎接了一大波这个浪潮,我相信,OK,小插曲。我们把这个话题再拉回来,就是我其实我们回到这个陈开这边的话,我其实还想了解,刚才我觉得我们聊的还是比较浅,就是你可以再更全面的就是讲一下你们公司,其实现在是可以用这个机会来宣传一下你们,就是你们这些就是不同的客户他分类我们现在只聊到一个这种可能自主的这些 up 属。那可能我就是对你们公司了解的话,其实还有不同其他类型的这种客户群,我们。

说话人 1 27:46
有不同的类业务线。对,我们实际上有几大业务线?我刚说那种就是那个所谓的博主代运营嘛,对,这种的就是类似于 MCN 这一条线。对,然后还有其他的像那个商业代运营,那么我们可能就会就是类似直播带货,或者说是那种就是短视频营销。这种就我们有三条,就是一个是品牌营销,然后是电商营销以及是这个本地生活营销。

说话人 1 28:09
OK,那么我们就是因为他这种他跟那个博主不一样的地方,因为博主他们关键就是要做他的那个人IP,把他那个人 IP 做响亮之后,会有很多粉丝去关注他,然后他再通过一些接商单或者说其他的一些形式,通过他就是燃烧他的自己的这个形象,然后去,嗯,就是有一些收入这种的。然后但商业代运营它的一个不同的逻辑在于,就是它是需要以那个商品为主体,或者说以服务为主体,然后去发散去讲,然后再去就是说再看具体哪一些这个垂直领域,哪一些精准的这些分层的这些人,他对某一个领域的这一类的这些商品或者服务是感兴趣的,然后我们再去找准这一类人群定位之后再对他们进行所谓的这些营销。

说话人 1 29:00
OK,然后这些产品的服务的推广。那么这一类的话,那我们可能类似于就说难听点就做那种营销号。但是其实我们跟传统的营销号不同的地方在于,就是说我们通过结合了这些 AI 或者说一些智能的这些手段之后,那么它的那个内容的质量会远远高于那些粗制滥造的,那些随机的、乱七七拼八凑、乱瞎凑的那些营销号。

说话人 1 29:25
OK,那我们可能会做的就是说更有内容一点,以及它那个包装会更精良。因为你看像我们自己的一个企业战略就在于就是说可能在未来的这些,无论是这个平台生成内容,还是用户生成内容,它一定是会符合一些规律的。就比如说像那个所谓的分类明确和我们就说的比较专业点,就是分类明确、高度集成和所谓的精致包装。

说话人 1 29:48
就举个例子就说你看就是你作为一个新用户,纯新的用户,你比如你新注册一个用账号,你在那个去浏览小红书也好,或者你去抖音、快手、 b 站各种各样的这种社交平台,它可能是图片的这种内容,也可能是视频内容,或者也可甚至是直播内容,对吧?你进去其实能看到就是说他给你推的内容都是比较整齐划一,它都是有那种就是包装过的那种内容,它才会吸引眼球,OK,那么嗯,如果说有些粗制滥造的,或者说那个不是那么好看的,实际上平台对他的那个推送也会相对就差一点这种的。然后我们的一个目标就是说,就说通过那个比较少量的这种资源,人力资源也好,或者说我们投入的这些资金资支持也好,就是我们通过最想要的资源能够说就搭建我们自己的一个信息流的一个生产流水线,OK,甚至是一种定制的那种流水线。OK,我们就说比如以前他们开那种代运营公司,那可能请一两百个人专门来做素材,专门给那一些所谓的这种工厂,或者说一些这些品牌方,对吧?给他们出很多这样的视频去投放、去营销,那么可能我们一个人就可以一天出好几条、 100 条、 1000 条,对吧?那我们空,而且那个质量还很能打,很不错。

说话人 1 31:05
那么这就是噢,我们的一些优势,当然并不是说OK,我们这个东西出来了就可以把他们淘汰掉,我觉得这个概念是不对的,就我们的一个理念就在于说就我,我们能够帮助那些代运营的那一类的人群,然后他们就是通过用我们的工具能够提高自己的效率,OK,然后能够去发挥更大的价值。

说话人 1 31:25
就这种,因为其实在我看来好像大家都就是有种感觉,就感觉说现在很多内容已经很多了,然后已经看不过来了,其实信息爆炸了就有点所谓的过饱和。但是其实站在我们角度还会发现还存在一个更深层次的问题,就是这可能平台会有一定关系,就是平,我们很多时候想真正想看到的内容其实并没有被推荐给我们,就或者说也不是,甚至是它并不是推荐那么简单,而是说可能这种内容它根本就不存在,没有被创造出来。但是我们通过我们这些工具去赋能创造之后,也许,对吧?他的那个生产力被解放了,那他就有可能说去生产一些真正能够贴合某些用户所谓千人千面的这样的一些内容出来。OK,那这也算是我们接下来的自己的一个愿景。

说话人 2 32:11
所以你们这边其实是就是它的题材,它的这种生成的内容,也未来将会用这种自动生成的方式去去转写,或者怎么就是你们的创造流程里边?

说话人 1 32:29
对,去,是的,对,没错。

说话人 2 32:33
我还我对这种短视频其实并不是那么了解,就是可能这个年代的问题有点代沟,我不怎么看。然后我就是想知道他的这个体量到底是什么样?刚才你说就比如说有个什么小代工厂,可能有 200 个人专门做素材,每个人可以对一天做 100100 多条,那么现在通过这个可能 a i 的富人,你这个一百,一个人 100 多条可以做成 1000 多条,是他能做 10 倍 100 倍的。

说话人 1 33:02
那么是的。

说话人 2 33:03
这个整个这个视频的就是虽然你说可能会有些人会感觉有点过饱和,但是就是你如果加 10 倍,加 100 倍的话,这个就我一点概念都没有,他的这个整个。

说话人 1 33:17
哦,这个你要这么想。对对,能不能给一些例子,你要这么想,这个例子我说个数据,这个数据可能 2 年前对于字节来说是一个绝密,但现在已经公开了,就是大概是 2 年前字节 TikTok 全球总用户量已经超过 10 亿了,但是OK,你知道吗?我们国人像那个我认识广西那边一个团队,他们直接入局,广西,他们联合那个什么杭州那边电商直接入局 TikTok 做那个独立站。

说话人 1 33:43
嗯,然后就发现其实我们以前在抖音玩过的很多套路都能够在 TikTok 直接用,然后有很好的效果。比如说我跟你说个最好玩的例子,就是中国不是有那种什么那个说这里有一个,那个转发一个什么菩萨或者什么什么佛陀,对吧?然后他就会保佑你什么之类的,然后他们做什么什么耶稣号,你知道吗?在国外除了转发这个视频,耶稣会保佑你。

说话人 2 34:08
直接换一个是。

说话人 1 34:09
吧?对,或者还有国内就说像QQ,就说什么这马化腾生日转发就可以,他给你发多少红包,然后国外就说马斯克生日,哈哈哈,并发多少钱转发这个 TikTok 贼好玩,你知道吗?哈哈哈哈,是,所以说其实他这个说回来就是他这个事还是挺大的,还是挺可观的。尤其是像 TikTok 这里。

说话人 3 34:29
他们的这个生成式自动化用模型去生成,包括他们的语音图像这种字幕,都是通过生成模型去生成。

说话人 1 34:41
吗?不是,有一些还是要实拍,但是我们接下来可能如果说生成式的他们这些平台,他们那些模型能够达到要求的话,我们可能会选一部分来替代进来,就直接用他们生成的内容这种的。但当然了,我们现在可能更多的还是选择去试拍,但是就是实拍完了之后,后面的后续步骤,其实很多的包装剪辑这部分都可以交给那个 AI 去做了。对。

说话人 2 35:06
唉,你们说到这个生成视频,我其实也又蛮想好奇的跳进来说几句,就是最近不是先是应该是,嗯,图像生成,就是单真的这种图像生成,像戴丽像 staple diffusion 还有midjourney,嗯在去年比较火的。然后就是去年年底就开始火了这个文本ChatGPT,那么就是当然我们好像是在去年的秋冬季也看到过几个这种paper,就是还在研发界的,就是不一定是这个这企业真的去投放,就是什么 Facebook 也那个 AI research,还有几个其他的大厂发了几个paper,就是有那种以文字生成视频,就他可能只能生成那么 10 秒或者什么,然后他的这个故事就变得就不好看了。

说话人 2 36:01
但是确实就是如果你拿这个图像的这个质量的算是一个发展,就比如说 midjourney 第一版、第二版,现在到第五版了,它这个趋势虽然这个人的手指还是画不出来,但是其他方面应该已经挺好的,那么就是一个很可怕的这种推测,这种败推就是如果你现在这个视频的质量是一个可能,你可以生成一个 10 秒钟,什么什么北极熊在大海里游泳这种一个短视频。但是后面就是你们能就是稍微往前推测一下,想想,尤其是过来可能跟陈海你的这个业务有关系,那就是你们的这个愿景,你们的 vision 是什么样?就是确实是变成,就是以后你什么东西都可以用 a i 生成,这种。

说话人 1 36:51
我们的愿景可能会更加所谓的意识形态一点,但是正向的,这是可以说的,就是我们希望能够每个人最大可能去表达自我,以最低门槛的形式就是我觉得每个人相当于就是当时那个头条那个slogan,就是说你,你还是。噢,不是,应该是那个快手的那个slogan。

说话人 1 37:08
嗯,就是每个人都有自己的这个所谓的都有自己的舞台,或者都有自己的这个,嗯,一片天地嘛,是吧?嗯,你无论是在赛博空间也好,对吧?还是在哪里?就其实我是觉得就说如果说接下来通我们这个能够发展比较成熟的话,那么我们从 b 端再转到 c 端,那甚至就是大家都可以说以比较低门槛的形式,那都可以去很自由地表达自我,而且不用去操心最终那个内容的形式会是什么样的。对,嗯。

说话人 2 37:36
你会觉得这个东西是先在企业端还是先在消费端?就是火爆起来。

说话人 1 37:41
我们目前肯定是往 ToB 方向去走,我们先在 ToB 方面去稳扎稳打,然后后边再看情况再往 c 端去转。

说话人 2 37:48
对,这是有一个就是具体的一个逻辑,是因为他一开始可能就是不是那么好。

说话人 1 37:54
是有的,因为对 c 端的话你肯定是需要很大的投入的,但 b 端的话你的这个回报周期会更快一点,以及它的变现路径也比较多。对,你也记得了那句话是什么?每个人都是自己生活导演。对,哈哈哈,是的是的是的。

说话人 2 38:12
对,这种话其实就是真的,以前可能都是很常见的。就是,但是可能真的如果能用 AI 生成的话。嗯,这个才能变成现实。

说话人 1 38:22
变现实。对,对,是的,是的,是的。

说话人 3 38:24
对前,因为我是我印象里面 4 月份的时候微软加研院就发布了一个他们的女娲模型,事实上就是刚刚您提到的用,他们是用 16 句简单的 prompt 就生成了一段 11 分钟的超长视频。哇,对,这个是以,目前是。

说话人 2 38:44
在看到。对, 11 分钟已经很厉害。

说话人 3 38:47
了。对,实现那个这个事情是已经实现了,它是一个从粗到细的一种生成过程,它是先生成,比如说 4 帧关键帧,然后在 4 帧关键帧里面再去加prompt,然后变成 16 帧, 16 帧之后变成 64 帧, 64 帧再加变成 128 帧这种方式。

说话人 2 39:08
去慢慢的拉长。

说话人 3 39:09
它。对,把它用局部的扩算模型,把这个递归的方式填充真和真之间的内容,然后去保障了它的生成效率,然后保障了它的视频的连续性,对,这个是已经实现了。

说话人 2 39:23
唉,这刚好提到一个,就是又回到一个可能偏技术一点,但是我还是稍微想聊一聊这尤其是在这个大局面上,从接纳的角度就是如果视频生成是也是一个后面比较大的一个趋势,那这个对这种算力算法来说是个什么样子的挑战?

说话人 3 39:43
确实,因为现在大模型训练是非常非常贵的,可能经常会需要几千几万个 GPU 一起去训练,现在其实已经有了很多针对大模型训练层面上一些软件框架的计算优化,但是对于硬件方面的优化是很少的。等到刚刚提到的大模型,它如果说从 ToB 变成了 ToC 的话,那 c 端对于这种延时性、并发性的要求是无上限的,所以我们可能之后我不确定,因为可能我不能敢说我们公司会不会把精力放在上面,但是我会说市面上应该会有很多公司会把精力放在优化加速、大模型的训练和推理这种并行度,还包括调度方面去跟去服务更好的这种需求。

说话人 2 40:33
对,尤其是就是刚才你提到可能训练多一点,但是我相信就是真的这个用户量大了以后能够推理部分的这个需求,也是就是应该是不次于训练的这种,因为训练你基本上不会持续的在做吗?它可能是阶段性的训练。然后现在大部分的这个像比如 OpenAI 的成本,也是因为大家都是在调用那个API,都是在进行推理,并不是那么大量的去训练,他的训练可能只是他们自己内部会去做一次这样子。对。

说话人 3 41:05
迭代。在推理方面的话,我记得前阵子有一个比较火的 get up 的项目叫 web GPU,它其实就是在浏览器上面去做这个推理的部分。而且我觉得现在也确实有越来越多的人会去研究如何在端侧,如何在云与端侧,或者是说云端结合的来做这个。

说话人 1 41:25
边缘计算。

说话人 3 41:27
对他这种。

说话人 2 41:28
很好的可以利用这个大家其实比较闲的闲置的这些显卡。

说话人 1 41:33
收集这些算力资源。对,我之前跟一个那个云服务提供商也聊过这个问题,然后他们说现在比较卡脖子,就是我们的这个上行带宽,就如果这个带宽能更高一点的话,会更有效的去利用所谓的我们这些手头上闲置的资源设备的算力,然后把结果汇总上传。对的。

说话人 2 41:50
对,最大的问题毕竟还是你要把一个巨大的模型想办法怎么传递给那个。

说话人 1 41:54
唉,这个时候所谓的尔瑞道克而瑞说不定就会派上巨大的用场。

说话人 3 42:00
对,就刚刚陈瀚提到的多可瑞其实就是我们发布的一项,嗯, GitHub 的一个Repo,那这个 rap 目前是已经捐赠给了 Linux foundation,它是一个用来去表述、传输和存储多模态数据的。有可能很多人会问,那我的这个,因为你像多,我们其实把它的定位就是作为机器学习界的pedantic,它就可以去帮助你解决在把单模态的数据变成多模态的数据去进行搜索或者生成的时候,那不同的模态之间,数据之间你如何用统一的方式去表示?你如何用规整的结构把它层层嵌套给它表示出来?到科瑞其实就是做这个作用。

说话人 1 42:50
目前还要兼容他的所谓的序列化和反序列化,他如何去解释?对对对,嗯,我看这我原来你们是已经捐献给那个组织了,因为我难怪我说最近在用那个所谓的什么 0. 32 版本还是三几版本的时候,跟原来完全不一样的,哈哈。

说话人 3 43:03
对,这个是我们的工程师把它完全重构了一遍。对,完全。

说话人 1 43:07
重构了,我看出来了。对。

说话人 2 43:09
是的,是的。嗯,所以这个就是尽量也还是离不开他自己的一个,就是基因的一个本或者本质之一,就是开源化,还是在心中。对,我觉得这是蛮好的一个,就是一个现象,就是说公企业归企业,就是赚钱还是得赚钱,但是好东西也可以拿出来给大家。

说话人 3 43:30
共享。对。

说话人 2 43:31
对对,那么今天也聊的也学习到了很多,这个也非常感谢两位嘉宾。我们这个节目的最后尾声是有个常规的这个节目的一块一个模块就是嘉宾的推荐。那么各位请给我们的听众和我,包括我自己来讲讲你们最近比较发烧一些什么东西?比较感冒的一些什么东西。

说话人 3 43:57
嗯,好,就是我最近其实比较关注于 pront 的优化,那包括最近有一个很火的 get up 的仓库,就是一 pron engineering guide,它就是说写好一个 pron 是非常非常困难的,你要精细的去打磨它。你如果去存了很多 pronter 的仓库,你囤了你也会发现有的时候就是用不上,那你在自己跟 ChatGPT 对话的时候,你就会发现,唉呦,要打那么多前因后果好费事。然后你在用 stable diffusion 的时候,你也会觉得说我的中式英语好像很难以支撑我生成一张非常令我满意的一张图片,那所以我们就基于此就开发了一个产品叫 Pron perfect,就是一款最美提示词,帮助你去拿捏这些大语大型语言模型,或者是图像文本,文本图像生成模型。那其实它也是目前世界市面上第一个提示词自动化的优化产品,它就是用 AI 去打败AI,用魔法去训练魔法。

说话人 3 45:00
目前已经支持了十多个大模型,包括 GPT 4 ChatGPT,stable,diffusion, GPT 3, d flow 等等 b 的 journey 等等这种模型。所以它是可以帮助你去把一个很普通的提示词,或者是只有几个关键字的提示词,很模糊不明的口语化的提示词去优化成一个结构良好,然后非常清晰,有条理,具有情景式的上下文铺垫的这样一个提示词,让ChatGPT,让 middle journey 给你一个更好的结果。

说话人 3 45:39
嗯,对,然后他还提供了一个,提供了几个比较有意思的功能,一个是多目标的优化,你可以根据你的需求去自定义的去选择你提示的提示优化的方向。比如说你想要质量更高的优化,你想要更短的提示词,你想要更绕开这个道德过滤器,或者是哈哈,等等。对,然后他是可以优化任何语言的提示词的,你不管是中文、蒙古语还是越南语,你都可以去进行优化。然后另外一个比较有意思的功能就是template,我们是提供了 Pronto template 这个功能,你可以去生成你的提示词模板,然后去运用到你的产品之中。因为我们的这个产品也是支持了 API 的调用,也可以无缝的集成到你的开发应用中。总的来说就是手动输入提示词是要靠运气的,但是你可以用最美提示词,靠科技。

说话人 1 46:38
可以。

说话人 2 46:39
哈哈哈,我这个之前自己好像也就是就不是没有用过你们的产品,这个用这个嘉宾推荐来推荐自己公司的产品也是很有趣的,但是我自己只是尝试做过,但是确实肯定是达不到你们的这个要求。就是我是自己瞎玩的那个机器人里边想,就是想生成一个好好看一点的什么 staple fashion 图,但是就是我也不知道怎么去提示它来做操作这个东西,肯定你们这个背后有很多这个这个高级的逻辑在里边。嗯,或者就不用给大家透露了哈。OK,那咱们。

说话人 1 47:13
陈汉我其实想接着刚那个飒姐的话题接着聊,因为我们接下来可能也需要用到就是那个提示词,你甚至你看现在甚至市面上那个招聘,甚至有一些要招那些专门就是提示词所谓的。对。

说话人 2 47:27
对对, prompt engineer 在美国可以对 30 万美金的年薪。是啊,那好。

说话人 1 47:32
夸张,你知道吗?我觉得国内应该也会有这种风气。然后我们就想着说,因为接下来像我们,尤其是那个博主运营那部分嘛,就 MC 那些,就可能比如说这个博主他是一个旅游类的博主,然后那个类那个博主可能是个探店的,然后他们做的视频的风格又不一样,那么是不是要针对他的这一些视频风格?然后比如说他很长的一个视频十几二十分钟,一个探店或种草视频,我要把它浓缩到一两分钟,那么可能就需要一个专门的提示词来帮他做到这些事情,然后使得他最终出来的那个口播的那个文稿是最优的。对,所以可能接下来也会结合这个功能。对。

说话人 2 48:04
OK,那还有你自己的那个。

说话人 1 48:05
推荐,对,我,对,我自己那个推荐,对我自己那个推荐你知道吗?就我就说 5 个字,AI、孙燕姿,对吧?这些都知道的,你知道这是谁做的吗?哈哈哈,太牛逼了。是我一个朋友,我认识他 4 年了,他带了一个团队做的他们那个团队就是他很低调,非常低调,就是我从网上就是慢慢抽丝剥茧,因为你知道怎么说,因为你知道吗?他们这个最底层的技术是用的一个叫做那个RVC,就是叫做那个什么什么re。 Retirement based. conversion 就它类似一个变声器的一个原理,就我们就是可能大家听得一头雾水,就是我们从最基础的那个语音合成来说,就那个语音合成、语音生成它实际上是有不同的路径的。就大家最广为人知的一种路径,就是像那个TTS,就像那个百度那个拍抖拍抖那种的,他就是直接你输几个字,然后他就根据你那个字去念,然后类似那种 AI 客服那比较生硬那种,这是一种是最普遍的。然后还有一种就是说它可以根据你生成内容,或者说你前就是你的这个普通人讲话,对吧?然后他根据这个声音去变音,给他变声变成另外一种声音,那这就是另外一种技术,另外的 AI 技术。然后呢?我刚说那个RVC,它就是用了这种变声器的一个功能,然后它就是可以说你只要提供这个所谓的干声,那个 vocal OK,嗯,然后直接用它的那个,你可能需要。对,然后你通过那个模型去转去推导,就能推导出相关的目标的那个用户的或者目标主播那个声音。

说话人 1 49:37
然后他,我刚说推导嘛,然后训练的话,训练其实他那个也很简单,就是你甚至只需要去用那个你需要目训练的那个目标的那个主播的声音,你可能只需要他的 1 到 2 个小时的一个干声,他唱歌的也可以,他说话的也可以。然后你就拉进去训练,然后大概训练个一个晚上左右跑,大概 100 到 150 个一 push 它就能够出来很好的效果。对,我就是用它这个,因为我自己旗下那个 MCN 有那个,就是有那个创建嘛,就所谓的这种歌姬,然后我用他们的干声去训练。

说话人 1 50:09
哇,那个效果,因为都自己人嘛,我直接让他们素材,哈哈哈,那个效果好到爆炸,你知道吗?就是我等会给你们,真的给你们听一下,真的,然后就真的跟他说,他说实现了他自己没有唱某一首歌的梦想,就之后直接可以做一个那种播放器,你知道吧?就是可以直接集成很多个模型,然后你想让谁唱你就点谁就行,哈哈,说什么?

说话人 2 50:33
你说的这个就是第二种方法,其实就有点像那个图像这边的一个风格迁移,对不对?对,它其实是它就是等于是你其实是需要一个基础的版本去驱动它,就是它不是不能从这个 0 去做,但是你只要有个这个框架,你需要。

说话人 1 50:49
一个底膜,这个底膜是你可以是你自己的声音,也可以是 t t t t s 生成的那个声音,都没有关系。然后。

说话人 2 50:57
再用那个第二层去把它转。啊,这个还有我作为这个播客的这个主播也有那么多,好几个小时了,已经十几个小时了,唉,还说。

说话人 1 51:07
那几个小时了,试一下是不是可以。

说话人 2 51:09
退休了,我自己以后也不用自己去录这个节目,哈哈。

说话人 1 51:13
噢,对,我接着说,就是其实像现在市面上有很多种,就是可以说直接从那个文字转到那个语音,也可以说是刚刚说那种变声的,可能市面上几个比较主流的,比如说什么 diff singer,然后还有那个什么什么 so v 什么 so wait,就是那个 s o v i t s。你知道吗?就像这种就是语音合成的这些开源的这些框架,无论是它推导也好还是训练模型也好,就它背后的团队都是一个,就是我认识那个团队,哈哈哈,你知道吗?你看他们打的那么不可开交,实际上都是一伙人。

说话人 2 51:46
哈哈哈哈,对,不可思议的。唉,好,我们来听一下。你刚才不是说吗?OK。

说话人 1 51:52
我给大家听一下那个音乐,哈哈哈。

说话人 2 51:55
所以你会现在你会播放两个是吧?一个是一个真人的录音,然后一个是生成。

说话人 1 51:59
出来的。对对对,是的是的,稍等哈。我,我来看一下我那个放哪里了?这个是我先放那个原声。好。

说话人 1 52:07
うん、行かないで声にならない。

说话人 2 52:11
声を気まぐれな風に預けたよ。

说话人 1 52:17
这个是目标主播的或者唱剑的那个声音,OK,然后这是变过之后的。

说话人 1 52:34
社内で声にならない声を気まぐれ。

说话人 2 52:39
な風に預けないように。

说话人 2 52:42
就是你的朋友唱,然后唱成这个效果。

说话人 1 52:46
对对对,然后他说这个的话基本上 80% 左右的相似度。对。

说话人 2 52:50
就很听起来没有什么太大差别。

说话人 3 52:53
对,这个要多大的数据量?能够就。

说话人 1 52:56
两个小时?他这个训练我用了 700 分钟。

说话人 2 53:00
那还远远多于两小时。 3 个小时了, 10 个小时。

说话人 1 53:05
了。是因为我想让它这个效果尽可能好嘛。

说话人 2 53:07
啊,确实蛮可怕的。嗯,今天好像就是,呵呵,聊的挺多的,但是接触到的新的知识好像还是不少,还是不少进,非常非常感谢我们两位的嘉宾张萨还有何成瀚。嗯,来参加我们的这个节目的分享。谢谢谢谢,谢谢。

说话人 1 53:25
谢谢天意邀请。

说话人 3 53:27
嗯,对,谢谢。

说话人 2 53:28
您。现在收听的是扩博治疗,一个有 AI 味道的访谈节目,如果您喜欢这一期节目,请给我们留个言或点个赞,也欢迎在各大博客与电台平台上搜索订约,并关注扩博智聊,智慧的智,聊天的聊。同时欢迎关注我们的微信公众号扩博智能Probabix,了解更多扩博的行业应用场景,并且收到下一期破博治疗的上线通知。


人生有無數種可能,人生有無限的精彩,人生沒有盡頭。一個人只要足夠的愛自己,尊重自己內心的聲音,就算是真正的活著。