黄仁勋最爱用的产品重磅升级,体验后我找到了这些细节

正挣扎在盗用内容争议中的Perplexity,「顶风」发布了最新的Prosearch功能。

图片来自:Perplexityhub

不知道是不是受到争议的影响,这次的更新技术细节不多,亮点在于能够更好地处理数学计算问题、编程任务等。

当然,作为看家本领,检索和回答的能力也得到提高,采用多步推理来解决复杂提问,并且展示每一个环节,让用户看到每一个步骤。

两个关于Prosearch的重要信息:

普通用户每四小时里可以使用5次prosearch,付费用户不限次数

为教育机构、政府机构、非盈利组织提供付费折扣

传送门👉🏻:https://www.perplexity.ai/

不过,到底有了多大提升,得试了才知道。

测试热身,考简答

为了了解Prosearch的基本使用流程,我们先从简单的生活问题开始——各地都进入了高温天气,夏天了有什么解暑方式?

Prosearch的启动键在输入框右下角,黄仁勋最爱用的产品重磅升级,体验后我找到了这些细节拨动变色,即代表开启。

开启后默认保留,即便结束了一个对话,另起一个新对话时,也默认在Prosearch模式下进行,对于不限次数的付费用户来说就很方便了。

运行后,会渐次出现Researching下拉框,这是模型的「思考工作」,完成后可以点击右边展开键查看详情。

继续点开可以看到信息来源,算是集合了不少中文信源,来源也很多样。从回答上来看算是中规中矩,「多喝水」是怎么都不会出错的方法。

考数学,本轮更新重点项目

数学计算能力是本次更新的亮点,正好Runway更新了Gen-3模型,那么就让Perplexity来计算一下:

如果购买标准套餐,在账号里已经有400积分的情况下,能用Gen-3生成多少视频?

可以看到它摆开架势,列式子,做计算。不仅成功检索到标准套餐的费用、所提供的积分数量,也能完成加法和除法。

根据它的计算,总共能用Gen-3生成102.5秒视频,如果按10秒一条的顶格条件,是十支视频。那么,换算成真金白银呢,每生成十秒的视频,要花多少钱?

这里Perplexity出现了「断片」:它能提取自己之前的计算结果,也就是102.5秒。可是,它却忘了第一轮计算时,套餐月费是按12美元/月计算的。

在这轮计算里,它错用了高级套餐,月费25美元/月,计算出0.24美元作为每秒成本。

这是个明显的失误,且不论第一轮计算时,明确指定了「标准套餐」,即便是高级套餐,有折扣的年付方式折合每月是28美元,无折扣的月付方式直接是35美元——压根没有25美元这个数字。

在追问之下,它承认自己的确搞错了价格。

考专业,深度提问

数学考试算是有惊无险吧。Perplexity一直以来主打深度,那么专业考试表现如何呢?

正好,昨天微软研究院开源了GraphRAG,也是一项用于AI搜索的技术,这不就是Perplexity的「本专业」,那么来问问它好了。

从searching这一步来看,长问题会被分解成更小的问题(相比之下,上一个简单提问里,是靠变换近义词)。

第一个信源便是微软的开源页面,很即时。回答方面,Perplexity把问题拆分成了两个小问,做了平行回答:一是GraphRAG是什么,二是它自己在用的技术。

正想着追问细节之后,这一轮的免费次数已经耗尽了,得等四小时之后的刷新。

每四小时5次免费的额度,比每24小时刷新要大方。但说多也不多,必须要思考一下,怎么提问才能最有效地表达需求。倒逼用户提高自己的提问能力,这也是AI搜索的「传统艺能」了。

总体来说,Prosearch是一个在用户体验方面更贴心的升级。

不再是僵硬的「输入提问-得到回答」,而是能看到Perplexity处理问题的步骤,怎么拆分、怎么检索,调用了哪些信源。

AI搜索的潜力股,或许是它

Perplexity在有深度、专业性强的问题上,更能体现出实力。那么,深度提问时提到的「GraphRAG」,究竟是什么呢?

RAG是Retrieval(检索),Augmented(增强),Generation(生成)的缩写,是目前主流AI检索所使用的策略,也是Perplexity自己采用的方式。

局限性体现在,它像一个缝缝补补的「内容裁缝」。

比如,在深度提问里,「GraphRAG是什么?Perplexity是如何使用RAG做检索?」这两个小问,的确可以分开回答,但两者之间显然是有关联的。

传统RAG无法捕捉到信息之间的关联,只能僵板地罗列。对于简单提问,或许无伤大雅。但在深度提问上,在把问题分解成更小的子问题之后,却没法有机地展示这些子问题之间的联系。

GraphRAG技术,就意在通过建立信息之间的联系。在接到问题、返送回答之间,多了一个步骤:建立知识图谱。

图片来自:微软研究院

人类的思考能力,体现在能够把自己所知道的、所掌握的,互相勾连,形成知识图谱。

对人工智能来说,为了做到这一点,除了要完成常规的数据提取、分割,还要完成对实体的识别、提取,并围绕实体,建立一个个「小圈子」。

「小圈子」本身的结构是自下而上,而它们之间又彼此相关,链接在一起,就能形成一个庞大的巨网。这让后续的回答生成环节,就有了更丰富的组成方式。

上图中可以看到,右边基于GraphRAG机制,能够根据具不同的主题,进行内容整合。

这岂不是意味着AI又更有「人味儿」了吗?怎么Perplexity这次更新没有用上呢?

不着急,微软研究院4月时发布对于这项技术的研究,昨天才正式开源。更重要的是,这项技术,更适用于私有数据集。

例如,知乎最新发布的大模型产品「直答AI」,就是以知乎站内回答为优先、网络内容为补充的形态,建立的数据集。

相比之下,Perplexity不想把自己局限住,而是放眼整个互联网。凭借海量数据和大模型能力,Perplexity一度是英伟达掌舵人黄仁勋最爱用的产品之一。

直到上周,Perplexity陷入版权争议,接连被福布斯、WIRED点名道姓,指控它绕过媒体门户网站的反爬机制,硬是把内容抓进自己的语料库里。

AI搜索领域,数据库「弹药充实」的确非常重要,不然OpenAI也不会接二连三地与各大媒体谈合作。

但另一方面,有效地理解、分析和使用搜集来的数据,将会起到越来越关键的作用。

归根到底,用户对AI搜索的期待,绝不仅仅是一个「更多、更快」的搜索引擎,而是「更强」。

免责声明:本网站部分内容由用户自行上传,若侵犯了您的权益,请联系我们处理,谢谢!联系QQ:2760375052

分享:

扫一扫在手机阅读、分享本文

昊熹

这家伙太懒。。。

  • 暂无未发布任何投稿。