[size=14.6667px]举例来说,力是合作还是竞争?”时,回答引擎可能会引用动物进化中关于合作和竞争的内容。同时,作者认为研究结果并不能完全评估回答引擎的效果,因为研究聚焦在回答引擎结果的可验证性,而不是实用性,重点在引用值得二次验证以及引用准确,假设了用户要基于生成的结果,用引用去二次验证搜索结果。然而,用户期待的理应是无需二次验证,直接获得答案,而这种期待往往会落空,因为回答引擎善于总结,不善于缝合。 对于绝大多数事实类的问题,Perplexity AI 的表现非常好,可以做到无需外部链接即可完成搜索目标,如搜索 OpenAI Dev Day 更新,SpaceX 火箭发射情况,塞尔达传说某神庙攻略等。[size=14.6667px]
[size=14.6667px]这类问题的特点是,如果用传统的搜索方式,通常打开单个网页即可得到答案,回答引擎则参考多个信源,总结出最重要的信息,缩短称述。 但有时候,生成的结果也会给人一种看起来很有道理,但是没什么用的感觉。没有找到真正有用的信息的原因 澳大利亚 WhatsApp 号码数据[size=14.6667px] 可能在于这部分信息密度极低,即便是 AI 读取全部数据也无法高效地抽取精华。那些经常被提及的东西,也更有可能是 AI 认为重要且最先习得的东西。如果那目前 transfomer 的自回归模型来看似乎也符合逻辑,经常出现的高频信息会提高被预测为下一个词的概率。「当 Perplexity 给出的答案,没有比我已知的内容更有意义时,Perplexity 表现得像是找不到答案或者答案根本不存在,但在 Google 上搜索时,我还是能在第一页中找到一些我真正想要的,更深层次的东西」。
[size=14.6667px]