Perplexity发布自己训练的模型

96次阅读
没有评论

Perplexity还是开始自己训练模型了,公布了自己训练的两个pplx-7b-chat 和 pplx-70b-chat模型。
主要的特点是优先保证一系列任务的智力、有用性和多功能性,而不强加道德判断或限制。

与llama-2-70b-chat相比较完全拒绝”的情况减少了22.7%,而“没有拒绝”的情况增加了31.9%。

估计是被 Open AI 和 Claude 2的各种拒绝回答搞麻了,他们做搜索和一些 Agents 功能确实比较烦这种。

同时上周Perplexity 新获得 5000 万美元融资,目前估值为 5 亿美元。风险投资公司IVP领投。
Perplexity发布自己训练的模型

正文完
 
Windows12系统管理员
版权声明:本站原创文章,由 Windows12系统管理员 2023-10-30发表,共计259字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
评论(没有评论)