OpenAI 发表GPT-4 模型API,支持图像辨识!全新9 大特色一次了解

131次阅读
没有评论

借ChatGPT 掀起人工智能(AI)应用热潮的OpenAI 发布了最新作品——GPT-4。得到这种新模型支持的ChatGPT 将迎来升级。

美东时间3 月14 日周二,OpenAI 宣布,推出大型的多模态模型GPT-4,称它可以接收图像和文本输入,输出文本,「比以往任何更具创造性和协作性」,并且「由于它有更广泛的常识和解决问题的能力,可以更准确地解决难题。」

OpenAI 表示,已经与多家公司合作,要将GPT-4 结合到他们的产品中,包括Duolingo、Stripe 和Khan Academy。GPT-4 模型也将以API 的形式,提供给付费版ChatGPT Plus 的订阅用户。开发者可以注册,用它打造应用。

微软:GPT-4 将上线Bing

微软此后表示,新款的Bing 搜索引擎将运行于GPT-4 系统之上。

GPT-4 全称生成式预训练转换器4。它的两位「前辈」GPT-3 和GPT3.5 分别用于创造Dall-E 和ChatGPT,都吸引了公众关注,刺激其他科技公司大力投入AI 应用领域。

OpenAI:比前版准确度高上40%

OpenAI 介绍,相比支持ChatGPT 的前代GPT-3.5,GPT-4 和用户的对话只有微妙的差别,但在面对更覆杂的任务时,两者的差异更为明显。

在我们的内部评估中,它产生正确回应的可能性比GPT-3.5 高40%。

OpenAI 还称,GPT-4 参加了多种基准考试测试,包括美国律师资格考试Uniform Bar Exam、法学院入学考试LSAT、「美国高考」SAT 数学部分和证据性阅读与写作部分的考试,在这些测试中,它的得分高于88% 的应试者。

可解读图片、影片?

上周,微软德国的首席技术官(CTO)Andreas Braun 在德国出席一个AI 活动时透露,本周将发布多模态的系统GPT-4,它「将提供截然不同的可能性,比如影片」。这让外界猜测,GPT-4 应该能让用户将文本转换为视频,因为他说该系统将是多模态的,也就在暗示,不仅能生成文本,还会有其他媒介。

本周二OpenAI 介绍的GPT-4 的确是多模态的,但它能融合的媒介没有一些人预测的多。OpenAI 表示,GPT-4 能同时解析文本和图像,所以能解读更覆杂的输入内容。

在下面的示例中,我们可以看到GPT-4 系统如何应答图像输入内容,比如像以下截图那样解释图片的不同寻常之处、图片的幽默之处、一个搞怪图片的用意。

OpenAI 发表GPT-4 模型API,支持图像辨识!全新9 大特色一次了解

OpenAI 发表GPT-4 模型API,支持图像辨识!全新9 大特色一次了解

OpenAI 发表GPT-4 模型API,支持图像辨识!全新9 大特色一次了解

正文完
 
Windows12系统管理员
版权声明:本站原创文章,由 Windows12系统管理员 2023-03-15发表,共计973字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
评论(没有评论)