微软正准备发布第四代大型语言模型 (LLM) GPT-4,它将比其前身 GPT-3.5 更先进,能够更好地理解自然语言。这家科技巨头计划在即将举行的名为 AI in Focus – Digital Kickoff 的活动中公布该模型。
微软德国首席技术官 Andreas Braun 根据 Windows Central 证实了 GPT-4 的发布,暗示新模型将带来令人兴奋的新功能。GPT-4 最显着的特征之一是多模式,这将使机器能够跨不同模式(例如音频、视觉和文本)处理和解释信息。
“我们将在下周推出 GPT-4,我们拥有多模态模型,将提供完全不同的可能性——例如,视频,”布劳恩被引述说。
GPT-4 的另一个令人兴奋的功能是它能够根据简单的文本提示创建 AI 生成的视频。这种能力将扩大 LLM 可以创建的内容范围,并可能彻底改变各个行业的视频制作。
虽然 GPT-3.5 为流行的对话式 AI 工具 ChatGPT 提供支持,但其局限性将其限制为基于文本的响应。然而,GPT-4 的多模式模型可以改变这一点,并为更复杂和多样化的内容铺平道路。
在相关新闻中,ChatGPT 与微软 Bing 搜索引擎的整合促进了该引擎的增长,帮助其达到了超过 1 亿的每日活跃用户。每天大约三分之一的 Bing 预览用户每天使用 AI 聊天。虽然谷歌搜索每天有超过 10 亿的活跃用户,但 Bing 的增长仍然令人印象深刻,它对 AI 聊天的使用为其成功做出了重大贡献。
正文完