2024-04-10 13:12

OpenAI让开发者可以使用GPT-4 Turbo with Vision来解锁新的AI应用程序

OpenAI最著名的是其先进的大型语言模型(llm),用于支持一些最流行的人工智能聊天机器人,如ChatGPT和Copilot。通过释放一系列新的视觉应用程序,多模式模型可以将聊天机器人的功能提升到新的高度,OpenAI刚刚为开发人员提供了一个。

本周二,OpenAI在Twitter上发布消息称,具有视觉功能的最新GPT-4 Turbo模型GPT-4 Turbo现已通过OpenAI API向开发者开放。

这款最新型号从2023年12月起保持了GPT-4 Turbo的128,000令牌窗口和知识截止。主要区别在于它的视觉能力,这使得它能够理解图像和视觉内容。

在GPT-4 Turbo with Vision问世之前,开发人员必须为文本和图像调用不同的模型。现在,开发人员只需调用一个可以同时完成这两项工作的模型,从而简化了流程,并为广泛的用例打开了大门。

OpenAI分享了开发人员已经在使用该模型的一些方法,这些方法非常吸引人。

例如,人工智能软件工程助理Devin利用GPT-4 Turbo with Vision更好地协助编码。健康和健身应用Healthify使用GPT-4 Turbo with Vision扫描用户的膳食照片,并通过照片识别提供营养见解。最后,Make Real使用GPT-4 Turbo与Vision将用户的图纸转换为工作网站。

虽然GPT-4 Turbo with Vision模型尚未在ChatGPT内部或向公众开放,但OpenAI表示,它将很快在ChatGPT中可用。如果您是一名希望开始使用OpenAI的GPT-4 Turbo与Vision API的开发人员,您可以在这里学习如何开始。

相关推荐