2024-04-24 13:56

微软推出了AI模型Phi-3 Mini,体积更小,但仍可与GPT-3.5相媲美

尽管科技公司正在竞相构建更大、更好的人工智能模型,但较小的模型仍有很大的价值。微软在这一概念上加倍下注。

微软周二发布了phil -3 Mini,这是该公司表示将在未来几个月内推出的三款小型机型中的第一款。微软用38亿个参数或变量训练了Phi-3 Mini,人工智能模型使用这些参数或变量来提供更好的结果。phil -3 Mini是微软计划推出的三款机型中最小的一款。该公司并没有具体说明何时可以使用Phi-3 Small(将使用70亿个参数进行训练)或Phi-3 Medium(将使用140亿个参数进行训练)。

为了更好地理解这些参数,一些报告表明,OpenAI的GPT-4 Turbo接受了超过1万亿个参数的训练。上周,meta表示,当其最终的羊驼3模型在2024年晚些时候发射时,它将接受7000亿个参数的训练。

一个模型接受的参数越多,它就越有能力交付用户想要的结果,但这是有代价的。一个人工智能模型拥有的参数越多,它就需要更多的能量来实现结果。虽然对于复杂的查询或关键任务的人工智能实现(如医疗保健领域),更多的参数可能是最好的,但情况并非总是如此。

事实上,像微软正在开发的这种小型号的手机,非常适合智能手机和其他低功耗设备。微软可以在移动设备上使用Phi-3,因为设备上的人工智能性能受到芯片组功率和电池寿命的限制。

微软称,尽管体积更小,但Phi-3 Mini的性能却很好。在接受The Verge的采访时,该公司表示,Phi-3 Mini的性能与微软使用的参数数量的10倍以上的模型相同,尽管它无法与GPT-4或GPT-4 Turbo相提并论,但它的能力与GPT-3.5一样强。

微软对The Verge网站表示,该公司对Phi-3 Mini进行了包括儿童书籍在内的“课程”培训,以实现这一性能。该公司还使用了一个更大的模型来制作人工智能生成的儿童书籍,以补充其现实世界的材料。

微软将在其Azure云平台、模型协作网站hugs Face和人工智能模型服务Ollama上免费提供Phi-3 Mini。

相关推荐