全球人工智能领域初期追求构建庞大模型,旨在通过海量数据训练模拟人类智能。但现状显示,众多科技企业及初创公司正转向开发小型或中型语言模型,它们更为精简、高效且专注于特定任务。这些模型相较于诸如OpenAI的GPT-4等大型语言模型,不仅训练成本大幅降低至千万美元以下,参数规模减至百亿以下,还因减少算力需求而降低了每次查询的成本。
微软正积极推广其轻量级AI模型系列“Phi”,这些模型体积虽仅为ChatGPT的百分之一,却能以相近效能完成多种任务。微软首席商务官Yusuf Mehdi指出,未来AI领域或将由不同规模模型共存。鉴于高昂运维成本,微软已着手在新产品中集成占用资源极少的AI模型,实现终端设备上的即时应用,无需依赖云数据中心。
谷歌、Mistral、Anthropic、Cohere等企业,以及苹果,均在今年展示了向小型模型的转变趋势,旨在实现手机等设备上的快速、便捷及安全运行。OpenAI虽曾引领大型模型风潮,但也发布了运营成本更低的GPT-4o,并对后续推出更小模型持开放态度。
对于许多日常任务,大型语言模型的使用被比喻为“用坦克买菜”,显得过于昂贵和不切实际。因此,在生成式AI技术回报尚不明朗的当下,业界积极探索经济高效的AI解决方案。小型模型通过微调,能在特定任务上媲美大型模型,同时大幅削减成本,成为AI发展的新前沿。
企业界亦逐渐采纳小型模型,如益百利将其AI聊天机器人由大转小,实现了成本效益与性能的平衡。Salesforce指出小模型在速度上的优势,认为它们更适合实际应用需求。随着大型模型迭代放缓,对小型模型的关注与投资进一步增加,标志着AI正从概念展示过渡到注重实用性和效率的商业实践阶段。尽管如此,大型语言模型并未被完全摒弃,苹果和微软等仍在特定产品中融入OpenAI技术,但显现出在AI战略中寻求多元化和灵活性的趋势。