过去一年,大模型能力的发展速度超出我们预期。以衡量LLM的常用的多语言理解均值评测标准(MMLU)为例,2021年底全球最先进大模型的MMLU 5-shot得分刚达到60%,2022年底超过70%,而2023年底已提升至超过85%。在语言能力之外,AI大模型的多模态能力也快速提升。2023年初,主流闭源大模型通常为纯文本的LLM。2023年至今,闭源模型的多模态能力具有大幅度提升,目前主流闭源大模型通常具备图像理解、图像生成能力。部分最前沿的闭源大模型,例如GPT-4o、谷歌Gemini,支持的模态更加多元,能够理解文本、图像、音频、视频(帧),并生成文本、图像、音频。2022年9月,红杉资本预计还需要近十年的时间,大模型才能实现实习生级别的代码生成、好莱坞质量的视频和区别于机械声的人类质量语音,但是实际进展远超当时预期,Sora已经能够生成60s的高质量视频,GPT-4o和谷歌Gemini都已经能够实现具备感情的实时人机语音交互。