GPT 4o-mini 参数量可能只有8B,微软论文透露GPT4系列参数量
自GPT4以来,OpenAI不再公布GPT系列模型的参数量,然而这并不能阻止人们对这一系列模型技术细节的好奇。
微软发表在arxiv中的一篇论文MEDEC: A BENCHMARK FOR MEDICAL ERROR DETECTION AND CORRECTION IN CLINICAL NOTES中透露了OpenAI闭源模型的参数量。其中包括几个不同版本的GPT-4模型:
GPT o1-preview约300B参数,GPT-4o约200B,GPT-4o-mini约8B
另外还有o1 mini 和 o1 preview 版本,分别拥有约100B和300B参数。
不过该论文也提到多个LLMs(例如GPT、Gemini 2.0 Flash)的具体参数数量尚未公开。大多数参数的数量都是估计的,以便为理解模型的性能提供更多背景。也就是说这个数据可能并不真实。不过就编者的经验和这些模型的具体表现来看,这个数据较为可信。