4o-mini只好8B,o1也才300B!微软论文无意曝光GPT中枢隐私
微软又把OpenAI的隐私闪现了??在论文中后堂堂写着:
o1-preview约300B参数,GPT-4o约200B,GPT-4o-mini约8B……
英伟达2024年头发布B200时,就摊牌了GPT-4是1.8T MoE也即是1800B,这里微软的数字更精准,为1.76T。
除此除外,论文中给OpenAI的mini系列,Claude3.5 Sonnet也齐附上了参数,回来如下:
o1-preview约300B;o1-mini约100B
GPT-4o约200B;GPT-4o-mini约8B
Claude 3.5 Sonnet 2024-10-22版块约175B
微软我方的Phi-3-7B,这个无须约了即是7B
固然论文中后头也有免责声明:
着实数据尚未公开,这里大部分数字是预计的。
但如故有不少东谈主认为事情没这样简单。
比如为什么唯一莫得放谷歌Gemini模子的参数预计?偶然他们对放出来的数字如故有信心的。
也有东谈主认为,大无数模子齐是在英伟达GPU上驱动的,是以不错通过token生成速率来预计。
只好谷歌模子是在TPU上驱动的,是以不好预计。
况且微软也不是第一次干这事了。
23年10月,微软就在一篇论文里“无意”曝出GPT-3.5-Turbo模子的20B参数,在后续论文版块中又删除了这一信息。
就说你辱骂凡的如故不防御的?
微软这篇论文说了什么
现实上,原论文先容了一项与医学相关的benchmark——MEDEC。
12月26日就还是发布,不外是比拟垂直鸿沟的论文,可能非相关处所的东谈主齐不会看,年后才被列灯谜克网友们发现。
辩论缘由是,据好意思国医疗机构造访披露,有1/5的患者在阅读临床札记时请问发现了失实,而40%的患者认为这些失实可能影响他们的调整。
况且另一方面,LLMs(大言语模子)被越来越多的用于医学文档任务(如生成诊疗设施)。
因此,MEDEC此番有两个任务。一是识别并发现临床札记中的失实;二是还能赐与改正。
为了进行辩论,MEDEC数据集包含3848份临床文本,其中包括来自三个好意思国病院系统的488份临床札记,股民这些札记之前未被任何LLM见过。
它涵盖五种类型的失实(会诊、责罚、调整、药物调整和致病因子),这些失实类型是通过分析医学委员会检修中最常见的问题类型聘请的,并由8位医疗东谈主员参与失实标注。
而参数闪现即发生在实验表率。
按竟然验打算,辩论者将登第近期主流的大模子和小模子来参与札记识别和纠错。
而就在先容最终采选的模子时,模子参数、发布时分一下子齐被公开了。
对了,省去中间进程,这项辩论得出的论断是:Claude 3.5 Sonnet在失实符号检测方面优于其他LLM设施,得分为70.16,第二名是o1-mini。
网友:按价钱算合理
每一次,ChatGPT相关模子架构和参数闪现,齐会引起山地风云,此次也不例外。
23年10月,微软论文宣称GPT-3.5-Turbo只好20B参数的时候,就有东谈主惊奇:难怪OpenAI对开源模子这样垂危。
24年3月,英伟达说明GPT-4是1.8T MoE,而2000张B200不错在90天内完成陶冶的时候,各人认为MoE还是且仍将是大模子架构趋势。
这一次,基于微软预计的数据,网友们主要有几个柔和点:
要是Claude 3.5 Sonnet真的比GPT-4o还小, 那Anthropic团队就领有技能上风。
以及不驯服GPT-4o-mini只好8B这样小。
不外此前也有东谈主字据推理资蓝本算,4o-mini的价钱是3.5-turbo的40%,要是3.5-turbo的20B数字准确,那么4o-mini刚好是8B操纵。
不外这里的8B亦然指MoE模子的激活参数。
总之,OpenAI简略是不会公布着实数字了。
此前奥特曼搜集2024年新年愿望,终末公布的清单中还有“开源”。2025年的最新版块里,开源还是被去掉了。
论文地址:
https://arxiv.org/pdf/2412.19260