刚刚,70亿独角兽被“打假”
热搜大全 2023-11-15
跟风太严重

AI 行业真的要注意下形象:不要过度 PR,更不要撒谎。守卫真实,创业者人人有责。这是整体建议,不针对单个公司。
11 月 14 日,一位融资 4 轮的 AI 创业者向铅笔道透露:11 月 6 日,看到零一万物发布 Yi 系列大模型,问鼎多项世界第一,内心很兴奋。
零一万物由李开复(创新工场创始人)创办,成立于 2023 年 5 月 16 日,仅耗费 6 个月,就研发出 " 世界最强 " 大模型,估值超 10 亿美元(破 70 亿元)。
据 " 零一万物 " 官方公众号称,据大模型社区 Hugging Face 评测,Yi 成为全球开源大模型 " 双料冠军 ",是迄今为止唯一登顶该社区全球开源模型排行榜的国产模型。
文章称,厚积薄发的成绩仰赖于自研的 " 规模化训练试验平台 " 和超强 AI infra(基础设施)能力。

据零一万物官方公众号称,Yi 已跻身世界范围内开源最强基础模型之列
新模型出现后,引发了部分应用类公司关注,他们要着手测试:该大模型能否赋能自家产品。
但经过一周测试后,这位 AI 创业者显得比较失望。" 测试结果一言难尽。PR 做得太好,把我唬住了,没细看就让技术测试,傻乎乎的。有些耽误我们的时间。"
关于具体原因,他称:" 不算自研模型,用的是别人的神经网络框架。"
他推测,所谓的 "Yi" 系列大模型,可能是借用别人的框架做了些自己的训练,喂了不同的语料进去——更像应用工程师做的事情。" 满足适当条件后,我们团队也能做。"
其实,这件事在前一晚就传开了。
一封邮件显示,"Yi" 系列模型被提交至 Hugging Face 后,后者回复道:据我们了解,除了两个张量被重命名外,Yi 完全使用 LLama 架构。
" 张量 " 是一种核心数据结构,而 LLaMA 与 GPT 一样,都是 AIGC 的主流基础模型。
Hugging Face 称:后续会重新发布 Yi,并重新命名张量 ( 把名字改回来)。
原阿里首席 AI 科学家贾扬清也发布了一条朋友圈,大约意思是:" 上周,有某海外客户要我们帮他们适配某国内大厂新模型,我们太忙,暂时还没做。今天有朋友说,这个新模型实际就是 LLaMA,但为了表示不一样,把代码里的名字(LLaMA)换成了自己的名字。
最后他给出建议:如果就是开源的模型结构,建议就叫原来的名字,免得大家还要做一堆工作,就为了适配你们改名字。
以上信息,贾扬清并没有点名道姓,但事实细节与 Yi 确有诸多相似之处。
事发之后,AI 从业者褒贬不一。
一位 AI 创业者张化(化名)表示:" 部分价值值得肯定。Yi 虽借用了别人的框架,但从 0 开始做了训练。只是换名字确实没必要。"
另一位 AI 创业者王佳(化名)称:" 类似套壳也合理,这么短时间要做出世界最强模型,估计都得这么干,是正确做法,可以大大方方说出来,但套壳冒充原创做得不对,再多人认可也不对。"
AI 创业者张方(化名)称:" 改名有可能是程序员的锅,并非公司有意为之。"
其实,这件事的细枝末节并不重要,重要的是,它给了 AI 产业敲响一记警钟:凡 AI 参与者,应该把实事求是放在重要位置。
过度 PR 容易劳民伤财,实际收效甚微。
作为 AI 生态的老大哥,一旦有新模型出现,便是牵一发而动全身:开源社区、下游应用企业都会跟进,着手测试、适配。
如果经过 1-2 周测试后,发现模型只是新瓶装旧酒,反而徒耗精力。
"Yi 其实做的是偏应用的工作,基础大模型确实不需要那么多人研发。我生气的核心原因是:他耽误了研发同事的时间。"
自研就是自研,非自研就是非自研,本没有贵贱之分。
据科技部报告称,中国研发的大模型数量全球第二,10 亿参数规模以上的大模型已发布 79 个。这里的 " 大模型 " 并非全指 " 自研大模型 ",也包含许多类似 Yi 的非自研模型。
铅笔道此前曾有报道,自研大模型难度很大,单次训练成本高达 100 万美元。而结合 GPT 的自研历程,一个脱颖而出的世界最强模型,至少需要 7 年以上。
国内的 AI 产业还是跟风太严重。
2022 年 11 月前 ChatGPT 没火的时候,只有极少数公司专注大模型,比如清华大学智源研究院。2022 年 11 月后,很多 AI 公司就一拥而上,争先要做国产大模型。
也就是不到 10 个月的时间里,一批企业纷纷宣布推出大模型,并且各自宣称其领先性。" 几个月就自研大模型 " 这种荒谬事,竟然在国内 AI 产业风起云涌,并有前赴后继之势。
铅笔道对此现象嗤之以鼻。
AI 创业者张方(化名)表示,国内真正的自研大模型很少,根据他的测试结果,只有 GLM(智谱 AI 发布)、BAT(百度 / 阿里 / 腾讯)、百川(搜狗创始人王小川研发)等符合。
创新创业应坚守 " 实事求是 " 文化,守护真实,人人有责。