第668章 终章 亲手帮你关上星际之门(2/2)
陈平江也难得在推特上公开兜售。
一时间吸引了大量人群试用。
谁知,这一用就停不下来了。
“上帝啊,那个中国人不是在吹牛吧?超过GPT-4o和CudeSoet3.5等顶尖模型的性能,但训练成本极低,整个训练在2048块英伟达H800GPU集群上完成,仅花费约557.6万美元?”
“这要是真的话,世界都要为之震撼。”
“糟糕,我得赶紧去卖掉英伟达的股票。”
“我试用了,不得不说体感很好,我感觉比GDP好用。”
“原来一直在嘲笑,中国的LLM不行,现在被打脸了。”
“最关键,他几是免费的,即便是调用AIP,价格也低的令人发指。”
推特上的热度越来越大,国内也是如此。
科技圈人士、网民们集体懵逼?
我只是睡了一觉,而不是睡了一年吧?
怎么一觉起来,国内的LLM大模型就这么牛逼了?
还有这个Deepseek是何方神圣?
怎么以前没听过呢?
咋冒出来的?
“AI改稿比我还6,饭碗危了!”
“开源免费,开发者狂喜!”
“中文理解力拉满!分析城市政策时,连方言梗都get到了!”
“训练成本仅为La3的1/10?难怪巨头们坐不住了…”
“感觉像是做梦,明明就在昨天我们还是很弱的,今天咋就领先了?快掐我一把。”
“你不是在做梦,外网都疯了,老美那边各家媒体都在报导。”
“用R1写短视频脚本,从选题到分镜半小时搞定,甲方爸爸狂夸‘有网感’。以前熬夜秃头,现在准时下班,它甚至比我懂B站热梗!”
“翻译外交黑话时,R1居然能结合历史事件解读潜台词!虽然知识截止到2023年,但手动喂资料后输出质量吊打某G姓模型。”
经过多年的锤炼和准备,现如今的DeepseekR1比之陈平江印象里的版本更加强悍。
一天后,苹果AppStore中国区免费榜显示DeepSeek站上首位,同时其在美区苹果AppStore免费榜也飚升至第一位,超越ChatGPT。
不仅震动了全球AI圈,还迅速引起国际社会的广泛关注和讨论。
十条热搜八条都是给Deepseek的。
英伟达高级研究科学家JiFa,在社交媒体上表示:DeepSeek是2024年度开源大语言模型领域的“最大黑马”。
DeepSeek-R1模型在数学能力基准测试中达到了80.5%的准确率,,比OpeAI的o1更高。
在编程领域的Codeforces评测中达到了2441分的水平高于96.3%的人类参与者。
开源实现弯道超车!
DeepSeekR1被讨论的焦点集中在三方面。
高性能、低训练与使用成本以及开源。
每一条拿出来对竞争对手而言都是致命的,更何况三条叠加在一起!
区别于OpeAI“海量数据投喂”的方式,DeepSeek利用算法把数据进行总结分类,经过选择性处理之后输送给大模型。在提高训练效率的同时,也降低了DeepSeek的成本。
对此,OpeAI创始成员AdrejKarpathy表示,未来或许不需要超大规模的GPU集群了!
DeepSeek-R1一跃成为开源社区HuggigFace上下载量最高的大模型,达10.9万次!
这意味着,全球的开发人员正在试图了解这一模型,以辅助他们自己的AI开发。
DeepSeek创始人梁文锋表示,开源更像一个文化行为,而非商业行为。
在颠覆性的技术面前,闭源形成的护城河是短暂的,即使OpeAI闭源,也无法阻止被别人赶超。
加州大学伯克利分校AI政策研究员RiikGupta表示,DeepSeek-R1的出现证明了“AI能力没有技术护城河”,并称中国的系统工程师,人才库比美国大得多,他们懂得如何充分利用计算资源来更高效地训练和运行模型。
Meta首席人工智能科学家杨立昆也在社交媒体表示,DeepSeek成功的最大收获是保持人工智能模型开源的价值,以便任何人都能受益,这就是开放研究和开源的力量。
为AI领域带来更多可能!
《福布斯》、《金融时报》、、BBC全部都在报导!
……
美国东部时间2025年1月2日凌晨,白房子这边依旧灯火辉煌。
国家安全顾问手中的咖啡早已凉透,桌面上散落着标注“绝密“的简报文件——每一页都印着“DeepSeek“的标志。
“他们用了不到三年时间,从追赶者变成规则破坏者。”他将平板电脑推给同事,画面定格在《纽约时报》头版:“中国AI模型成本仅为美国的1/20,开源策略动摇硅谷根基”。
此时,国会山正在上演更激烈的博弈。参议员汤姆·科顿在听证会上挥舞着DeepSeek的白皮书:“这是数字珍珠港事件!中国用我们的技术反噬我们!“
……
在Meta总部的玻璃幕墙后,杨立昆将咖啡杯重重砸在桌上。“扎克伯格先生,我们必须放弃La3的闭源路线。”他调出数据面板:过去72小时,HuggigFace上La3的下载量暴跌63%,而DeepSeek-R1的开发者社区已自发衍生出12种行业定制版本。
同一时间,OpeAI总部弥漫着诡异的沉默。
奥特曼盯着代码屏幕,上面是工程师团队连夜分析的结论:“R1的稀疏激活算法使GPU利用率提升至89%,这意味着他们用2048块H800实现了我们4096块H100的性能。”
“启动‘奥西里斯计划’。”奥特曼按下内线电话,“把GPT-5的发布时间提前到季度末,告诉微软,我们需要额外的30亿美元算力投资。”挂断电话时,他眼角瞥见办公桌上《时代》周刊的样刊,封面标题刺痛双眼:“当东方智慧遇上开源革命”。
这下真是头疼了!
即便是谷歌或者Mete整出大模型,甚至对OpeAI构成挑战,奥特曼也没如此惊慌失措过。
因为他知道大家本质上走的都是一条路。
但这一次不同,那群中国人只要精通什么,立即就会做成白菜价,继而破坏潜规则,让大家都赚不到钱。
何况,对方这次发布会的R1还远远超过GDP4。
简直是要了命!
怎么就不声不吭冒出来了呢?
……
当纳斯达克指数暴跌12%的警报声响彻交易大厅,对冲基金经理约翰逊将手机狠狠摔向落地窗。
玻璃未碎,但映出的景象更令他崩溃:他们持有的英伟达股票仓位浮亏已达43亿美元。
“做空!全部做空!”他的嘶吼淹没在彭博终端此起彼伏的警报声中。
很显然,英伟达的股票必然大跌了,这是谁也拯救不了的。
……
2025年除夕夜,陈平江站在央视跨年晚会的AR大屏前。
当零点钟声敲响时,他轻点手机,大屏幕上绽放的烟花中浮现出R1生成的祝福语——同时以32种语言呈现在全球观众眼前。
而在太平洋对岸,奥特曼在推特上突然宣布GPT-5无限期推迟发布。
某个未具名的OpeAI工程师向《华尔街日报》透露:“我们试图复现R1的算法,但发现硬件利用率每提升1%,就需要重构20%的底层架构。”
他沮丧的说道:“AI竞赛,我们输了,因为我们一开始就走错路了,过分迷恋硬件带来的优势。”
【明天更新后记,会很好看。】