如何看待开源模型DeepSeek综合性能吊打Openai?
如题。
- 290 个点赞 👍被审核的答案
查看全文>>
艾弗瑞 - 361 个点赞 👍
**《回来吧,我的哈耶克》**
——在集体主义迷雾中呼唤自由的火种
---
### **一、哈耶克的遗产:自由秩序的灯塔**
弗里德里希·哈耶克(Friedrich Hayek,1899-1992)是20世纪最伟大的自由主义者之一,他以“自发秩序”理论为核心,揭示了市场经济的本质是无数个体通过价格信号与分散知识协调形成的动态系统,而非人为设计的产物。他的《通往奴役之路》(1944)预言了中央计划经济的致命后果,指出任何试图用理性设计取代自发演化的制度,终将导向极权与自由的丧失。
哈耶克的贡献不仅限于经济学。他在《感觉的秩序》(1952)中探讨了认知科学与神经网络的哲学基础,提出人类心智的局限性是自由市场存在的必然前提。他强调法治的至高地位,认为“自由是服从抽象规则,而非具体目标”。这种思想穿透了经济学、法学与政治哲学的边界,成为对抗全能主义的思想利刃。
---
### **二、当代困境:哈耶克预言的幽灵重现**
在21世纪的今天,哈耶克的警告正以新的形式应验:
1. **数字极权的崛起**:算法
查看全文>>
炭翁 - 209 个点赞 👍
下载使用之前:
中国再次盈麻了!
突破了西方的ai封锁,一举打败了open Ai,英伟达注定昙花一现!
下载使用之后:
擦,那玩意还不如文心一言!又是套壳吹成了自研真是厉害啊!
查看全文>>
餐饮新纪元 - 149 个点赞 👍
论性能吊打不至于,刷榜的评分互有一点优劣,目前我的体验是,英文技术科研o1要好一点,中文和小推理,deepseek要好一点。
但是deepseek开源这件事情是真让硅谷一众顶级团队吓腿软,openAI自gpt3.5开始闭源,他们的逻辑是:这个成果非常领先,我们花了极大精力和成本,短期内我不确定还能继续提升,从今开始我要闭源,围绕它建立一个商业帝国。
deepseek开源的逻辑是:这个成果还行,但没能领先竞争对手,而且也没花多少钱,估计其他家很快能搞出来,护城河不高,我还有更大的杀手锏,这个版本就开源放出来给大家用。
作为一个二级市场做量化的基金,闭源卖LLM api赚不了几个钱,还是通过开源,给世界巨头造成一点点股价波动赚的多哇。
查看全文>>
黄翔 - 113 个点赞 👍
六代机被称为空中姜萍,DeepSeek被称为姜萍大模型,思之令人发笑。国足之所以没有遥遥领先是因为真的要去参加比赛。
查看全文>>
南越武王赵佗 - 96 个点赞 👍
怪了,以前国外ai出的时候,知乎标题都是什么吊打写手、代替画师、碾压作曲家歌手,什么文科艺术类逻辑性差活该被代替,什么第n次工业革命,什么抵制ai的都是砸纺织机,什么时代的车轮滚滚向前。
怎么这次国内ai出来,知乎反倒变腼腆了,也不跟别的行业较劲了,开的所有问题都是跟国外ai行业的产品比,不拿出去跟人类比了?
是不自信啊,还是这次有甲方要求不许拉仇恨啊?还是想跟以前的ai拥趸正义切割显得你们不是一路人啊?
我还是喜欢你们桀骜不驯对其他行业指手画脚的样子。
查看全文>>
画画的花噎菜 - 80 个点赞 👍
推特上已经开始有各种人否认了
他们觉得不可能$6M训出frontier model。
一定是阿共的阴谋,集中10w 走私来的gpu,全给ds用,然后故意说只花了$6M
目的是让美国大公司更难论证为什么像llama3 405B和grok 2这么垃圾的模型用了15倍的算力,然后融不到资
懂行的都知道这多好笑,但推特上这么说的人越来越多
这波是21世纪sputnik时刻,老美真破防了
话术2:
“R1是用o1的cot数据训出来的,这是抄袭偷窃!”
答:o1的cot从来没公开…
这人还教授呢,不知道怎么评价
更多话术1:
deepseek是阿共控制的,低价是假的,API这么便宜是拿了补贴
查看全文>>
Ryan - 75 个点赞 👍
确实写得好,感觉比玩梗人改词写得还好点,太伟大了哈耶克哈姆哈贝贝。
以下是AI写的凯恩斯哈耶克史同文
(以下为虚构创作,结合史料与文学想象,引用资料见文末)
---
### **《货币与玫瑰》**
**——哈耶克与凯恩斯:在自由与干预的深渊边缘相爱**
---
#### **第一章 伦敦的雨与未完成的辩论**
1931年的伦敦,铅灰色的云层压着泰晤士河。哈耶克站在国王学院的回廊下,指尖摩挲着《货币论》的扉页。凯恩斯的字迹潦草如刀锋,在扉页题词处写着:“致弗里茨,愿你的自由永不迷途。”
“迷途的是你。”他低声自语,雨水顺着石阶蜿蜒成一道裂痕,像极了他们之间那道名为“市场理性”的鸿沟。
三周前,他在《经济学人》上发表了对《货币论》的批判,言辞如手术刀般精准,却在结尾添了一句:“你依然是我见过最接近真理的人。”凯恩斯回信时夹了一支风干的玫瑰,信纸上是飞扬的拉丁文箴言——“Amicus Plato, sed magis amica veritas(吾爱吾师,吾更爱真理)”。
那支玫瑰被哈耶克夹进《纯粹资本理
查看全文>>
一元 - 70 个点赞 👍
谈不上吊打,但是的确是极越造车的小米时刻了。
小米入场造车之前,国内哪家新能源厂商不说造车需要千亿投入,两千亿投入,而且要持续投入持续烧钱,钱少了,这个游戏都没法玩。
很多很多的大资金都被这个游戏吓退了,百度这样的玩家才敢咬着牙投出一个极越。
然后雷军说,我准备了一千亿,失败了就算了,杀进造车业。
结果一百亿就搞出了小米汽车,拥有了厂房产线,还卖的很火。
那投资人回过头来就要问了,小米一百亿做的那么好,我投的几百亿烧到哪去了?
烧钱的泡泡戳破了,大家才发现原来中国也有自己的史密斯专员啊,一个个贪污犯躲在水下大捞特捞,捞的百度直接极越不要了认栽出局。
现在这个时刻来到ai了。
chatgpt可是光微软就投资了100亿美元的,
从sora难产,大家就嘀咕了,你这是不是在讲故事,而且还快讲不出来了?
现在幻方基金,一个搞投资的,自己掏了500万美元,搞了两千张美国都不屑制裁的H800中国特供卡,弄了个和你chatgpt差不多的ai大模型,
那你chatgpt几百亿美元花到哪去了?该不会又是史密斯专员发威了
查看全文>>
星澜海 - 65 个点赞 👍
当我让他模仿出师表激励解放军。
它写出盖追先烈之殊勋,欲报之于人民也
。。。
三研智略,键盘可作金戈舞;
。。。
我确认他对汉语的构建能力绝对不一般,而且绝对是中国人自己的技术。
查看全文>>
金玉木火 - 63 个点赞 👍
吊打这种词,体现了无知狂妄,“综合性能”,那你就要比较各种能力,最基础的文生文,进阶的图生文,高级的文生图,再高级的文+图生文,再高级的包括视频语音交流…..
DeepSeek,在基础能力文生文效果还可以。高级的能力,还不具备,“吊打”,“综合能力” 一词,纯属无知引战。
当谈一个人综合素质,你就应该比较德智体美,当谈一个人综合考试能力,那就应该语数外英理化生,当谈一个城市综合实力,就应该GDP,科技,文化,教育,医疗…..
合着一群人,嘴嗨的时候,我综合能力吊打,现在你问他,能不能对图像理解,能不能生成图像,他又说,你比综合能力干嘛?
但目前还不具备多模态,特别是目前大热门的,具身智能,在机器人领域多模态至关重要,AGI肯定是需要对图像进行理解,就先等等吧。
很多人给我说多模态不重要,这个问题本身就说的“综合性能”,你又要比综合,比不过综合又不比综合,九漏鱼请尽快完成学业。
AI看世界,不重要,那好,以后你每天闭着眼睛走路,体验一下,所谓的不重要
AI 说话交流不重要,那你以后出门别说话了
查看全文>>
弗雷尔卓德 - 58 个点赞 👍
没想到ai这块都出现后发优势了,前人试错,后人低成本开源。
地狱笑话的一面:deepseek是个在缅a割韭菜的幻方量化基金公司搞的,准备在缅a割韭菜用的。投资缅a才是爱国,帮助国内ai发展。
DeepSeek发展离不开各位韭菜股民和基民,投资缅a的爱国韭菜们是东大ai发展的出资人。
查看全文>>
小丑竟是我自己 - 49 个点赞 👍
说一个搞笑的事情。
Nature不是有个自然指数吗?这个指数中国已经占据了绝对优势。结果最近Nature又排了一个全球AI领域前一百所大学。而且列表的名称也用的自然指数,试图鱼目混珠,让人们把这个AI排行当成自然指数那个科研贡献率排行。
在这个AI列表里美国占据了绝对优势地位。前十有七个,前二十有十四个,前五十有二十九个。相比之下,中国就惨了,清华进前十,北大前二十。前五十只有九个。不知道的还以为中国AI早就又落后了。
哎,你还别说,一直就有人言之凿凿说中国的AI研究落后了。
话说他们大概不知道,现在中国高校在自然指数排行中占据绝对优势,是在英国方面多次修改算法以后还没压住的情况下实现的。
有些人不会真的以为自然指数是公正的吧?
不会吧?现在还有人相信盎撒子的诚实?这个AI排名直接写自然指数,本来就是故意混淆用的。一出手就知道包藏祸心。一眼假的东西,还真有人信啊?
AI排名展示了他们的私心。证明他们是压都没压住。所以我国在他们那个全球科研贡献率排名中确定绝对优势才显得更有威力。
这个AI排名得
查看全文>>
风大 可稍息否 - 38 个点赞 👍
别谈吊不吊,即使吊打了,也没有意义。
国产模型处于一种“有性能,无功能”的状态,“毛坯房模型”,后训练非常差。
无功能,就是无效率。
无论DeepSeek,Qwen基模如何,你最终还是要用ChatGPT和Claude。你会被提示词优化折腾到放弃,而且有很多东西,后训练没有加进去的东西,提示词是提不出来的。国内有顶级做预训练的,但没有做后训练的人才,把握不了微妙细腻感。
况且中间还加着一个Gemini,不尴不尬的。
“毛坯房模型”对于开源社区是有意义的,但对一般用户没啥意义。——我们真的只在用ChatGPT和Claude的基础性能么?
不过,还是很喜欢Deepseek和Qwen,至少在基础上已经不错了。
查看全文>>
Trisimo崔思莫 - 33 个点赞 👍
我先来,说殖子的话,让殖子无话可说。
查看全文>>
郁州司马 - 31 个点赞 👍
吊打这种引战用词就算了
现在的问题是D模型给美国人出了个难题
通过坚持不懈的念经
Ai已经被等同于llm了 阳谋劝退穷批研究者而所有研究者都是穷批——在这个算力成本面前
然后
我算力硬件制裁
听起来多么顺耳
现在D模型用俩月 用囤积的两千块破卡 追到头部模型水平 它威胁的就不是openai那么简单了
2000年那会儿互联网泡沫破灭是思科路由器题材破灭引发的
这波Ai泡沫何其相似
两千块破卡俩月搞出个这 意味着就这两千块破卡 人类数据不够它吃半年的 那个模型 就是llm终章了
卖的是预期 一旦看到天花板了 卖铲子的股价瞬间会死
美国今天的股价 离开Ai题材你指望她老老实实在高位守寡挺得住吗?
至于openai 已经开始说胡话了
你不靠大取胜了? 一根筋变两头堵?
那你这个定价法理基础是什么啊?
这能稳住投资方恐慌吗
查看全文>>
摆渡 - 31 个点赞 👍
一般开源的就算再烂我也不喷,但是干吗非得踩一脚OpenAI?
扒别人的数据做训练,手脚不干净也就算了,还吹自己训练成本低,有点过分了。
OpenAI的成本里还包括标注数据,deepseek直接薅过来就用,那成本能不低吗?
郑荣南 人人共享:ChatGPT走红的背后是一群时薪2美元的肯尼亚劳工?总有人说OpenAI的数据也是别人的,说的好像写个爬虫去爬一下全球网站数据就到手了一样。
清洗数据、标注数据,这些都要人工来干的,完全就是赛博农民工。
还有人说deepseek的数据是请了北大文史专业的人来标注的,但凡去下个Boss直聘,然后搜索“数据标注”,看一下这行的工资,就不会说出这么离谱的话了。而且这种数据标注工作完全是重复劳动!
查看全文>>
火风啸 - 30 个点赞 👍
昨天本来打算下班回家研究下deepseek的,但是下班之前我就刷到100条+营销号吹deepseek,我就知道没啥好研究的了,过一个月再看看吧
查看全文>>
Vergil - 28 个点赞 👍
想起来无私而伟大的拥有崇高民主党党性的土五老师说过的一句话……
这样的模型美国花这么多钱才搞出来,有可能是人种问题而不是制度问题(?
查看全文>>
无符号整型 - 25 个点赞 👍
看了一些硅谷匿名论坛上的吐槽。
很多人破防。自我安慰说中国只适合降价复制云云。
很典的评论是:
500万训练费用,还比不上一个学术大咖一年的工资。而这样的大咖在meta谷歌微软那种大厂,每家都至少有几十个。
ai领域大规模降薪潮和裁员潮应该快来了。。。。。。
应该也会波及国内,毕竟能有可见产出的算法工程师真的不太多。。。。。。
短期,算法工程师职位会比较惨。
长期,ai必然是第四次工业革命的核心。
大家加油。
我真心感谢deepseek,因为不堆算力才是人工智能正确的突破方向。deepseek终于把这股歪风邪气纠正了。
而且是真开源。我一个外人看的胆战心惊。
这些大模型,在赛博世界的威力未必低于现实世界的核弹,就真的这么开源了。真的胆子大。有魄力!
查看全文>>
王宇 - 25 个点赞 👍
deepseek不是多模态,读图不行,生成图不行;看视频不行,生成视频不行,何来综合性能?
比如chatgpt是个百科全书,单单纯比编程是不如cursor的。哪怕这样,有时候一些编程问题chatgpt也比cursor好。
deepseek有一定的后发优势,那些测试标准的数据集都是公开的,拿个高分不难。但用户使用的时候,输入的内容天马行空,就难以招架了。
查看全文>>
babyquant - 24 个点赞 👍
快别吹了快别吹了,这两天deepseek都快被全球各地蜂拥而来的用户X爆了。
之前愉快的坐而论道,现在对面不停要去上厕所,活脱脱一个时间管理大师。
你们不要动我女朋友啊!
你们能不能温柔一点,我好心疼啊!
查看全文>>
Dr.张狒狒 - 22 个点赞 👍
deepseek最有意思的地方在于,它会完整展现自己的思考过程,分别尝试了古文仿写、猜灯谜和日文翻译。
先让它模仿《小石潭记》,写一篇《玄武湖记》,它的思路是:
好的,用户让我仿照《小石潭记》写一篇玄武湖游记。首先,我需要回忆一下《小石潭记》的特点。柳宗元的这篇文章属于“永州八记”之一,语言简洁,结构清晰,情景交融,通过细腻的景物描写传达出作者的情感变化,最后以寂寥的氛围收尾。
接下来,我需要确定玄武湖的主要景点和特色。玄武湖是南京的著名景点,有五个洲,环洲、樱洲、梁洲、翠洲、菱洲,还有城墙、荷花、杨柳等元素。四季景色各异,但考虑到《小石潭记》的凄清风格,可能需要选择秋冬的景色,或者清晨、傍晚人少的时候,这样更容易营造出幽静的氛围。
然后,结构方面,《小石潭记》是按游览顺序写的:发现小潭、潭中景物、潭上溪流、氛围感受。所以玄武湖游记也应该按照游览路线来写,比如从某个入口进入,沿着湖边走,描述所见之景,再转到更幽静的地方,最后表达情感。
语言风格方面,要模仿文言文的简洁,多用四字短语,适当查看全文>>
羽颀 - 21 个点赞 👍
让子弹飞一会,还记得那个中专生数学竞赛全球排名前十的神话么?
国内遥遥领先的只有一个:造神运动!
查看全文>>
艾弗瑞 - 21 个点赞 👍
说个搞笑的,这几天超多人玩deepseek r1本地部署。超多人体验后盛赞deepseek牛逼!个人电脑上就能跑这么牛逼的ai,怪不得英伟达股价暴跌,以后不需要价格昂贵的显卡了,美国这回铁定药丸了。
搞笑的是他们的文化和认知水平不足以让他们认识到自己其实夸的根本不是deepseek。他们本地部署的其实是llama和qwen,只不过是用deepseek蒸馏出来的小模型。指桑夸槐了
犹如pink们夸xx主义的优越性,实不知他们夸的实际上是正统原始的资本主义。
查看全文>>
Cmark-超马克 - 19 个点赞 👍
我感觉并没有所谓的吊打,
ai行业和其它行业一样,都是一个成体系的结果体现。什么意思呢?
就是说刘翔很强,但你不能说我们的田径吊打美国田径。
姚明是nba选秀状元,但你不能说这里的篮球吊打美国篮球。
李娜拿过法网和澳网的冠军,但你甚至不能说她的实力能吊打小威。
可能比喻没那么恰当,大概就是这么个意思吧。
而且我用了这两者后发现deepseek的使用体验是全方位差于openai的。生成的答案也不如openai准确与全面。比如你让他分析某公司的财报,openai可以说要详细,全面,深入的多。
你现在只能说deepseek采用的MoE架构通过稀疏激活机制,显著降低了计算量,同时提升了模型的处理能力。
你只能说可能DeepSeek团队开发的MLA机制和FP8混合精度训练框架,进一步优化了模型的训练效率和生成速度,
此外,DualPipe算法的引入,可能有效降低了跨节点通信的开销,使得训练成本大幅降低。
说白了,可能只是在某些方面做出了当前研究方向的优化而已,并不是什么颠覆性的东西。也就不存在吊打。
我们这么
查看全文>>
轮回 - 16 个点赞 👍
吊打OpenAI肯定谈不上,只能说跟非多模态非推理SOTA打得有来有回,另外当前非推理的SOTA是Claude-3.5-Sonnet,不是GPT-4o。
目前DSV3在chatbot arena上也确实击败了Claude-3.5-Sonnet。Chatbot Arena是真人提问投票,因此完全不存在过拟合刷榜的可能——当然刷榜的方法也是有的,但这要求模型基础能力过硬+Post-Train舔的好,显然以DSV3薄弱的Post-Train是根本不可能实现的。
至于这对老黄是利好还是利空?我认为应该是利空——因为开源模型的性能越来越好,意味着越来越多的公司都不会选择自己从头预训练了,直接拿现成的开源模型做SFT要简单有效得多。而老黄现在只在预训练卡这个方面具有牢不可破的优势和巨大的增量需求,PostTrain既有同级竞争对手也有存量A100,推理这边更是有大量竞争对手,如果算力需求持续分化的话对于老黄来说显然是比较明显的利空。
查看全文>>
知乎用户 - 15 个点赞 👍
OpenAI的存在的意义没有了。
一个闭源大模型,在测试中比不过一个开源大模型,大家选择闭源的意义在什么地方?
回顾一下大模型的历程,这本来是一条用算力和数据铺就的炼金之路。
2020年6月,ChatGPT-3凭借1750亿参数和3000亿token的纯文本训练,消耗约3×10²³次浮点运算(FLOPS);
2022年3月,引起轰动的ChatGPT-3.5通过引入代码数据和强化学习框架,将训练数据扩展至5000亿token,算力需求增至5×10²³ FLOPS;
2023年3月,ChatGPT-4的混合专家架构(MoE)以1.8万亿参数规模整合13万亿多模态token,训练算力飙升至2.1×10²⁵ FLOPS,相当于GPT-3的70倍,需2.5万张H100 GPU集群持续运行90天,能耗突破51,000兆瓦时。
从ChatGPT-3到ChatGPT-4的演进,数据与算力的需求呈现指数级攀升。
训练的需要的成本也是从千万美金,再到上亿美金。
这种模式就是烧钱,要想炼大模型,掂量一下兜里的
查看全文>>
歪睿老哥 - 14 个点赞 👍
服务器繁忙,请稍后再试。
查看全文>>
知乎用户KlMfPY - 13 个点赞 👍
一搞出来就是世界第一,ChatGPT恨不得落后DeepSeek几百年,你信吗。要说世界第一,吹牛水平世界第一,遥遥领先的某为都是个弟弟。
这一看就是买热搜,割韭菜的东西,毕竟幻方本来就是一家量化割韭菜的公司。
为什么要做DeepSeek,本质上是为了合法割韭。量化割韭,小资金运作,能割到韭菜,算你的本事。但是如果做到幻方的体量,再想持续割韭,在目前共同富裕的大背景下,就一定有政策阻力。如何应对这种阻力,就要赋予割韭菜的正面意义,割韭菜赚的钱,搞出了大模型,拿到北京,得到高层的认可,然后,才允许你可以继续割韭。
所以DeepSeek本质就不是为了赚钱,而是一张许可证,有了这个,就可以大体量合法割韭,不再存在公平正义的讨论。
但是现在,幻方既要又要,不只想要许可证,还想通过DeepSeek大赚一笔,于是事先在DeepSeek相关个股建仓埋伏,周末买热搜,各个媒体开动,狂轰滥炸,企图一举赚回开发成本。什么都想要,这就有点过分了。
字节,华为,也搞大模型,字节的大模型有这么能吹吗,有吹成世界第一
查看全文>>
金融圈笛子