社区
首页
集团介绍
社区
资讯
行情
学堂
TigerGPT
登录
注册
与韭A不共戴天
IP属地:山东
+关注
帖子 · 5
帖子 · 5
关注 · 0
关注 · 0
粉丝 · 0
粉丝 · 0
与韭A不共戴天
与韭A不共戴天
·
02-10
因为美股不吃诈骗市场这一套
看
492
回复
评论
点赞
2
编组 21备份 2
分享
举报
与韭A不共戴天
与韭A不共戴天
·
01-30
说说你对这篇新闻的看法...
英特尔给AMD制造了大麻烦
英特尔能够将最大核心数增加到 128 个,是其前代产品的两倍,评论表明英特尔在性能方面已基本赶上 AMD。对此举的第二种解读是,英特尔正在采取积极措施夺回市场份额。大幅降价可能会损害英特尔的利润率,但这并不是定论。削弱AMD的发展势头无论降价的原因是什么,英特尔最新的服务器 CPU 现在比 AMD 的 CPU 更具吸引力。不过,有一点要记住,英特尔和 AMD 服务器 CPU 的标价并不是大客户实际支付的价格。
英特尔给AMD制造了大麻烦
看
440
回复
评论
点赞
点赞
编组 21备份 2
分享
举报
与韭A不共戴天
与韭A不共戴天
·
01-26
又弯道超车了是吧?赢麻
全球掀DeepSeek复现狂潮!硅谷巨头神话崩塌,30刀见证啊哈时刻
就在这当口,全球复现DeepSeek的一波狂潮也来了。更令人兴奋的是,成本不到30美金,就可以亲眼见证「啊哈」时刻。7B模型复刻,结果令人惊讶港科大助理教授何俊贤的团队,只用了8K个样本,就在7B模型上复刻出了DeepSeek-R1-Zero和DeepSeek-R1的训练。与DeepSeek R1类似,研究者的强化学习方案极其简单,没有使用奖励模型或MCTS类技术。随后,生成长度开始再次增加,此时出现了自我反思机制。
全球掀DeepSeek复现狂潮!硅谷巨头神话崩塌,30刀见证啊哈时刻
看
314
回复
评论
点赞
5
编组 21备份 2
分享
举报
与韭A不共戴天
与韭A不共戴天
·
2024-03-30
不及苹果的零头多[开心]
华为2023年实现全球销售收入7042亿元,净利润870亿元
年销售同比增长9.63%,为2019年以来最大年度增长。
华为2023年实现全球销售收入7042亿元,净利润870亿元
看
990
回复
评论
点赞
点赞
编组 21备份 2
分享
举报
加载更多
暂无关注
热议股票
{"i18n":{"language":"zh_CN"},"isCurrentUser":false,"userPageInfo":{"id":"4173925826857352","uuid":"4173925826857352","gmtCreate":1710822693806,"gmtModify":1711557142985,"name":"与韭A不共戴天","pinyin":"yjabgdtyujiuabugongdaitian","introduction":"","introductionEn":"","signature":"","avatar":"https://community-static.tradeup.com/news/default-avatar.jpg","hat":null,"hatId":null,"hatName":null,"vip":1,"status":2,"fanSize":0,"headSize":6,"tweetSize":5,"questionSize":0,"limitLevel":999,"accountStatus":1,"level":{"id":0,"name":"","nameTw":"","represent":"","factor":"","iconColor":"","bgColor":""},"themeCounts":0,"badgeCounts":0,"badges":[],"moderator":false,"superModerator":false,"manageSymbols":null,"badgeLevel":null,"boolIsFan":false,"boolIsHead":false,"favoriteSize":0,"symbols":null,"coverImage":null,"realNameVerified":null,"userBadges":[{"badgeId":"518b5610c3e8410da5cfad115e4b0f5a-1","templateUuid":"518b5610c3e8410da5cfad115e4b0f5a","name":"实盘交易者","description":"完成一笔实盘交易","bigImgUrl":"https://static.tigerbbs.com/2e08a1cc2087a1de93402c2c290fa65b","smallImgUrl":"https://static.tigerbbs.com/4504a6397ce1137932d56e5f4ce27166","grayImgUrl":"https://static.tigerbbs.com/4b22c79415b4cd6e3d8ebc4a0fa32604","redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":0,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2024.05.10","exceedPercentage":null,"individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":1100}],"userBadgeCount":1,"currentWearingBadge":null,"individualDisplayBadges":null,"crmLevel":2,"crmLevelSwitch":0,"location":"山东","starInvestorFollowerNum":0,"starInvestorFlag":false,"starInvestorOrderShareNum":0,"subscribeStarInvestorNum":6,"ror":null,"winRationPercentage":null,"showRor":false,"investmentPhilosophy":null,"starInvestorSubscribeFlag":false},"page":1,"watchlist":null,"tweetList":[{"id":402062115143984,"gmtCreate":1739178232075,"gmtModify":1739178234113,"author":{"id":"4173925826857352","authorId":"4173925826857352","name":"与韭A不共戴天","avatar":"https://community-static.tradeup.com/news/default-avatar.jpg","crmLevel":2,"crmLevelSwitch":0,"followedFlag":false,"idStr":"4173925826857352","authorIdStr":"4173925826857352"},"themes":[],"htmlText":"因为美股不吃诈骗市场这一套","listText":"因为美股不吃诈骗市场这一套","text":"因为美股不吃诈骗市场这一套","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":2,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/402062115143984","isVote":1,"tweetType":1,"viewCount":492,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":398153313755800,"gmtCreate":1738227768202,"gmtModify":1738227782102,"author":{"id":"4173925826857352","authorId":"4173925826857352","name":"与韭A不共戴天","avatar":"https://community-static.tradeup.com/news/default-avatar.jpg","crmLevel":2,"crmLevelSwitch":0,"followedFlag":false,"idStr":"4173925826857352","authorIdStr":"4173925826857352"},"themes":[],"htmlText":"说说你对这篇新闻的看法...","listText":"说说你对这篇新闻的看法...","text":"说说你对这篇新闻的看法...","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/398153313755800","repostId":"2507699580","repostType":2,"repost":{"id":"2507699580","kind":"news","pubTimestamp":1738226216,"share":"https://www.laohu8.com/m/news/2507699580?lang=&edition=full","pubTime":"2025-01-30 16:36","market":"us","language":"zh","title":"英特尔给AMD制造了大麻烦","url":"https://stock-news.laohu8.com/highlight/detail?id=2507699580","media":"半导体行业观察","summary":"英特尔能够将最大核心数增加到 128 个,是其前代产品的两倍,评论表明英特尔在性能方面已基本赶上 AMD。对此举的第二种解读是,英特尔正在采取积极措施夺回市场份额。大幅降价可能会损害英特尔的利润率,但这并不是定论。削弱AMD的发展势头无论降价的原因是什么,英特尔最新的服务器 CPU 现在比 AMD 的 CPU 更具吸引力。不过,有一点要记住,英特尔和 AMD 服务器 CPU 的标价并不是大客户实际支付的价格。","content":"<html><head></head><body><p>半导体巨头<a href=\"https://laohu8.com/S/INTC\">英特尔</a>正陷入生存危机。该公司缺乏固定的首席执行官,其以代工为中心的战略悬而未决,市场份额的损失给财务带来了压力,其人工智能 (AI) 芯片业务也遭遇了很大挫折。</p><p>虽然英特尔有很多问题,但服务器 CPU 业务是该公司取得真正进展的一个领域。几年前,竞争对手 AMD 凭借 Genoa 系列芯片超越了英特尔,在核心数量、性能和效率方面击败了市场领导者。虽然花了一段时间,但英特尔终于在去年凭借其Granite Rapids 服务器CPU 找到了答案。</p><p>Granite Rapids 是英特尔的关键产品。该芯片系列最终将该公司的主线服务器 CPU 产品从老化的英特尔 7 制造工艺转移到更先进的英特尔 3 工艺,这一转变带来了显着的性能和效率提升。英特尔能够将最大核心数增加到 128 个,是其前代产品的两倍,评论表明英特尔在性能方面已基本赶上 AMD。</p><p><strong>意外降价</strong></p><p>Granite Rapids 的发布会上,有一点让人有些意外,那就是定价。英特尔决定大手笔下手,将旗舰机型的定价定在了 x86 服务器 CPU 的最高水平。考虑到当时英特尔仍在奋力追赶,这一定价决定要么表明英特尔对 Granite Rapids 非常有信心,要么表明该公司还没有接受如今的竞争格局与几年前大不相同的事实。</p><p>Tom's Hardware本周早些时候报道称,英特尔在未正式宣布的情况下大幅下调了 Granite Rapids CPU 的标价。旗舰型号的标价目前为12460美元,比最初的发布价低了整整5340美元。其他型号也进行了降价,使其价格低于同类 AMD 替代产品。</p><p>值得注意的是,此次降价使得最高端 Granite Rapids 芯片的每核价格远低于 AMD 的顶级芯片,这使得 Granite Rapids 对构建密集云数据中心的客户来说具有吸引力。</p><p>有几种方法可以解释此次降价。首先,Granite Rapids 的销量可能不如英特尔所希望的那样好。虽然该产品系列看起来不错,但定价过高可能会赶走客户。英特尔定于周四公布季度业绩,因此希望该公司能提供最新消息。</p><p>对此举的第二种解读是,英特尔正在采取积极措施夺回市场份额。该公司仍然是服务器 CPU 市场的领导者,但 AMD 在过去几年中取得了巨大的增长。AMD 的 x86 服务器单位份额在 2024 年第三季度为 24.2%,高于 2020 年第三季度的 6.6%。</p><p>事实可能是两者兼而有之。大幅降价可能会损害英特尔的利润率,但这并不是定论。由于英特尔采用英特尔 3 工艺在内部生产 Granite Rapids,如果降价能提高单位销量并提高公司晶圆厂的利用率,利润率可能不会受到太大影响。英特尔 3 是英特尔向代工客户提供的一种工艺,该公司可能有需要填补的过剩产能。</p><p><strong>削弱AMD的发展势头</strong></p><p>无论降价的原因是什么,英特尔最新的服务器 CPU 现在比 AMD 的 CPU 更具吸引力。AMD 将制造业务外包给<a href=\"https://laohu8.com/S/TSM\">台积电</a>,因此如果该公司因此降价,将侵蚀其利润率。</p><p>不过,有一点要记住,英特尔和 AMD 服务器 CPU 的标价并不是大客户实际支付的价格。相反,它们是一个上限。英特尔可能一直在为云计算客户提供大幅折扣。</p><p>无论如何,英特尔似乎正在全力以赴,试图让其数据中心业务恢复正常,并夺回过去几年失去的部分市场份额。凭借稳定且具有竞争力的产品阵容,激进的定价可能正是该公司扭转局面所需要的。</p><p>参考链接</p><p>https://finance.yahoo.com/news/intel-just-created-big-problem-104000212.html</p></body></html>","source":"tencent","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>英特尔给AMD制造了大麻烦</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n英特尔给AMD制造了大麻烦\n</h2>\n\n<h4 class=\"meta\">\n\n\n2025-01-30 16:36 北京时间 <a href=http://gu.qq.com/resources/shy/news/detail-v2/index.html#/?id=nesSN20250130101936abbcd208&s=b><strong>半导体行业观察</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>半导体巨头英特尔正陷入生存危机。该公司缺乏固定的首席执行官,其以代工为中心的战略悬而未决,市场份额的损失给财务带来了压力,其人工智能 (AI) 芯片业务也遭遇了很大挫折。虽然英特尔有很多问题,但服务器 CPU 业务是该公司取得真正进展的一个领域。几年前,竞争对手 AMD 凭借 Genoa 系列芯片超越了英特尔,在核心数量、性能和效率方面击败了市场领导者。虽然花了一段时间,但英特尔终于在去年凭借其...</p>\n\n<a href=\"http://gu.qq.com/resources/shy/news/detail-v2/index.html#/?id=nesSN20250130101936abbcd208&s=b\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/c74be4c2a08964ef2daf32217f693b44","relate_stocks":{"BK4573":"虚拟现实","LU1880398554.USD":"AMUNDI FUNDS GLOBAL EQUITY \"A2\" (USD) INC","IE0004445239.USD":"JANUS HENDERSON US FORTY \"A2\" (USD) ACC","LU2458330243.SGD":"FRANKLIN SHARIAH TECHNOLOGY \"A-H1\" (SGDHDG) ACC","LU2250418816.HKD":"BGF WORLD TECHNOLOGY \"A\" (HKD) ACC","LU0642271901.SGD":"Janus Henderson Horizon Global Technology Leaders A2 SGD-H","LU1988902786.USD":"FULLERTON LUX FUNDS GLOBAL ABSOLUTE ALPHA \"I\" (USD) ACC","BK4512":"苹果概念","LU2360106780.USD":"BGF WORLD TECHNOLOGY \"A4\" (USD) INC","LU0889565833.HKD":"FRANKLIN TECHNOLOGY \"A\" (HKD) ACC","LU0082616367.USD":"摩根大通美国科技A(dist)","LU0823421333.USD":"BNP PARIBAS DISRUPTIVE TECHNOLOGY \"C\" (USD) ACC","LU0719512351.SGD":"JPMorgan Funds - US Technology A (acc) SGD","LU1242518857.USD":"FULLERTON LUX FUNDS - ASIA ABSOLUTE ALPHA \"I\" (USD) ACC","BK4529":"IDC概念","LU1880398471.USD":"AMUNDI FUNDS GLOBAL EQUITY \"A2\" (USD) ACC","LU0321505868.SGD":"Schroder ISF Global Dividend Maximiser A Dis SGD","IE00BMPRXR70.SGD":"Neuberger Berman 5G Connectivity A Acc SGD-H","LU0321505439.SGD":"Schroder ISF Global Dividend Maximiser A Acc SGD","LU0109392836.USD":"富兰克林科技股A","BK4532":"文艺复兴科技持仓","IE00B5949003.HKD":"JANUS HENDERSON GLOBAL TECHNOLOGY AND INNOVATION \"A\" (HKD) ACC","BK4515":"5G概念","AMD":"美国超微公司","LU1242518931.SGD":"Fullerton Lux Funds - Asia Absolute Alpha A Acc SGD","BK4585":"ETF&股票定投概念","BK4534":"瑞士信贷持仓","INTC":"英特尔","LU0979878070.USD":"FULLERTON LUX FUNDS - ASIA ABSOLUTE ALPHA \"A\" (USD) ACC","LU1852331112.SGD":"Blackrock World Technology Fund A2 SGD-H","BK4566":"资本集团","LU0198837287.USD":"UBS (LUX) EQUITY SICAV - USA GROWTH \"P\" (USD) ACC","BK4535":"淡马锡持仓","LU1064131342.USD":"Fullerton Lux Funds - Global Absolute Alpha A Acc USD","LU0823434583.USD":"BNP PARIBAS US GROWTH \"C\" (USD) ACC","LU1951198990.SGD":"Natixis Thematics AI & Robotics Fund H-R/A SGD-H","BK4527":"明星科技股","LU0823434740.USD":"BNP PARIBAS US GROWTH \"C\" (USD) INC","BK4543":"AI","LU0127658192.USD":"EASTSPRING INVESTMENTS GLOBAL TECHNOLOGY \"A\" (USD) ACC","LU1951200564.SGD":"Natixis Thematics AI & Robotics Fund R/A SGD","BK4588":"碎股","BK4550":"红杉资本持仓","LU2054465674.USD":"UBS (LUX) KEY SELEC SICAV DIGITAL TRANSFORMATION T \"P\" (USD) ACC","IE0009356076.USD":"JANUS HENDERSON GLOBAL TECHNOLOGY AND INNOVATION \"A2\" (USD) ACC","LU1316542783.SGD":"Janus Henderson Horizon Global Technology Leaders A2 SGD","LU2098885051.SGD":"JPMorgan Funds - Multi-Manager Alternatives A (acc) SGD","LU1923623000.USD":"Natixis Thematics AI & Robotics Fund R/A USD","LU2458330169.SGD":"FRANKLIN SHARIAH TECHNOLOGY \"A\" (SGD) ACC","GFS":"GLOBALFOUNDRIES Inc."},"source_url":"http://gu.qq.com/resources/shy/news/detail-v2/index.html#/?id=nesSN20250130101936abbcd208&s=b","is_english":false,"share_image_url":"https://static.laohu8.com/9a95c1376e76363c1401fee7d3717173","article_id":"2507699580","content_text":"半导体巨头英特尔正陷入生存危机。该公司缺乏固定的首席执行官,其以代工为中心的战略悬而未决,市场份额的损失给财务带来了压力,其人工智能 (AI) 芯片业务也遭遇了很大挫折。虽然英特尔有很多问题,但服务器 CPU 业务是该公司取得真正进展的一个领域。几年前,竞争对手 AMD 凭借 Genoa 系列芯片超越了英特尔,在核心数量、性能和效率方面击败了市场领导者。虽然花了一段时间,但英特尔终于在去年凭借其Granite Rapids 服务器CPU 找到了答案。Granite Rapids 是英特尔的关键产品。该芯片系列最终将该公司的主线服务器 CPU 产品从老化的英特尔 7 制造工艺转移到更先进的英特尔 3 工艺,这一转变带来了显着的性能和效率提升。英特尔能够将最大核心数增加到 128 个,是其前代产品的两倍,评论表明英特尔在性能方面已基本赶上 AMD。意外降价Granite Rapids 的发布会上,有一点让人有些意外,那就是定价。英特尔决定大手笔下手,将旗舰机型的定价定在了 x86 服务器 CPU 的最高水平。考虑到当时英特尔仍在奋力追赶,这一定价决定要么表明英特尔对 Granite Rapids 非常有信心,要么表明该公司还没有接受如今的竞争格局与几年前大不相同的事实。Tom's Hardware本周早些时候报道称,英特尔在未正式宣布的情况下大幅下调了 Granite Rapids CPU 的标价。旗舰型号的标价目前为12460美元,比最初的发布价低了整整5340美元。其他型号也进行了降价,使其价格低于同类 AMD 替代产品。值得注意的是,此次降价使得最高端 Granite Rapids 芯片的每核价格远低于 AMD 的顶级芯片,这使得 Granite Rapids 对构建密集云数据中心的客户来说具有吸引力。有几种方法可以解释此次降价。首先,Granite Rapids 的销量可能不如英特尔所希望的那样好。虽然该产品系列看起来不错,但定价过高可能会赶走客户。英特尔定于周四公布季度业绩,因此希望该公司能提供最新消息。对此举的第二种解读是,英特尔正在采取积极措施夺回市场份额。该公司仍然是服务器 CPU 市场的领导者,但 AMD 在过去几年中取得了巨大的增长。AMD 的 x86 服务器单位份额在 2024 年第三季度为 24.2%,高于 2020 年第三季度的 6.6%。事实可能是两者兼而有之。大幅降价可能会损害英特尔的利润率,但这并不是定论。由于英特尔采用英特尔 3 工艺在内部生产 Granite Rapids,如果降价能提高单位销量并提高公司晶圆厂的利用率,利润率可能不会受到太大影响。英特尔 3 是英特尔向代工客户提供的一种工艺,该公司可能有需要填补的过剩产能。削弱AMD的发展势头无论降价的原因是什么,英特尔最新的服务器 CPU 现在比 AMD 的 CPU 更具吸引力。AMD 将制造业务外包给台积电,因此如果该公司因此降价,将侵蚀其利润率。不过,有一点要记住,英特尔和 AMD 服务器 CPU 的标价并不是大客户实际支付的价格。相反,它们是一个上限。英特尔可能一直在为云计算客户提供大幅折扣。无论如何,英特尔似乎正在全力以赴,试图让其数据中心业务恢复正常,并夺回过去几年失去的部分市场份额。凭借稳定且具有竞争力的产品阵容,激进的定价可能正是该公司扭转局面所需要的。参考链接https://finance.yahoo.com/news/intel-just-created-big-problem-104000212.html","news_type":1},"isVote":1,"tweetType":1,"viewCount":440,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":396710516232360,"gmtCreate":1737875728147,"gmtModify":1737876023666,"author":{"id":"4173925826857352","authorId":"4173925826857352","name":"与韭A不共戴天","avatar":"https://community-static.tradeup.com/news/default-avatar.jpg","crmLevel":2,"crmLevelSwitch":0,"followedFlag":false,"idStr":"4173925826857352","authorIdStr":"4173925826857352"},"themes":[],"htmlText":"又弯道超车了是吧?赢麻","listText":"又弯道超车了是吧?赢麻","text":"又弯道超车了是吧?赢麻","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":5,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/396710516232360","repostId":"1161961252","repostType":2,"repost":{"id":"1161961252","kind":"news","pubTimestamp":1737873715,"share":"https://www.laohu8.com/m/news/1161961252?lang=&edition=full","pubTime":"2025-01-26 14:41","market":"hk","language":"zh","title":"全球掀DeepSeek复现狂潮!硅谷巨头神话崩塌,30刀见证啊哈时刻","url":"https://stock-news.laohu8.com/highlight/detail?id=1161961252","media":"新智元","summary":"就在这当口,全球复现DeepSeek的一波狂潮也来了。更令人兴奋的是,成本不到30美金,就可以亲眼见证「啊哈」时刻。7B模型复刻,结果令人惊讶港科大助理教授何俊贤的团队,只用了8K个样本,就在7B模型上复刻出了DeepSeek-R1-Zero和DeepSeek-R1的训练。与DeepSeek R1类似,研究者的强化学习方案极其简单,没有使用奖励模型或MCTS类技术。随后,生成长度开始再次增加,此时出现了自我反思机制。","content":"<html><head></head><body><p>这些天,硅谷彻底处于中国公司带来的大地震余波中。</p><p>全美都在恐慌:是否全球人工智能的中心已经转移到了中国?</p><p>就在这当口,全球复现DeepSeek的一波狂潮也来了。</p><p>诚如LeCun所言:「这一次,正是开源对闭源的胜利!」</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/96443f59328eead1fb03ccf0f6e8b4a7\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"519\"/></p><blockquote><p>在没有顶级芯片的情况下,以极低成本芯片训出突破性模型的DeepSeek,或将威胁到美国的AI霸权。</p><p>大模型比拼的不再是动辄千万亿美元的算力战。</p><p>OpenAI、Meta、谷歌这些大公司引以为傲的技术优势和高估值将会瓦解,英伟达的股价将开始动摇。</p></blockquote><p>种种这些观点和讨论,让人不禁怀疑:数百亿美元支出,对这个行业真的必要吗?甚至有人说,中国量化基金的一群天才,将导致纳斯达克崩盘。</p><p>从此,大模型时代很可能会进入一个分水岭:超强性能的模型不再独属于算力巨头,而是属于每个人。</p><h2 id=\"id_1782456954\">30美金,就能看到「啊哈」时刻</h2><p>来自UC伯克利博士生潘家怡和另两位研究人员,在CountDown游戏中复现了DeepSeek R1-Zero。</p><p>他们表示,结果相当出色!</p><p>实验中,团队验证了通过强化学习RL,3B的基础语言模型也能够自我验证和搜索。</p><p>更令人兴奋的是,成本不到30美金(约217元),就可以亲眼见证「啊哈」时刻。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/9e5c66f649972cc1dcc1b64ac9e2312a\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"468\"/></p><p>这个项目叫做TinyZero,采用了R1-Zero算法——给定一个基础语言模型、提示和真实奖励信号,运行强化学习。</p><p>然后,团队将其应用在CountDown游戏中(这是一个玩家使用基础算术运算,将数字组合以达到目标数字的游戏)。</p><p>模型从最初的简单输出开始,逐步进化出自我纠正和搜索的策略。</p><p>在以下示例中,模型提出了解决方案,自我验证,并反复纠正,直到解决问题为止。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/7fdc1973cccfff685657e93776b421a6\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"645\"/></p><p>在消融实验中,研究人员运行了Qwen-2.5-Base(0.5B、1.5B、3B、7B四种参数规模)。</p><p>结果发现,0.5B模型仅仅是猜测一个解决方案然后停止。而从1.5B开始,模型学会了搜索、自我验证和修正其解决方案,从而能够获得更高的分数。</p><p>他们认为,在这个过程,基础模型的是性能的关键。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/b5bf9a119224a98c43e0746453632356\" alt=\"\" title=\"\" tg-width=\"1024\" tg-height=\"872\"/></p><p>他们还验证了,额外的指令微调(SFT)并非是必要的,这也印证了R1-Zero的设计决策。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/9f1a78e6cf55328c051693886f074ca0\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"352\"/></p><p>这是首个验证LLM推理能力的实现可以纯粹通过RL,无需监督微调的开源研究</p><p>基础模型和指令模型两者区别:</p><ul style=\"list-style-type: disc;\"><li><p>指令模型运行速度快,但最终表现与基础模型相当</p></li><li><p>指令输出的模型更具结构性和可读性</p></li></ul><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/f32389410d6e5ede00b75380edf87e07\" alt=\"\" title=\"\" tg-width=\"1024\" tg-height=\"891\"/></p><p>此外,他们还发现,具体的RL算法并不重要。PPO、GRPO、PRIME这些算法中,长思维链(Long CoT)都能够涌现,且带来不错的性能表现。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/617d02e3d20394695f5f569d5f74c0d8\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"1128\"/></p><p>而且,模型在推理行为中非常依赖于具体的任务:</p><ul style=\"list-style-type: disc;\"><li><p>对于Countdow任务,模型学习进行搜索和自我验证</p></li><li><p>对于数字乘法任务,模型反而学习使用分布规则分解问题,并逐步解决</p></li></ul><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/96b4239d735ae442de73323b5bd4c965\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"643\"/></p><p>苹果机器学习科学家Yizhe Zhang对此表示,太酷了,小到1.5B的模型,也能通过RL涌现出自我验证的能力。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/3f01a77c2fff63fd05ba3d19af0bfeab\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"212\"/></p><h2 id=\"id_3291092331\">7B模型复刻,结果令人惊讶</h2><p>港科大助理教授何俊贤的团队(共同一作黄裕振、Weihao Zeng),只用了8K个样本,就在7B模型上复刻出了DeepSeek-R1-Zero和DeepSeek-R1的训练。</p><p>结果令人惊喜——模型在复杂的数学推理上取得了十分强劲结果。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/51085fb73be2a72ee23054c18e6df557\" alt=\"\" title=\"\" tg-width=\"870\" tg-height=\"185\"/></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/17a612e8c7859f8429ee06ebe37234bb\" alt=\"项目地址:https://github.com/hkust-nlp/simpleRL-reason\" title=\"项目地址:https://github.com/hkust-nlp/simpleRL-reason\" tg-width=\"1080\" tg-height=\"492\"/><span>项目地址:https://github.com/hkust-nlp/simpleRL-reason</span></p><p>他们以Qwen2.5-Math-7B(基础模型)为起点,直接对其进行强化学习。</p><p>整个过程中,没有进行监督微调(SFT),也没有使用奖励模型。</p><p>最终,模型在AIME基准上实现了33.3%的准确率,在AMC上为62.5%,在MATH上为77.2%。</p><p>这一表现不仅超越了Qwen2.5-Math-7B-Instruct,并且还可以和使用超过50倍数据量和更复杂组件的PRIME和rStar-MATH相媲美!</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/fc28abafaf1b99ce393cf71fc2cfb483\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"613\"/></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/00ddd59c6d8b6ab3b8d2cf89524b23c4\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"553\"/></p><p>其中,Qwen2.5-7B-SimpleRL-Zero是在Qwen2.5-Math-7B基础模型上仅使用纯PPO方法训练的,仅采用了MATH数据集中的8K样本。</p><p>Qwen2.5-7B-SimpleRL则首先通过Long CoT监督微调(SFT)作为冷启动,然后再进行强化学习。</p><p>在这两种方法中,团队都只使用了相同的8K MATH样本,仅此而已。</p><p>大概在第44步的时候,「啊哈时刻」出现了!模型的响应中,出现了自我反思。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/f3aa0b8e2d94bdc891f49c30a47aa475\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"438\"/></p><p>并且,在这个过程中,模型还显现了更长的CoT推理能力和自我反思能力。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/3320ec58f4e229808d3520653e70da3d\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"608\"/></p><p>在博客中,研究者详细剖析了实验设置,以及在这个强化学习训练过程中所观察到的现象,例如长链式思考(CoT)和自我反思机制的自发形成。</p><p>与DeepSeek R1类似,研究者的强化学习方案极其简单,没有使用奖励模型或MCTS(蒙特卡洛树搜索)类技术。</p><p>他们使用的是PPO算法,并采用基于规则的奖励函数,根据生成输出的格式和正确性分配奖励:</p><ul style=\"list-style-type: disc;\"><li><p>如果输出以指定格式提供最终答案且正确,获得+1的奖励</p></li><li><p>如果输出提供最终答案但不正确,奖励设为-0.5</p></li><li><p>如果输出未能提供最终答案,奖励设为-1</p></li></ul><p>该实现基于OpenRLHF。初步试验表明,这个奖励函数有助于策略模型快速收敛,产生符合期望格式的输出。</p><h3 id=\"id_1461976375\" style=\"text-align: center;\">第一部分:SimpleRL-Zero(从头开始的强化学习)</h3><p>接下来,研究者为我们分享了训练过程动态分析和一些有趣的涌现模式。</p><h4 id=\"id_606216327\">训练过程动态分析</h4><p>如下所示,所有基准测试的准确率在训练过程中都在稳步提高,而输出长度则呈现先减少后逐渐增加的趋势。</p><p>经过进一步调查,研究者发现,Qwen2.5-Math-7B基础模型在初始阶段倾向于生成大量代码,这可能源于模型原始训练数据的分布特征。</p><p>输出长度的首次下降,是因为强化学习训练逐渐消除了这种代码生成模式,转而学会使用自然语言进行推理。</p><p>随后,生成长度开始再次增加,此时出现了自我反思机制。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/c617c450f7e378da91201c2612d6b7dc\" alt=\"训练奖励和输出长度\" title=\"训练奖励和输出长度\" tg-width=\"1076\" tg-height=\"432\"/><span>训练奖励和输出长度</span></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/59ef982da18a27da8c6263d647691fa7\" alt=\"基准测试准确率(pass@1)和输出长度\" title=\"基准测试准确率(pass@1)和输出长度\" tg-width=\"1080\" tg-height=\"924\"/><span>基准测试准确率(pass@1)和输出长度</span></p><h4 id=\"id_224279804\">自我反思机制的涌现</h4><p>在训练到第 40 步左右时,研究者观察到:模型开始形成自我反思模式,这正是DeepSeek-R1论文中所描述的「aha moment」(顿悟时刻)。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/60580dff773b0a70b356c7267119e819\" alt=\"\" title=\"\" tg-width=\"1054\" tg-height=\"423\"/></p><h3 id=\"id_2889548553\" style=\"text-align: center;\">第二部分:SimpleRL(基于模仿预热的强化学习)</h3><p>如前所述,研究者在进行强化学习之前,先进行了long CoT SFT预热,使用了8,000个从QwQ-32B-Preview中提取的MATH示例响应作为SFT数据集。</p><p>这种冷启动的潜在优势在于:模型在开始强化学习时已具备long CoT思维模式和自我反思能力,从而可能在强化学习阶段实现更快更好的学习效果。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/c761a6c0f0b865f5c1645cc06ad9869e\" alt=\"\" title=\"\" tg-width=\"1053\" tg-height=\"445\"/></p><p>与RL训练前的模型(Qwen2.5-Math-7B-Base + 8K QwQ知识蒸馏版本)相比,Qwen2.5-7B-SimpleRL的平均性能显著提升了6.9个百分点。</p><p>此外,Qwen2.5-7B-SimpleRL不仅持续优于Eurus-2-7B-PRIME,还在5个基准测试中的3个上超越了Qwen2.5-7B-SimpleRL-Zero。</p><h3 id=\"id_1405061093\">训练过程分析</h3><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/7ca73d0446fd6af825ac840bba4c7b14\" alt=\"训练奖励和输出长度\" title=\"训练奖励和输出长度\" tg-width=\"1060\" tg-height=\"467\"/><span>训练奖励和输出长度</span></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/07444422d9115a8382ed0f8843badb5f\" alt=\"基准测试准确率(pass@1)和输出长度\" title=\"基准测试准确率(pass@1)和输出长度\" tg-width=\"1080\" tg-height=\"638\"/><span>基准测试准确率(pass@1)和输出长度</span></p><p>Qwen2.5-SimpleRL的训练动态表现与Qwen2.5-SimpleRL-Zero相似。</p><p>有趣的是,尽管研究者先进行了long CoT SFT,但在强化学习初期仍然观察到输出长度减少的现象。</p><p>他们推测,这可能是因为从QwQ提取的推理模式不适合小型策略模型,或超出了其能力范围。</p><p>因此,模型选择放弃这种模式,转而自主发展新的长链式推理方式。</p><p>最后,研究者用达芬奇的一句话,对这项研究做了总结——</p><p>简约,便是最终极的精致。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/0031e63d9296afb7d700bb6315dbce70\" alt=\"图片\" title=\"图片\" tg-width=\"437\" tg-height=\"72\"/><span>图片</span></p><h2 id=\"id_2367102810\">完全开源复刻,HuggingFace下场了</h2><p>甚至,就连全球最大开源平台HuggingFace团队,今天官宣复刻DeepSeek R1所有pipeline。</p><p>复刻完成后,所有的训练数据、训练脚本等等,将全部开源。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/8b6a0735cb87c3f66a56724b33c3f08c\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"436\"/></p><p>这个项目叫做Open R1,当前还在进行中。发布到一天,星标冲破1.9k,斩获142个fork。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/883546a6427f0ae894da543e70c593aa\" alt=\"项目地址:https://github.com/huggingface/open-r1\" title=\"项目地址:https://github.com/huggingface/open-r1\" tg-width=\"1080\" tg-height=\"391\"/><span>项目地址:https://github.com/huggingface/open-r1</span></p><p>研究团队以DeepSeek-R1技术报告为指导,将整个复刻过程划分为三个关键步骤。</p><ul style=\"list-style-type: disc;\"><li><p><strong>步骤 1:</strong>通过从DeepSeek-R1蒸馏高质量语料库,复现R1-Distill模型。</p></li><li><p><strong>步骤 2:</strong>复现DeepSeek用于创建R1-Zero的纯强化学习(RL)流程。这可能需要为数学、推理和代码任务策划新的大规模数据集。</p></li><li><p><strong>步骤 3:</strong>展示我们如何通过多阶段训练,从基础模型发展到经过RL调优的模型。</p></li></ul><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/0b5e37647b6df05c2e00fdcae31c20a1\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"1238\"/></p><h2 id=\"id_1672370884\">从斯坦福到MIT,R1成为首选</h2><p>一个副业项目,让全世界科技大厂为之惶恐。</p><p>DeepSeek这波成功,也成为业界的神话,网友最新截图显示,这款应用已经在APP Store「效率」应用榜单中挤进前三。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/c26a66723d3b3a6b69f68a1478db0112\" alt=\"\" title=\"\" tg-width=\"966\" tg-height=\"1200\"/></p><p>在Hugging Face中,R1下载量直接登顶,另外3个模型也霸占着热榜。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/a17a15963d44d09684758a53d9f16d6e\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"1080\"/></p><p>a16z合伙人Anjney Midha称,一夜之间,从斯坦福到MIT,DeepSeek R1已经成为美国顶尖高校研究人员「首选模型」。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/95d7a12d8352525e938ddde62a68ba77\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"237\"/></p><p>还有研究人员表示,DeepSeek基本上取代了我用ChatGPT的需求。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/aef5ecd49dffdc200d6f1bd7a0647528\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"169\"/></p><p>中国AI,这一次真的震撼了世界。</p></body></html>","source":"lsy1569730104218","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>全球掀DeepSeek复现狂潮!硅谷巨头神话崩塌,30刀见证啊哈时刻</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n全球掀DeepSeek复现狂潮!硅谷巨头神话崩塌,30刀见证啊哈时刻\n</h2>\n\n<h4 class=\"meta\">\n\n\n2025-01-26 14:41 北京时间 <a href=https://mp.weixin.qq.com/s/o41vPh9eJCVjCRUE4u5npA><strong>新智元</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>这些天,硅谷彻底处于中国公司带来的大地震余波中。全美都在恐慌:是否全球人工智能的中心已经转移到了中国?就在这当口,全球复现DeepSeek的一波狂潮也来了。诚如LeCun所言:「这一次,正是开源对闭源的胜利!」在没有顶级芯片的情况下,以极低成本芯片训出突破性模型的DeepSeek,或将威胁到美国的AI霸权。大模型比拼的不再是动辄千万亿美元的算力战。OpenAI、Meta、谷歌这些大公司引以为傲的...</p>\n\n<a href=\"https://mp.weixin.qq.com/s/o41vPh9eJCVjCRUE4u5npA\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://community-static.tradeup.com/news/4abae3de7bed37b48c01721c28c51931","relate_stocks":{},"source_url":"https://mp.weixin.qq.com/s/o41vPh9eJCVjCRUE4u5npA","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1161961252","content_text":"这些天,硅谷彻底处于中国公司带来的大地震余波中。全美都在恐慌:是否全球人工智能的中心已经转移到了中国?就在这当口,全球复现DeepSeek的一波狂潮也来了。诚如LeCun所言:「这一次,正是开源对闭源的胜利!」在没有顶级芯片的情况下,以极低成本芯片训出突破性模型的DeepSeek,或将威胁到美国的AI霸权。大模型比拼的不再是动辄千万亿美元的算力战。OpenAI、Meta、谷歌这些大公司引以为傲的技术优势和高估值将会瓦解,英伟达的股价将开始动摇。种种这些观点和讨论,让人不禁怀疑:数百亿美元支出,对这个行业真的必要吗?甚至有人说,中国量化基金的一群天才,将导致纳斯达克崩盘。从此,大模型时代很可能会进入一个分水岭:超强性能的模型不再独属于算力巨头,而是属于每个人。30美金,就能看到「啊哈」时刻来自UC伯克利博士生潘家怡和另两位研究人员,在CountDown游戏中复现了DeepSeek R1-Zero。他们表示,结果相当出色!实验中,团队验证了通过强化学习RL,3B的基础语言模型也能够自我验证和搜索。更令人兴奋的是,成本不到30美金(约217元),就可以亲眼见证「啊哈」时刻。这个项目叫做TinyZero,采用了R1-Zero算法——给定一个基础语言模型、提示和真实奖励信号,运行强化学习。然后,团队将其应用在CountDown游戏中(这是一个玩家使用基础算术运算,将数字组合以达到目标数字的游戏)。模型从最初的简单输出开始,逐步进化出自我纠正和搜索的策略。在以下示例中,模型提出了解决方案,自我验证,并反复纠正,直到解决问题为止。在消融实验中,研究人员运行了Qwen-2.5-Base(0.5B、1.5B、3B、7B四种参数规模)。结果发现,0.5B模型仅仅是猜测一个解决方案然后停止。而从1.5B开始,模型学会了搜索、自我验证和修正其解决方案,从而能够获得更高的分数。他们认为,在这个过程,基础模型的是性能的关键。他们还验证了,额外的指令微调(SFT)并非是必要的,这也印证了R1-Zero的设计决策。这是首个验证LLM推理能力的实现可以纯粹通过RL,无需监督微调的开源研究基础模型和指令模型两者区别:指令模型运行速度快,但最终表现与基础模型相当指令输出的模型更具结构性和可读性此外,他们还发现,具体的RL算法并不重要。PPO、GRPO、PRIME这些算法中,长思维链(Long CoT)都能够涌现,且带来不错的性能表现。而且,模型在推理行为中非常依赖于具体的任务:对于Countdow任务,模型学习进行搜索和自我验证对于数字乘法任务,模型反而学习使用分布规则分解问题,并逐步解决苹果机器学习科学家Yizhe Zhang对此表示,太酷了,小到1.5B的模型,也能通过RL涌现出自我验证的能力。7B模型复刻,结果令人惊讶港科大助理教授何俊贤的团队(共同一作黄裕振、Weihao Zeng),只用了8K个样本,就在7B模型上复刻出了DeepSeek-R1-Zero和DeepSeek-R1的训练。结果令人惊喜——模型在复杂的数学推理上取得了十分强劲结果。项目地址:https://github.com/hkust-nlp/simpleRL-reason他们以Qwen2.5-Math-7B(基础模型)为起点,直接对其进行强化学习。整个过程中,没有进行监督微调(SFT),也没有使用奖励模型。最终,模型在AIME基准上实现了33.3%的准确率,在AMC上为62.5%,在MATH上为77.2%。这一表现不仅超越了Qwen2.5-Math-7B-Instruct,并且还可以和使用超过50倍数据量和更复杂组件的PRIME和rStar-MATH相媲美!其中,Qwen2.5-7B-SimpleRL-Zero是在Qwen2.5-Math-7B基础模型上仅使用纯PPO方法训练的,仅采用了MATH数据集中的8K样本。Qwen2.5-7B-SimpleRL则首先通过Long CoT监督微调(SFT)作为冷启动,然后再进行强化学习。在这两种方法中,团队都只使用了相同的8K MATH样本,仅此而已。大概在第44步的时候,「啊哈时刻」出现了!模型的响应中,出现了自我反思。并且,在这个过程中,模型还显现了更长的CoT推理能力和自我反思能力。在博客中,研究者详细剖析了实验设置,以及在这个强化学习训练过程中所观察到的现象,例如长链式思考(CoT)和自我反思机制的自发形成。与DeepSeek R1类似,研究者的强化学习方案极其简单,没有使用奖励模型或MCTS(蒙特卡洛树搜索)类技术。他们使用的是PPO算法,并采用基于规则的奖励函数,根据生成输出的格式和正确性分配奖励:如果输出以指定格式提供最终答案且正确,获得+1的奖励如果输出提供最终答案但不正确,奖励设为-0.5如果输出未能提供最终答案,奖励设为-1该实现基于OpenRLHF。初步试验表明,这个奖励函数有助于策略模型快速收敛,产生符合期望格式的输出。第一部分:SimpleRL-Zero(从头开始的强化学习)接下来,研究者为我们分享了训练过程动态分析和一些有趣的涌现模式。训练过程动态分析如下所示,所有基准测试的准确率在训练过程中都在稳步提高,而输出长度则呈现先减少后逐渐增加的趋势。经过进一步调查,研究者发现,Qwen2.5-Math-7B基础模型在初始阶段倾向于生成大量代码,这可能源于模型原始训练数据的分布特征。输出长度的首次下降,是因为强化学习训练逐渐消除了这种代码生成模式,转而学会使用自然语言进行推理。随后,生成长度开始再次增加,此时出现了自我反思机制。训练奖励和输出长度基准测试准确率(pass@1)和输出长度自我反思机制的涌现在训练到第 40 步左右时,研究者观察到:模型开始形成自我反思模式,这正是DeepSeek-R1论文中所描述的「aha moment」(顿悟时刻)。第二部分:SimpleRL(基于模仿预热的强化学习)如前所述,研究者在进行强化学习之前,先进行了long CoT SFT预热,使用了8,000个从QwQ-32B-Preview中提取的MATH示例响应作为SFT数据集。这种冷启动的潜在优势在于:模型在开始强化学习时已具备long CoT思维模式和自我反思能力,从而可能在强化学习阶段实现更快更好的学习效果。与RL训练前的模型(Qwen2.5-Math-7B-Base + 8K QwQ知识蒸馏版本)相比,Qwen2.5-7B-SimpleRL的平均性能显著提升了6.9个百分点。此外,Qwen2.5-7B-SimpleRL不仅持续优于Eurus-2-7B-PRIME,还在5个基准测试中的3个上超越了Qwen2.5-7B-SimpleRL-Zero。训练过程分析训练奖励和输出长度基准测试准确率(pass@1)和输出长度Qwen2.5-SimpleRL的训练动态表现与Qwen2.5-SimpleRL-Zero相似。有趣的是,尽管研究者先进行了long CoT SFT,但在强化学习初期仍然观察到输出长度减少的现象。他们推测,这可能是因为从QwQ提取的推理模式不适合小型策略模型,或超出了其能力范围。因此,模型选择放弃这种模式,转而自主发展新的长链式推理方式。最后,研究者用达芬奇的一句话,对这项研究做了总结——简约,便是最终极的精致。图片完全开源复刻,HuggingFace下场了甚至,就连全球最大开源平台HuggingFace团队,今天官宣复刻DeepSeek R1所有pipeline。复刻完成后,所有的训练数据、训练脚本等等,将全部开源。这个项目叫做Open R1,当前还在进行中。发布到一天,星标冲破1.9k,斩获142个fork。项目地址:https://github.com/huggingface/open-r1研究团队以DeepSeek-R1技术报告为指导,将整个复刻过程划分为三个关键步骤。步骤 1:通过从DeepSeek-R1蒸馏高质量语料库,复现R1-Distill模型。步骤 2:复现DeepSeek用于创建R1-Zero的纯强化学习(RL)流程。这可能需要为数学、推理和代码任务策划新的大规模数据集。步骤 3:展示我们如何通过多阶段训练,从基础模型发展到经过RL调优的模型。从斯坦福到MIT,R1成为首选一个副业项目,让全世界科技大厂为之惶恐。DeepSeek这波成功,也成为业界的神话,网友最新截图显示,这款应用已经在APP Store「效率」应用榜单中挤进前三。在Hugging Face中,R1下载量直接登顶,另外3个模型也霸占着热榜。a16z合伙人Anjney Midha称,一夜之间,从斯坦福到MIT,DeepSeek R1已经成为美国顶尖高校研究人员「首选模型」。还有研究人员表示,DeepSeek基本上取代了我用ChatGPT的需求。中国AI,这一次真的震撼了世界。","news_type":1},"isVote":1,"tweetType":1,"viewCount":314,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":289678269067384,"gmtCreate":1711728767165,"gmtModify":1711729751908,"author":{"id":"4173925826857352","authorId":"4173925826857352","name":"与韭A不共戴天","avatar":"https://community-static.tradeup.com/news/default-avatar.jpg","crmLevel":2,"crmLevelSwitch":0,"followedFlag":false,"idStr":"4173925826857352","authorIdStr":"4173925826857352"},"themes":[],"htmlText":"不及苹果的零头多[开心] ","listText":"不及苹果的零头多[开心] ","text":"不及苹果的零头多[开心]","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/289678269067384","repostId":"2423110431","repostType":2,"repost":{"id":"2423110431","kind":"news","pubTimestamp":1711702506,"share":"https://www.laohu8.com/m/news/2423110431?lang=&edition=full","pubTime":"2024-03-29 16:55","market":"hk","language":"zh","title":"华为2023年实现全球销售收入7042亿元,净利润870亿元","url":"https://stock-news.laohu8.com/highlight/detail?id=2423110431","media":"华尔街见闻","summary":"年销售同比增长9.63%,为2019年以来最大年度增长。","content":"<html><head></head><body><blockquote><p>华为发布2023年年度报告,报告显示,华为整体经营情况符合预期,实现全球销售收入7042亿元人民币,研发投入达到1647亿元人民币,占全年收入的23.4%,十年累计投入的研发费用超过11100亿元人民币。</p></blockquote><p style=\"text-align: justify;\">3月29日,华为发布2023年年度报告,报告显示,华为整体经营情况符合预期,实现全球销售收入7042亿元人民币,同比增长9.6%,为2019年以来最大年度增长,净利润870亿元人民币,同比增长144%。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/e3adcdec8a6a4082016020cf3ffaae80\" title=\"\" tg-width=\"1087\" tg-height=\"690\"/></p><p style=\"text-align: justify;\">其中,华为ICT基础设施业务实现销售收入3620亿元人民币,同比增长2.3%;终端业务实现销售收入2515亿元人民币,同比增长17.3%;云计算业务实现销售收入553亿元人民币,同比增长21.9%;数字能源业务实现销售收入526亿元人民币,同比增长3.5%;智能汽车解决方案业务实现销售收入47亿元人民币,同比增长128.1%。</p><p style=\"text-align: justify;\">2023年华为研发投入达到1647亿元人民币,占全年收入的23.4%,十年累计投入的研发费用超过11100亿元人民币。</p><p style=\"text-align: justify;\">轮值董事长胡厚崑表示:“2023年集团整体经营情况符合预期,过去几年,华为经历了重重考验,也在挑战中不断成长。正是客户、伙伴和社会各界的信任与支持,帮助了华为生存与发展。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/5116427db64c7ff834e451e64f92a443\" title=\"\" tg-width=\"640\" tg-height=\"434\"/></p><p style=\"text-align: justify;\">市场研究公司Dell'Oro Group发布的最新数据显示,华为以30%的市场份额占据2023年全球电信设备市场首位,份额上升了2%。</p><p style=\"text-align: justify;\">在3月14日-15日,华为2024年合作伙伴大会中,华为常务董事、ICT基础设施业务管理委员会主任汪涛指出,华为中国区的企业业务收入取得超过25%的快速增长,继续保持研发强力投入,2023年华为研发投入总额排全球前五。</p><p style=\"text-align: justify;\">汪涛认为,在加速行业数字化转型的过程中,华为在面向三类市场构建更加紧密的伙伴加华为的体系,不断提供更加丰富的产品解决方案和数字化装备和工具,服务好广大客户的数字化转型。</p><p style=\"text-align: justify;\">“未来五年,我们希望中国的企业业务能实现每年超过30%的快速增长。我们期待着与千行万业的伙伴们的互相扶持,彼此成就,共同拥抱行业数字化转型的星辰大海,一起来实现我们中国政企业务的快速增长。”汪涛说。</p></body></html>","source":"wallstreetcn_hot_news","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>华为2023年实现全球销售收入7042亿元,净利润870亿元</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n华为2023年实现全球销售收入7042亿元,净利润870亿元\n</h2>\n\n<h4 class=\"meta\">\n\n\n2024-03-29 16:55 北京时间 <a href=https://wallstreetcn.com/articles/3711649><strong>华尔街见闻</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>华为发布2023年年度报告,报告显示,华为整体经营情况符合预期,实现全球销售收入7042亿元人民币,研发投入达到1647亿元人民币,占全年收入的23.4%,十年累计投入的研发费用超过11100亿元人民币。3月29日,华为发布2023年年度报告,报告显示,华为整体经营情况符合预期,实现全球销售收入7042亿元人民币,同比增长9.6%,为2019年以来最大年度增长,净利润870亿元人民币,同比增长...</p>\n\n<a href=\"https://wallstreetcn.com/articles/3711649\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/e8776326a073f38b9df528ccba693d04","relate_stocks":{},"source_url":"https://wallstreetcn.com/articles/3711649","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"2423110431","content_text":"华为发布2023年年度报告,报告显示,华为整体经营情况符合预期,实现全球销售收入7042亿元人民币,研发投入达到1647亿元人民币,占全年收入的23.4%,十年累计投入的研发费用超过11100亿元人民币。3月29日,华为发布2023年年度报告,报告显示,华为整体经营情况符合预期,实现全球销售收入7042亿元人民币,同比增长9.6%,为2019年以来最大年度增长,净利润870亿元人民币,同比增长144%。其中,华为ICT基础设施业务实现销售收入3620亿元人民币,同比增长2.3%;终端业务实现销售收入2515亿元人民币,同比增长17.3%;云计算业务实现销售收入553亿元人民币,同比增长21.9%;数字能源业务实现销售收入526亿元人民币,同比增长3.5%;智能汽车解决方案业务实现销售收入47亿元人民币,同比增长128.1%。2023年华为研发投入达到1647亿元人民币,占全年收入的23.4%,十年累计投入的研发费用超过11100亿元人民币。轮值董事长胡厚崑表示:“2023年集团整体经营情况符合预期,过去几年,华为经历了重重考验,也在挑战中不断成长。正是客户、伙伴和社会各界的信任与支持,帮助了华为生存与发展。市场研究公司Dell'Oro Group发布的最新数据显示,华为以30%的市场份额占据2023年全球电信设备市场首位,份额上升了2%。在3月14日-15日,华为2024年合作伙伴大会中,华为常务董事、ICT基础设施业务管理委员会主任汪涛指出,华为中国区的企业业务收入取得超过25%的快速增长,继续保持研发强力投入,2023年华为研发投入总额排全球前五。汪涛认为,在加速行业数字化转型的过程中,华为在面向三类市场构建更加紧密的伙伴加华为的体系,不断提供更加丰富的产品解决方案和数字化装备和工具,服务好广大客户的数字化转型。“未来五年,我们希望中国的企业业务能实现每年超过30%的快速增长。我们期待着与千行万业的伙伴们的互相扶持,彼此成就,共同拥抱行业数字化转型的星辰大海,一起来实现我们中国政企业务的快速增长。”汪涛说。","news_type":1},"isVote":1,"tweetType":1,"viewCount":990,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0}],"defaultTab":"following","isTTM":false}