精品免费一区_性中国熟妇videofreesexwww_国产区二区三区_8050国产精品久久久久久_精品人妻无码一区二区三区蜜桃_国产免费无遮挡吸奶头视频

OpenAI 由英偉達(dá)轉(zhuǎn)向谷歌 TPU,中昊芯英 TPU 技術(shù)路線獲印證

來源:投影時(shí)代 更新日期:2025-07-04 作者:佚名

    北京時(shí)間 2025 年 6 月 28 日,路透社報(bào)道,OpenAI 已開始租用谷歌的 TPU 為其 ChatGPT 及其他 AI 產(chǎn)品提供算力支持。此舉標(biāo)志著作為英偉達(dá) GPU 長期以來的最大采購商之一的 OpenAI,也開始在其 AI 大模型運(yùn)算中實(shí)質(zhì)性地大規(guī)模使用非英偉達(dá) GPU 算力。

    早在去年 6 月,OpenAI 就傳出正在積極從谷歌 TPU 團(tuán)隊(duì)招募頂尖研發(fā)人才,自研 AI 專用芯片。而除OpenAI 外,蘋果、Anthropic、Safe Superintelligence、Cohere 等公司也一直租用谷歌云的 TPU 用于 AI 大模型訓(xùn)練及推理。北美 AI 巨頭公司們的戰(zhàn)略轉(zhuǎn)向凸顯了 AI 行業(yè)更廣泛的變革趨勢:領(lǐng)先的大模型開發(fā)商都在積極探索英偉達(dá) GPU 之外的替代方案,尋求基礎(chǔ)設(shè)施多元化,擁抱以 TPU 為代表的 AI 專用芯片的新架構(gòu)方向。

OpenAI 轉(zhuǎn)向谷歌 TPU 的三重動(dòng)因

    OpenAI 是當(dāng)下 AI 大模型浪潮的引爆者和代表者。長期以來,OpenAI 使用英偉達(dá) GPU 進(jìn)行 ChatGPT 模型訓(xùn)練(即通過大規(guī)模數(shù)據(jù)集和復(fù)雜的神經(jīng)網(wǎng)絡(luò)架構(gòu),訓(xùn)練出一個(gè)具備強(qiáng)大學(xué)習(xí)和推理能力的深度神經(jīng)網(wǎng)絡(luò)模型)和推理工作負(fù)載(即讓已訓(xùn)練好的模型可以依據(jù)用戶需求實(shí)時(shí)生成預(yù)測),OpenAI 既是英偉達(dá) GPU 最早被用于 AI 計(jì)算場景的天使客戶之一,也是英偉達(dá)GPU的長期最大采購商之一。

    然而,隨著大模型計(jì)算需求和復(fù)雜度的指數(shù)級(jí)增長,傳統(tǒng) GPU 架構(gòu)芯片在用于大模型訓(xùn)練時(shí)的成本高、算力利用率低、能耗大的局限日益凸顯。不斷上漲的 GPU 計(jì)算成本和供應(yīng)限制,促使 OpenAI 探索替代性 AI 芯片方案。通過接入谷歌云(Google Cloud)對外開放的TPU資源(早年僅供谷歌內(nèi)部使用),OpenAI 得以利用專為張量計(jì)算優(yōu)化的專用芯片,有望降低單次模型計(jì)算成本,并獲得獨(dú)特的性能表現(xiàn)。

    OpenAI 的這一決策源于三方面因素的共同作用:

    ·  成本效益: TPU 專為深度學(xué)習(xí)的核心——大規(guī)模矩陣與張量運(yùn)算而打造。相較于通用 GPU,其單位功耗吞吐量高,片上內(nèi)存層級(jí)設(shè)計(jì)激進(jìn),通常能為訓(xùn)練和推理實(shí)現(xiàn)更低的總體成本。

    ·  供應(yīng)鏈韌性: 算力供應(yīng)商多元化可降低風(fēng)險(xiǎn),避免因英偉達(dá)面臨生產(chǎn)壓力、分配延遲、其他行業(yè)需求激增而導(dǎo)致的瓶頸,確保其研究實(shí)驗(yàn)和大規(guī)模部署所需算力可以不間斷。

    ·  軟件生態(tài)集成:谷歌 TPU 成熟的全棧軟件生態(tài)——包括與 XLA 編譯器緊密耦合的 TensorFlow 框架、TPU 專用運(yùn)行時(shí)、性能分析工具以及谷歌云上的托管服務(wù),可以極大簡化大型 AI 應(yīng)用的模型開發(fā)、調(diào)優(yōu)與部署流程,顯著降低工程負(fù)擔(dān),縮短產(chǎn)品上線周期。

    

TPU 芯片:為 AI/ML 而生的架構(gòu)

    GPU 最初設(shè)計(jì)用于圖形處理,尤其是實(shí)時(shí)渲染和圖像處理,因此對其中體面結(jié)構(gòu)的矩陣和向量運(yùn)算做了專門優(yōu)化,后來逐漸發(fā)展成為通用計(jì)算設(shè)備(GPGPU)。GPU 具有大量結(jié)構(gòu)較為簡單的并行處理單元,適合處理高度并行的任務(wù),如圖形渲染和科學(xué)計(jì)算,因此被廣泛應(yīng)用于計(jì)算機(jī)圖形學(xué)、游戲開發(fā)、視頻編碼/解碼、深度學(xué)習(xí)訓(xùn)練和推理。

    TPU 是谷歌專為加速機(jī)器學(xué)習(xí)和深度學(xué)習(xí)任務(wù)而設(shè)計(jì)的專用芯片,特別是針對深度學(xué)習(xí)模型的訓(xùn)練和推理。TPU 針對張量運(yùn)算進(jìn)行了高度優(yōu)化,單個(gè)的脈動(dòng)陣列架構(gòu)吞吐量和處理效率相較 GPU 有了更大提升,特別適合于處理矩陣乘法等常見于神經(jīng)網(wǎng)絡(luò)的操作,主要用于機(jī)器學(xué)習(xí)和深度學(xué)習(xí)模型的訓(xùn)練和推理,特別是使用 TensorFlow 框架的任務(wù)。

    相較于傳統(tǒng) GPU 架構(gòu),TPU 設(shè)計(jì)具有多項(xiàng)優(yōu)勢:

    ·  緊密集成的內(nèi)存與計(jì)算單元:每個(gè) TPU 核心集成了大容量、高帶寬的片上內(nèi)存,并與矩陣乘法單元緊密耦合,顯著降低了數(shù)據(jù)移動(dòng)延遲和功耗。

    ·  高效推理:這種緊密集成使得 TPU 能在更低能耗下實(shí)現(xiàn)持續(xù)的高吞吐量推理,這對于日處理數(shù)百萬請求的推理工作負(fù)載至關(guān)重要。

    ·  優(yōu)化的集群互聯(lián):TPU 集群配備了精簡高效的互聯(lián)結(jié)構(gòu),專為分布式模型訓(xùn)練固有的集體通信模式優(yōu)化,相較于傳統(tǒng)的 GPU 加速集群,可帶來更優(yōu)的擴(kuò)展性和資源利用效率。

    

AI 算力硬件競爭的關(guān)鍵轉(zhuǎn)折

    OpenAI 采用谷歌 TPU,打破了英偉達(dá) GPU 在 AI 算力基礎(chǔ)設(shè)施領(lǐng)域霸主地位不可撼動(dòng)的觀念。長期占據(jù)主導(dǎo)地位的英偉達(dá),如今面臨著來自作為主要終端用戶的 AI 大模型提供商們尋求算力利用率、成本控制與供應(yīng)靈活性替代方案的真實(shí)壓力。谷歌云則贏得了 OpenAI 這一標(biāo)桿客戶,進(jìn)一步印證了其觀點(diǎn):在特定 AI 工作負(fù)載上,TPU 性能可媲美甚至超越 GPU。

    與此同時(shí),OpenAI 的這一舉措是 AI 硬件行業(yè)多元化浪潮的一部分,已有越來越多的世界頂尖科技公司在積極研發(fā)自己的 TPU 或類 TPU 架構(gòu)的 AI 專用芯片,并已得到了眾多領(lǐng)先 AI 大模型企業(yè)的廣泛采用:

    ·  早在 2019 年,英特爾就收購了來自以色列的 AI 芯片制造商 Habana Labs,并在2024年 4 月推出了專攻深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)推理的類 TPU 芯片 Gaudi 3;預(yù)計(jì)2025 年初,IBM Cloud 將率先部署英特爾 Gaudi 3 AI 加速器;

    ·  2023 年 7 月的 xAI 會(huì)議上,特斯拉以及 X(即 Twitter)的 CEO 馬斯克公開宣布了特斯拉正在自研芯片且一定不會(huì)將其稱為 GPU,暗示著特斯拉可能正在開發(fā)一種與傳統(tǒng) GPU 不同的芯片架構(gòu),以滿足特斯拉的需求;

    ·  2023 年 11 月,微軟在其全球技術(shù)大會(huì) Ignite 上宣布推出專為 Azure 云服務(wù)和 AI 工作負(fù)載設(shè)計(jì)的 ASIC 芯片 Maia 100,預(yù)計(jì) 2026 年正式發(fā)布;

    ·  2023 年11月底,AWS 在其“AWS re:Invent 2023”大會(huì)發(fā)布了為生成式 AI 和機(jī)器學(xué)習(xí)訓(xùn)練設(shè)計(jì)的云端 AI 算力芯片 Trainium 2;2024 年底,AWS 與 Anthropic 官宣共同打造名為 Project Rainier 的 EC2 UltraCluster,將使用數(shù)十萬片 Trainium2 芯片;

    ·  2024 年 7 月 30 日,蘋果公司發(fā)布了研究論文表示,Apple使用了谷歌的2048 片 TPUv5p 芯片及 8192 片 TPUv4 芯片——而非英偉達(dá)的 GPU 芯片,來訓(xùn)練其人工智能系統(tǒng)“蘋果智能”(Apple Intelligence)中的 AI 模型 Apple Foundation Model;

    ······

    北美人工智能和半導(dǎo)體圈正在發(fā)生的AI算力硬件的轉(zhuǎn)向,AI芯片市場也進(jìn)入了更具競爭性的新階段。

    

中昊芯英國產(chǎn)全自研 TPU AI芯片公司

    中昊芯英作為國內(nèi)唯一一家掌握 TPU 架構(gòu)AI 專用芯片核心技術(shù)并實(shí)現(xiàn)全自研 TPU 芯片量產(chǎn)的公司,核心創(chuàng)始團(tuán)隊(duì)組建于 2018 年,其創(chuàng)始人及 CEO 楊龔軼凡曾作為谷歌 TPU 芯片核心研發(fā)者,深度參與過 TPU v2/3/4 的設(shè)計(jì)與研發(fā)工作。繼 Apple 之后,OpenAI 對 TPU 的選擇,再一次有力驗(yàn)證了當(dāng)下中昊芯英所堅(jiān)持走的TPU技術(shù)路線。

    TPU 為 AI 大模型而生的天然優(yōu)勢架構(gòu),使其在面向 AI 計(jì)算場景時(shí),在同等生產(chǎn)制程下相較于 GPU 可以擁有 3-5 倍的性能提升。以中昊芯英歷時(shí)近五年全自研的國內(nèi)首枚已量產(chǎn) TPU AI 芯片“剎那®”為例,“剎那®”在處理大規(guī)模 AI 模型運(yùn)算時(shí)與英偉達(dá)當(dāng)代的先進(jìn)芯片相比,計(jì)算性能可以超越其近 1.5 倍,在完成相同訓(xùn)練任務(wù)量時(shí)的能耗降低 30%,將價(jià)格、算力和能耗綜合測算,“剎那®”的單位算力成本僅為其 42%。

    OpenAI 擁抱谷歌TPU也許并不意味著英偉達(dá) GPU 時(shí)代的終結(jié),但它清晰地宣告了以 TPU 主導(dǎo)的AI專用算力基礎(chǔ)設(shè)施的時(shí)代已然到來。成本壓力、供應(yīng)鏈波動(dòng)以及模型規(guī)模的持續(xù)膨脹,必將使得效率因素比傳統(tǒng)供應(yīng)商優(yōu)勢更重要。在這種環(huán)境下,專用張量處理器——無論是來自谷歌、AWS 這樣的科技巨頭,還是中昊芯英、Cerebras、Groq 這樣的新興企業(yè)——將塑造大規(guī)模 AI 的下一篇章。

廣告聯(lián)系:010-82755684 | 010-82755685 手機(jī)版:m.pjtime.com官方微博:weibo.com/pjtime官方微信:pjtime
Copyright (C) 2007 by PjTime.com,投影時(shí)代網(wǎng) 版權(quán)所有 關(guān)于投影時(shí)代 | 聯(lián)系我們 | 歡迎來稿 | 網(wǎng)站地圖
返回首頁 網(wǎng)友評論 返回頂部 建議反饋
快速評論
驗(yàn)證碼: 看不清?點(diǎn)一下
發(fā)表評論
主站蜘蛛池模板: 国产精品美女久久久久av爽 | 国产麻豆成人精品av | www四虎影视 | 亚州国产精品久久久 | 国产一区二区中文字幕 | 一本久久a久久精品综合 | 欧美日韩激情在线 | 国产免费人成视频在线播放播 | 极品少妇的粉嫩小泬视频 | 久久厕所偷拍视频 | 亚洲综合AV一区二区三区 | 亚洲午夜精 | 国产莉萝无码AV在线播放 | 日本少妇高潮喷水XXXXXXX | 人人妻人人妻人人片色av | 国产AV无码专区亚洲AV | 成人毛片18女人毛片免费 | 影视在线观看免费观看 | 在线视频免费观看 | 欧美日韩在线观看视频网站 | 丰满少妇xbxb毛片日本视频 | 久久99精品一区二区三区 | av亚洲成人| 国产男女乱淫视频高清免费 | 手机黄色在线视频 | 国产在线观看99 | 久久久亚洲欧洲日产国产成人无码 | 老少配性视频免费xxx | 日韩人妻一区二区三区久久 | 国产一二区免费视频 | 国产区第一页 | 日本牲交大片无遮挡 | 久热精品视频在线观看 | 九九热视频这里只有精品 | 亚洲无码avvv久久影院 | 日本中文字幕一区二区 | 亚洲精品影视在线观看 | 亚洲成亚洲成网 | 劲爆欧美精品36页 | 一区视频免费在线观看 | 伊人久久大香伊蕉在人线观看热v |