#GPU 伺服器
Explore tagged Tumblr posts
Text
從 RTX 到 H100:實測比較不同 GPU 在 AI 任務下的效能與成本
在 AI 時代,從大語言模型(LLM)、圖像生成到模型微調訓練,無不依賴 GPU 的強大運算力。但面對 RTX 系列、資料中心級的 A100 / H100,甚至最新一代 RTX 5090,該如何選擇最適合的 GPU 解決方案?本篇將以實測數據解析效能與成本,協助你在部署 AI 應用時,選出性價比最優的 GPU 主機。
#AI GPU 選擇#AI Server#AI 主機#AI 伺服器#AI主機租用#GPU Server#GPU 主機#GPU 主機租用#GPU 伺服器#H100 vs A100#LLM 推論部署#LoRA 微調主機#RTX 5090 效能比較#Stable Diffusion GPU 建議#TAKI Cloud GPU#實體主機
0 notes
Text
Supermicro推出新伺服器,搭載 256 顆 NVIDIA GPU 提升 AI 與 3D 效能
Supermicro最近推出全新機架伺服器,單一擴充單元內可配置最多256個最先進的NVIDIA PCIe GPU,這不僅大幅提升了3D與AI工作負載效能,也特別針對NVIDIA Omniverse的大規模部署進行了最佳化。 Supermicro 這次推出的新型SuperCluster為企業提供了便捷的AI基礎架構解決方案。這款系統結合最新的 Supermicro NVIDIA OVX 技術,讓企業在面對日益增長的工作負載時,能夠輕鬆擴充規模,應對多樣化的需求。 Continue reading Supermicro推出新伺服器,搭載 256 顆 NVIDIA GPU 提升 AI 與 3D 效能
0 notes
Text
Intel 靠什麼賺錢?
在台灣的科技產業中,Intel無疑是一個令人矚目的巨頭。想像一下,您正在使用最新的筆記型電腦,流暢地進行多任務處理,這背後的推動力正是Intel的處理器。那麼,Intel究竟靠什麼賺錢呢? 首先,intel的核心業務來自於其高效能的中央處理器(CPU),這些處理器被廣泛應用於個人電腦、伺服器及各類智能設備中。隨著5G、人工智慧和物聯網的興起,對高效能計算的需求日益增加,intel憑藉其技術領先地位,持續吸引著全球客戶的目光。 此外,Intel也在不斷擴展其產品線,包括圖形處理單元(GPU)、記憶體和存儲解決方案等,這些都是未來數位轉型的重要組成部分。透過不斷的研發投入和創新,Intel不僅保持了市場競爭力,還開創了新的收入來源。 總之,Intel的成功不僅僅依賴於其產品的銷售,更在於其對未來科技趨勢的敏銳洞察和持續創新的能力。這使得Intel在全球科技市場中,始終佔有一席之地。 文章目…
0 notes
Text
AMD賣什麼?
在台灣的科技市場中,AMD無疑是一個引人注目的名字。想像一下,一位遊戲愛好者正坐在他的電腦前,準備進入一場激烈的對戰。他知道,選擇合適的硬體是勝負的關鍵,而這時,他心中浮現出AMD這個品牌。為什麼?因為AMD不僅提供高效能的處理器和顯示卡,更以其卓越的性價比而聞名。 AMD主要賣的是高性能計算產品,包括Ryzen系列處理器、Radeon系列顯示卡,以及伺服器用EPYC處理器等。這些產品廣泛應用於遊戲、專業設計及數據中心等領域。在競爭日益激烈的市場上,AMD憑藉著創新的技術與持續優化,不斷挑戰傳統巨頭,使得消費者獲得更好的使用體驗。 如果你正在考慮升級你的電腦或伺服器,不妨深入了解一下AMD所提供的解決方案,它們可能會成為你成功路上的最佳夥伴。 文章目錄 AMD 產品全解析:從 CPU 到 GPU,打造你的高效能體驗 AMD…
0 notes
Text
Deepseek-v3


DeepSeek-v3大模型橫空出世,以1/11算力訓練出超過Llama 3的開源模型,震撼了整個AI圈。
緊接著,「雷軍開千萬年薪挖DeepSeek研究員羅福莉」的傳聞,也使得人們把目光聚焦向DeepSeek的人才。
這下不只科技圈,全網都在好奇,連小紅書上都有人發帖詢問,這究竟是一隻怎樣的團隊?國際上,也有人把創始人樑文鋒的訪談翻譯成英語,還加了註釋,試圖從中尋找這家公司崛起的蛛絲馬跡。量子位整理各種資料發現,DeepSeek團隊最大的特點就是年輕。應屆生、在讀生,特別是來自清北的應屆生在其中非常活躍。他們中的一些人,2024年一邊在DeepSeek搞研究,另一邊新鮮熱乎的博士學位論文剛評上獎。他們中有的參與了從DeepSeek LLM v1到DeepSeek-v3的全程,有的只是實習了一段時間也做出重要成果。為DeepSeek提出MLA新型注意力、GRPO強化學習對齊演算法等關鍵創新的,幾乎都是年輕人。
DeepSeek核心成員揭祕
2024年5月釋出的DeepSeek-V2,是致使這家大模型公司破圈的關鍵一環。其中最重要的創新是提出了一種新型注意力,在Transformer架構的基礎上,用MLA(Multi-head Latent Attention)替代了傳統的多頭注意力,大幅減少了計算量和推理視訊記憶體。在一眾貢獻者中,高華佐和曾旺丁為MLA架構做出了關鍵創新。高華佐非常低調,目前只知道是北大物理系畢業。
另外,在「大模型創業六小強」之一階躍星辰的專利資訊中也可以看到這個名字,暫不確定是否是同一人。而曾旺丁來自北郵,研究生導師是北郵人工智慧與網路搜尋教研中心主任張洪剛。
DeepSeek-V2工作中還涉及到了另一項關鍵成果——GRPO。
DeepSeek-V2釋出前三個月,DeepSeek-Math問世,其中提出了GRPO(Group Relative Policy Optimization)。
GRPO是PPO的一種變體RL演算法,放棄了critic模型,而是從群體得分中估算baseline,顯著減少了訓練資源的需求。GRPO在圈內得到廣泛關注,另一家國內開源大模型阿里Qwen 2.5的技術報告中也透露用到了GRPO。DeepSeekMath有三位核心作者是在DeepSeek實習期間完成的工作。
核心作者之一邵智巨集是清華互動式人工智慧(CoAI)課題組博士生,師從黃民烈教授。他的研究領域包括自然語言處理、深度學習,特別對如何能構建一個穩健且可擴充套件的AI系統感興趣,這個AI系統能利用多樣化的技能整合異構資訊,並能準確回答各種複雜的自然語言問題。
邵智巨集之前還曾在微軟研究院工作過。DeepSeekMath之後,他還參與了DeepSeek-Prover、DeepSeek-Coder-v2、DeepSeek-R1等專案。另一位核心作者朱琪豪是北大計算機學院軟體研究所2024屆博士畢業生,受熊英飛副教授和張路教授指導,研究方向為深度程式碼學習。據北大計算機學院官方介紹,朱琪豪曾發表CCF-A類論文16篇。在ASE和ESEC/FSE上分別獲得ACM SIGSOFT傑出論文獎一次,提名一次。一篇論文進入ESEC/FSE會議同年的引用前三名。
在DeepSeek團隊,朱琪豪還基於他的博士論文工作,主導開發了DeepSeek-Coder-V1。
其博士論文《語言定義感知的深度程式碼學習技術及應用》也入選了2024CCF軟體工程專業委員會博士學位論文激勵計劃。
還有一位核心作者同樣來自北大。北大博士生Peiyi Wang,受北京大學計算語言學教育部重點實驗室穗志方教授指導。除了DeepSeek-V2 MLA、DeepSeekMath GRPO這兩項關鍵破圈成果,值得一提的是,還有一些成員從v1就加入其中,一直到v3。
代表人物之一代達勱,2024年博士畢業於北京大學計算機學院計算語言所,導師同樣��穗志方教授。
代達勱學術成果頗豐,曾獲EMNLP 2023最佳長論文獎、CCL 2021最佳中文論文獎,在各大頂會發表學術論文20篇+。
2024年中國中文資訊學會「博士學位論文激勵計劃」共入選10篇來自中國大陸高校的博士畢業論文,其中就有他的《預訓練語言模型知識記憶的機理分析及能力增強關鍵技術研究》。
以及北大元培學院的王炳宣。
王炳宣來自山東煙臺,2017年進入北大。碩士畢業加入DeepSeek,參與了從DeepSeek LLM v1開始的一系列重要工作。清華這邊的代表人物還有趙成鋼。
趙成鋼此前是衡水中學資訊學競賽班成員,CCF NOI2016銀牌得主。之後趙成鋼進入清華,大二時成為清華學生超算團隊正式成員,三次獲得世界大學生超算競賽冠軍。趙成鋼在DeepSeek擔任訓練/推理基礎架構工程師,有英偉達實習經歷。DeepSeek是一支怎樣的團隊,這些鮮活的個體,足以引發人們的讚歎。但還不足以回答最初的問題,DeepSeek到底是一支怎樣的團隊?有怎樣的組織架構?
答案或許還要從創始人樑文鋒身上找。
早在2023年5月,DeepSeek剛剛宣佈下場做大模型,還沒釋出成果的時候,樑文鋒在接受36氪旗下「暗涌」採訪時透露過招人標準。
看能力,而不是看經驗。
我們的核心技術崗位,基本以應屆和畢業一兩年的人為主。從後面一年多陸續發表的論文貢獻名單中也可以看出,確實如此,博士在讀、應屆以及畢業一兩年的成員佔很大一部分。即使是團隊leader級別也偏年輕化,以畢業4-6年的為主。例如領導DeepSeek的後訓練團隊的吳俁,2019年北航博士畢業、在微軟MSRA參與過小冰和必應百科專案。
吳俁博士期間接受北航李舟軍教授和MSRA前副院長周明博士的聯合培養。與他師出半個同門的是郭達雅,中山大學印鑑教授與MSRA周明博士聯合培養,2023年博士畢業。
2024年7月他加入DeepSeek,主要參與了一系列數學和程式碼大模型的工作。郭達雅上學期間還有一項事蹟,本科期間在MSRA實習一年裏發表兩篇頂會論文,他笑稱「在剛入學的第三天,就完成了中大博士生的畢業要求。」除了團隊成員年輕化之外,DeepSeek在國內AI公司中突出的特點:非常重視模型演算法和硬體工程的配合。
DeepSeek v3論文總共200位作者,並不都是負責AI演算法或資料。
有這樣一批人從早期的DeepSeek LLM v1到v3一直都在參與,他們更多偏向算力的部分,負責優化硬體。他們以DeepSeek AI的名義發表了論文《Fire-Flyer AI-HPC》,通過軟硬體協同設計降低訓練成本,解決傳統超算架構在AI訓練需求上的不足。Fire-Flyer也就是幻方AI搭建的螢火2號萬卡叢集,使用英偉達A100 GPU,卻做到相比英偉達官方的DGX-A100伺服器有成本和能耗的優勢。這支團隊中有的人在英偉達工作或實習過,有的來自同在杭州的阿里雲,也有許多人從幻方AI借調又或乾脆轉崗到DeepSeek,參與了每一項大模型工作。而如此重視軟硬體協同的成果,就是以Llama 3 405B的1/11算力,訓練出效能更高的DeepSeek-v3了。
最後,我們還發現DeepSeek開源專案中有一個特別的存在,不是語言模型相關工作,卻是3D生成相關。
這項成果由清華博士生孫景翔在DeepSeek實習期間,與導師劉燁斌以及DeepSeek成員合作完成。像這樣實習生在DeepSeek做出重要成果的還有中山大學邏輯學專業的辛華劍。
他在DeepSeek實習期間參與了用大模型證明數學定理的DeepSeek-Prover,現在在愛丁堡大學讀博士。看過這些例子,再一次回到樑文鋒的訪談,或許更能理解這隻團隊的運作結構。不做前置的崗位分工,而是自然分工
每個人對於卡和人的調動是不設上限的,每個人可以隨時呼叫訓練叢集,只要幾個人都有興趣就可以開始一個專案
當一個idea顯示出潛力,也會自上而下地去調配資源。這難免讓人想起AI界另一家不可忽視的力量,沒錯就是OpenAI。同樣的用人不看經驗,本科生、輟學生只要有能力照樣招進來。同樣的重用新人,應屆生與00後可以調動資源從無到有研究Sora。同樣的面對潛力方向,整個公司從頂層開始設計佈局和資源推動。DeepSeek,可能是組織形態上最像OpenAI的一家中國AI公司了。
0 notes
Photo

#純靠北工程師8ay
----------
老闆看了管理雜誌後忽然起乩,大神上身開始宣講AI的大道理,彷彿要天下(公司)一切充滿AI,對外也要充滿AI,要恭請AI大神進入公司展現AI神聖的力量。 廠商:Nvidia GPU伺服器報價。 老闆:恩,沒事。
----------
💖 純靠北工程師 官方 Discord 歡迎在這找到你的同溫層!
👉 https://discord.gg/tPhnrs2
----------
💖 全平台留言、文章詳細內容
👉 https://init.engineer/cards/show/10762
0 notes
Text
台光電(2383 TT)
台光電公司(2383 TT)2024年第三季財務分析摘要 關鍵財務數據 9月合併營收 金額:59.41億元 環比增長:+3.5% 同比增長:+37% 備註:創單月新高 前9月累計合併營收 金額:458.15億元 同比增長:+61.2% 2024年第三季合併營收 金額:174.64億元 環比增長:+13% 同比增長:+47.1% 備註:創單季新高 業務亮點 基建及手持產品表現向上 車用產品表現優於預期 為全球HDI細線路先進製程材料領導廠商 5G手機市佔率高達90%以上 AI伺服器CCL材料全球市佔率超過6成 市場分析 產業地位及競爭優勢佳 第三季毛利率預計受惠於產品結構優化及價格調漲 未來展望 2025年成長幅度預期放緩 主力客戶B系列產品份額較H系列降低 需關注NV下一世代GPU…
0 notes
Text
NVIDIA 的成功秘笈:H100晶片在AI大潮中的崛起
在當今迅速演進的科技領域中,少有公司能夠像”NVIDIA”一樣在股市上獲得顯著的成就。NVIDIA的成功不僅得益於其在硬體領域的創新,還得益於近期人工智能的重大突破,尤其是OpenAI的ChatGPT。近期ChatGPT在全球引起了熱潮,讓AI市場受到前所未有的注目,而 A100與H100晶片在ChatGPT的突出表現,加強了市場對NVIDIA GPU強大AI處理能力的印象,直接鞏固了NVIDIA在高性能計算市場的領導地位。
在美國淘金熱時期,人們抱著離鄉背井的決心到加利福尼亞夢想自己能夠致富,但那一時期致富的大多不是掏金的人們,而是在附近賣掏金工具的店家,正如現在AI熱潮中的NVIDIA一樣,其中HI00晶片就是這時代的掏金工具。
什麼是H100
NVIDIA的H100晶片是專為高性能計算、深度學習和人工智能應用而設計的旗艦產品。以下介紹其幾個強大的特點:
Hopper GPU架構: Hopper 採用尖端台積電4奈米製程,提供了更高的計算效率和能源效率,尤其針對AI和機器學習工作負載進行了優化,是 H100 Tensor Core的動力所在。
強化的Tensor Core:H100引入了第四代Tensor Core,這些核心專門用於AI運算,尤其是深度學習訓練和推理。這些核心提供了對於矩陣運算的顯著加速,這對於訓練和運行神經網絡至關重要。
Transformer Engine:Transformer Model是一種在自然語言處理的深度學習架構。Transformer Engine專門針對這些模型的運算需求進行優化,且支援FP8與FP16精度格式。這種精度模式能夠在保持模型準確性的同時,進一步加快深度學習模型的訓練和推理速度。
H100晶片代表了在高性能計算和人工智能硬體的最新進展,其專為處理AI和深度學習工作設計使其成為當前市場上最強大的GPU之一。
市場對於AI運算的需求與兢爭對手
為了搶得未來AI市場的先機,許多公司很快的推動其AI相關計畫,因此迫切的需要能夠進行高性能運算的晶片,以下是一些主要的例子:
大型科技公司:像Microsoft和Amazon這樣的大型科技公司特別青睞H100晶片。它們正在建立以AI為中心的數據中心,顯示了這些公司對高性能AI硬件的需求日益增長。
雲端運算巨頭:像Meta、OpenAI和Stability AI這樣的雲端運算巨頭也在利用H100晶片來推動AI的下一波發展,這些公司正在使用H100 GPU來滿足生成AI訓練的激增需求。
伺服器製造商:一些領先的伺服器製造商,如Atos、Cisco、Dell Technologies、GIGABYTE、Hewlett Packard Enterprise、Lenovo和Supermicro,都提供搭載NVIDIA H100 GPU的伺服器和系統。這些公司的伺服器和系統支持廣泛的AI應用,從而使得H100晶片得以在不同領域得到廣泛應用。
自行訓練 LLM(大語言模型)的公司:既包括 Anthropic、Inflection、Midjourney 這種初創公司,也有像蘋果、特斯拉、Meta 這樣的科技巨頭。它們通常一邊使用外部雲服務商的算力,一邊自己採購 GPU 來自建爐灶。
雖然NVIDIA的H100晶片是市場上最先進的GPU之一,尤其在AI和高性能計算領域,但仍有其他幾家公司推出了競爭產品:
AMD的Radeon Instinct系列:AMD的Radeon Instinct GPU被設計用於高性能計算和深度學習應用。
Graphcore的IPU(Intelligence Processing Unit):Graphcore是一家專注於AI計算的英國公司,其IPU產品被設計來專門處理機器學習和AI工作。IPU在某些特定的AI應用中提供了與NVIDIA的GPU不同的性能和效率優勢。
Google的TPU(Tensor Processing Unit):對於特定於機器學習和人工智能的應用,Google的TPU是一個重要的選項。這些處理器專為運行TensorFlow等機器學習框架而設計,並且在某些AI工作上提供優化的性能。
結論
隨著NVIDIA於今年11月發表了其革命性的下一代晶片H200,這家科技巨頭無疑將在未來的AI市場上發揮更加重大的影響力。H200晶片的推出不僅代表了NVIDIA在高性能計算和深度學習硬件領域的持續創新,也預示著公司對於未來AI技術發展趨勢的前瞻性布局。
Reference:
Nvidia的AI晶片H100有多神?為何一片難求? (blocktempo.com)
AI 晶片霸主不保?輝達 Nvidia 面對自研 ASIC 晶片該如何回應 (growin.tv)
NVIDIA 發表全新 H200 GPU,採 HBM3e、運算推理速度翻倍|TechNews 科技新報
Hopper GPU 架構|NVIDIA
ChatGPT
0 notes
Text
如何快速部署 LLM 模型到 GPU 主機?從環境建置到服務啟動
GPU 主機 – 隨著 ChatGPT、LLaMA、DeepSeek 等大型語言模型(LLM)廣泛應用,越來越多企業與開發者希望將 LLM 模型自建於本地或 GPU 實體主機上。這樣不僅能取得更高的資料控制權,避免私密資訊外洩,也能有效降低長期使用成本,並規避商業 API 在頻率、使用量、功能上的限制與資安疑慮。
然而,部署 LLM 模型的第一道門檻往往是環境建置。從 CUDA 驅動的版本對應、PyTorch 的安裝,到 HuggingFace 模型快取與推論引擎選型,都是需要考量的技術細節。如果沒有明確指引,往往容易在初期階段耗費大量時間摸索。
這篇文章將以平易近人的方式,帶你從挑選 GPU 主機開始,逐步說明環境建置、部署流程、模型上線、API 串接、容器化管理與後續運維建議,協助你成功將 LLM 模型部署到實體主機,快速打造自己的本地 AI 推論平台。
#AI Server#AI 主機#AI 伺服器#AI主機租用#DeepSeek#GPT#GPU Server#GPU 主機#GPU 主機租用#GPU 伺服器#LLaMA#OpenAI#PyTorch#實體主機
0 notes
Text
WEKA 推出 NeuralMesh Axon,用於 AI 百億億次級運算部署
儲存技術公司 WEKA 在 RAISE SUMMIT 2025 正式發表 NeuralMesh Axon,這是一套針對百億億次級(exascale)AI 運算量身打造的儲存與運算融合架構。NeuralMesh Axon 結合 GPU 伺服器與 AI 工廠,目標簡化 AI 系統建置、提升效能,同時讓大型語言模型(LLM)和推理訓練更容易擴展,降低傳統儲存架構帶來的延遲與成本。 這項新產品已經獲得 Cohere、CoreWeave、NVIDIA 等產業領頭羊導入,並證實可顯著改善大規模 AI 訓練與推理環境下的運算效率和資源分配。 Continue reading WEKA 推出 NeuralMesh Axon,用於 AI 百億億次級運算部署
0 notes
Text
AI伺服器有哪些?
在台灣的科技浪潮中,人工智慧(AI)正如一顆璀璨的明珠,吸引著無數企業的目光。想像一下,一家新創公司,透過強大的AI伺服器,迅速分析市場趨勢,預測消費者需求,最終在競爭激烈的市場中脫穎而出。這樣的故事,正是許多企業追求的夢想。而要實現這一切,選擇合適的AI伺服器至關重要。 那麼,AI伺服器有哪些選擇呢?首先,NVIDIA的GPU伺服器以其卓越的運算能力,成為深度學習的首選。其次,Google…
0 notes
Text
Varidata
Varidata提供境外伺服器租用以及外國伺服器租用服務,覆蓋中國香港台灣,美國日本等地區,包含CN2、大頻寬、防攻擊、站群、GPU等產品價格,豐富的產品配置選項滿足搭建跨境業務的各類需求場景。海外數據中心服務商 境外伺服器
雲端 服務
1 note
·
View note
Text
超級電腦
H:徐志摩稱數大便是美,個人電腦從中央處理器CPU16位元,到64位元,電腦所稱的X286,X386,X486,X586之後一直發展。公司的電腦發展到超級電腦是怎樣的光景?「特斯拉2022年有3台Dojo超級電腦,每秒處理40萬部影片容量高達30PB。」「美國橡樹嶺實驗的Frontier系統超越1exa Flops(100萬兆浮點)。」。「最強大的Fugaku (富岳)超級電腦。」特別查一查。20230914W4
維基百科介紹:
超級電腦,指能夠執行一般個人電腦無法處理的高速運算的電腦,規格與效能比個人電腦強大許多。現有的超級電腦運算速度大都可以達到每秒一兆次以上。「超級計算」這名詞第一次出現,是在1929年《紐約世界報》關於IBM為哥倫比亞大學建造大型制表機的報導。 維基百科
最強大的Fugaku (富岳)超級電腦。
非凡新聞台報導(20230914):
特斯拉2022年有3台Dojo超級電腦,每秒處理40萬部影片容量高達30PB。
美國橡樹嶺實驗的Frontier系統超越1exa Flops(100萬兆浮點)。
網路資料
Dojo可開啟「全新的潛在市場」,就如同亞馬遜(Amazon.com Inc.)旗下的雲端運算服務子公司AWS。AWS目前為亞馬遜貢獻70%的息稅前利潤(EBIT)。
特斯拉的Dojo超級電腦由幾個「系統托盤」組成,採用該公司內部的D1晶片,這些晶片內置在機櫃中,然後合併成一個「ExaPOD」超級電腦。ExaPOD可以串聯在一起形成集群,使超級電腦更加強大。
維基百科介紹:
艾可薩(英語:exa-),又譯為艾,是一個國際單位制詞頭,符號E,代表1018倍。100萬兆,10的8次方是億,10的18次方是百萬兆。
十進位單位符號
詞冠符號10的因數petaP10的15次方teraT10的12次乡gigaG10的9次方megaM10的6次方
每秒浮點運算次數
每秒浮點運算次數,亦稱每秒峰值速度,(英語:Floating-point operations per second;縮寫:FLOPS),即每秒所執行的浮點運算次數。浮點(floating-point)指的是帶有小數的數值,浮點運算即是小數的四則運算
,常用來測量電腦運算速度或被用來估算電腦效能,尤其是在使用到大量浮點運算的科學計算領域中。因為FLOPS字尾的那個S代表秒,而不是複數,所以不能夠省略。在多數情況下,測算FLOPS比測算每秒指令數(IPS)要準確。
前沿 (超級電腦)
Frontier(OLCF-5)是由HPE Cray和AMD建造,託管於美國田納西州橡樹嶺國家實驗室的超級計算機,它基於Cray EX架構,是Summit(OLCF-4)的繼任者,也是全球首台百億億次級計算機[1]。2022年5月,Frontier獲得超級計算機運算速度全球排名第一名[2]。目前早期運營性能達到了每秒1.194百億億次每秒浮點運算次數(PFlop/s),其性能代表了整個榜單計算能力的四分之一,但該計算機尚未達到最佳優化,雖然已經超越百億億次目標但是未達到設計性能指標。
介紹
Frontier的設計目標計算性能是大於1.5 百億億每秒浮點運算次數(PFlop/s)[3][4]。預計成本6億美元。
Frontier計算系統被安裝在74個19英寸(48厘米)機櫃中,每個機櫃安裝了64個包含了2個節點的刀片服務器,每個節點帶有1個高性能和AI計算負載優化的AMD EPYC 7453s 64核CPU和4個AMD Radeon Instinct MI250X GPU 整套系統包括9,472個CPU和37,888個GPU,總計CPU內核數達606,208個,GPU內核數達8,335,360個[5]。現今Frontier的功率為22,703千瓦,為降低其在運行時產生的熱量,該系統配備水冷系統散熱,其水冷系統擁有四個大功率水泵,每分鐘可推動超過25噸水在機器周圍流動[1]。Frontier採用慧與科技子公司克雷公司開發的Cray OS做為作業系統。
橡樹嶺國家實驗室
橡樹嶺國家實驗室(英語:Oak Ridge National Laboratory,縮寫為ORNL)是美國能源部所屬的一個大型多學科研究國家實驗室[2],位於田納西州橡樹嶺。此實驗室成立於1943年,最初是作為曼哈頓計劃的一部分,以生產和分離鈾和鈽為主要目的建造的,原稱克林頓實驗室。2000年4月以後由田納西大學和巴特勒紀念研究所(英語:Battelle Memorial Institute)共同管理。
拍字節PB
PB千兆位元組
單位位元的倍數
拍位元組(英語:Petabyte,縮寫為PB)(又稱千兆位元組)是一種資訊計量單位,現今通常在標示網路硬碟、伺服器農場總容量,或具有大容量的儲存媒介時使用。
Quick Facts 位元組的次方單位, 十進制前綴 (SI) ...
使用示例
在2009年,阿凡達3D版在維塔數碼使用超過1 PB來儲存。
Google的服務器集群於2004年時的估計容量大約是5.625 PB。
美國國會圖書館的書籍與非書籍藏品數量,於2005年的估計近似值大約是10 PB。
在2012年的8月,Facebook共使用約100 PB儲存空間。
2012年為止,人類生產的所有印刷材料的數據量是200PB。[1]
Google相簿在發布1年之後,2016年5月的統計為用戶節省共約13.7 PB的存儲空間[2]。
匯豐銀行儲存全球70個國家和地區,共3,700萬客戶的資料和交易紀錄,資料總量由2014年的56 PB,激增至2017年的93 PB[3]。
《微軟模擬飛行2020》的全球地景模擬系統資料庫約為2 PB。
與其他儲存單位的換算
1PB = 1,000TB = (10)3 TB
1PB = 1,000,000GB = (10)6 GB
1PB = 1,000,000,000MB = (10)9 MB
1PB = 1,000,000,000,000KB = (10)12 KB
1PB = 1,000,000,000,000,000B = (10)15 B
另外,Petabyte往往亦可以指Pebibyte,其換算公式是:
1PiB = 1,024 TiB
1PiB = 1,048,576GiB = (1024)2 GiB
1PiB = 1,073,741,824MiB = (1024)3 MiB
1PiB = 1,099,511,627,776KiB = (1024)4 KiB
1PiB = 1,125,899,906,842,624B = (1024)5 B
富岳 (超級計算機)
日本超級電腦
富岳(日語:富岳/ふがく Fugaku */?、英語:Supercomputer Fugaku)是富士通與日本理化學研究所共同開發的超級電腦,作為「京」的後繼機型。2014年開始研發,2021年正式啟用。[2]富岳部署在兵庫縣神戶市中央區港灣人工島上的理化學研究所計算科學研究中心內,其運算能力為京的100至120倍,耗電為30百萬瓦至40百萬瓦,京的耗電為12.7百萬瓦[3]。「富岳」是富士山的別稱[4]。
Quick Facts 啟用時間, 承建商 ...

京/富岳 - SC 18展覽會

PRIMEHPC FX1000 (富岳節點) - SC 19展覽會
富岳是全球首度奪冠的ARM架構超級電腦,採用富士通48核心A64FX SoC,與過往超級電腦大多採用的Intel或AMD的x86、x64主流平台不同。富岳共有158,976個節點,尖峰性能可達到1 exaFLOPS(1,000 petaFLOPS)。富岳除了在Linpack中拿到好成績,也在HPL-AI中獲得1.421 exaFLOPS。
2020年6月23日,富岳正式獲認證,以415 PFLOPS計算速度成為TOP500排名第一的超級電腦[5]。之後同年11月17日發表的TOP 500排行榜成功蟬聯第一[6]。
神戶新交通港灣人工島線的京電腦前站於2021年6月19日更名為計算科學中心站時,將副站名同時變更為『神戶動物王國・「富岳」前』,以紀念富岳取得TOP500排行第一[7][8][9]。
2023年5月22日,日本東京工業大學、富士通、理化學研究所和東北大學宣布將利用「富岳」於研發日語生成式AI[10]。
徐志摩
數大便是美,碧綠的山坡前幾千隻綿羊,挨成一片的雪絨,是美; 一天的繁星,千萬隻閃亮的眼神,從無極的藍空中下窺大地,是美; 泰山頂上的雲海,巨萬的雲峰在晨光裏靜定著,是美; 大海萬頃的波浪,戴著各式的白帽,在日光裏動盪著,起落著,是美; 愛爾蘭附近的那個羽毛島上棲著幾千萬的飛禽, 夕陽西沉時只見一個羽化的
CPU中央處理器
蘋果電腦開始轉而採用英特爾x86處理器,2020年蘋果推出自家中央處理器M1,蘋果採用ARM架構並且CPU+GPU+RAM做在同一顆晶片。
CPU(如16,32,64甚至128位),

0 notes
Text
AI晶片有哪些?
AI時代來臨,你的手機、電腦,甚至家裡的智慧家電,都可能搭載著不同種類的AI晶片。但你知道有哪些種類嗎?它們之間又有哪些差異? 從高效能的GPU加速運算,到專精於特定任務的NPU,不同晶片架構各有其優勢。 想了解AI晶片的世界,掌握未來科技趨勢?快來一探究竟! #AI晶片 #科技趨勢 #人工智慧 文章目錄 AI晶片市場蓬勃發展,掌握趨勢方能領先 剖析各類型AI晶片,從應用場景到技術優勢 深度比較各家廠商產品,助您精準選擇 推薦策略性AI晶片投資,為未來佈局奠定基礎 常見問答 摘要 AI晶片市場蓬勃發展,掌握趨勢方能領先 人工智慧(AI)的蓬勃發展,驅動著對高效能AI晶片的迫切需求。從雲端伺服器到邊緣裝置,AI晶片正以驚人的速度滲透各個產業,為我們帶來前所未有的可能性。掌握這波浪潮,才能在競爭激烈的市場中脫穎而出。以下是AI晶片領域值得關注的關鍵趨勢。 不同類型的AI晶片: GPU…
0 notes