• <rp id="63vlb"><object id="63vlb"><input id="63vlb"></input></object></rp>

    <em id="63vlb"></em>

    1. <em id="63vlb"></em>

      <button id="63vlb"><acronym id="63vlb"></acronym></button>

      微信掃一掃,關注公眾號

      • 科技行者

      • 算力行者

      見證連接與計算的「力量」

      首頁 “群模大戰”背后,是兩百倍的AI算力缺口,和行業落地的最后一公里

      “群模大戰”背后,是兩百倍的AI算力缺口,和行業落地的最后一公里

      2023-07-15 10:07
      分享至:
      ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
      2023-07-15 10:07 ? 周雅

      作者|周雅

      如果不是在今年這屆WAIC2023(世界人工智能大會)的現場,你很難一次性看到這么多大模型扎堆。據悉此次參展的大模型多達30余個,僅被拿來對標“ChatGPT”的國產大語言模型,就包括:

      清華大學計算機系知識工程實驗室的千億參數中英文對話模型ChatGLM-130B、復旦大學自然語言處理實驗室的MOSS、百度“文心一言”、阿里巴巴“通義千問”、科大訊飛星火認知大模型、商湯商量中文語言大模型、云知聲山海大模型等之多。當然,這些也還只是冰山一角,據不完全統計來看,國內大模型用“群模大戰”來形容也毫不夸張。

      “群模大戰”背后,是兩百倍的AI算力缺口,和行業落地的最后一公里

      國產大模型的頃刻爆發,也導致算力的需求前所未有,增長曲線陡峭。有數據專門統計過,深度學習出現之前,用于AI訓練的算力增長大約每20個月翻一番;之后,用于AI訓練的算力大約每6個月翻一番;2012年后,全球頭部AI模型訓練算力需求更是加速到每3個月至4個月翻一番,即平均每年算力增長幅度達到驚人的10倍;目前大模型發展如火如荼,訓練算力需求有望擴張到原來的10到100倍。

      “過去兩年內,大模型帶來了750倍的算力需求增長,而硬件的算力供給增長僅有3倍。”華為昇騰計算業務總裁張迪煊在采訪中,道出大模型增長與算力供給之間的不平衡現狀。換言之,其中存在超過兩百倍的算力缺口。

      甚至,中國工程院院士、鵬城實驗室主任高文在WAIC2023期間指出,“算力也是數字經濟發展的一個指數,算力夠,數字經濟就能發展好;反之,就發展不好。”他還援引清華大學的一份2022年咨詢報告佐證觀點,“算力指數和GDP成正比,算力越強,GDP就越強。”

      這意味著,如果按照先前機構預測的“AIGC到2030年將創造一個萬億級的市場規模”,那么對于國產大模型來說,眼下最關鍵是找到高可靠性、高性價比的算力。

      一個龐大的萬卡“算力工廠”

      眾所周知,訓練AI算法需要用到大量GPU算力資源,那么大模型時代下,如何才能把可用的算力資源,變成好用的算力資源?

      業內一個行之有效的方案是,既然單個服務器難以滿足計算需求,那么為何不集中火力辦大事,可以將多個服務器連接成一臺“超級計算機”,而這臺超級計算機,就是算力集群。

      以華為舉例。2018年,華為對外發布AI戰略,開始打造昇騰AI技術軟件平臺。時至今日,華為把昇騰AI打造成了一個算力集群,它集結了華為云、計算、存儲、網絡、能源的綜合優勢。華為的理念是“DC as a Computer”,相當于把AI算力中心當成一臺超級計算機來設計。

      2019年,華為發布Atlas 900 AI訓練集群,由數千顆華為自研的昇騰910 AI芯片構成,從今年6月可支持4000張卡,到目前已經可支持8000張卡。而華為在WAIC期間宣布計劃,到今年底或明年初做到16000張卡,成為業界首個萬卡的AI集群。

      “群模大戰”背后,是兩百倍的AI算力缺口,和行業落地的最后一公里華為昇騰計算業務總裁張迪煊

      為何打造算力集群?

      張迪煊在采訪中解釋說,過去的小模型,每個場景是定制化的,導致開發成本高、變現能力差;大模型出現后,模型的泛化性越來越好、能力越來越強、可以很好去賦能各行業。“我們在那時候判斷,AI若要發展,必然要走向大模型+大算力+大數據的計算方式。”所以,昇騰AI迭代到萬卡集群,目的是讓大模型訓練越來越快。

      萬卡集群相當于什么概念?以1750億參數量的GPT-3模型訓練為例,使用單張英偉達V100顯卡,訓練時長預計要288年;8張V100顯卡的訓練時長預計要36年;512張V100的訓練時長接近7個月;而1024張A100的訓練時長,可以減少到1個月。

      按照華為的評估,訓練一個1750億參數、100B數據的GPT-3模型,在8000張卡的Atlas 900 AI集群下需要耗時1天,在16000張卡的集群下可以縮短到半天完成訓練。“就像寫代碼一樣,敲一個鍵盤,這些文件就出來了。”張迪煊形容道。

      “中國有一半左右的大模型創新,目前都是由昇騰AI來支持的。”華為輪值董事長胡厚崑在WAIC2023期間強調,“昇騰AI集群目前可以提升10%以上的大模型訓練效率,提高10倍以上的系統穩定性,支持30天不中斷的長期穩定訓練。”

      胡厚崑還公布了昇騰AI過去一年來的成績單:開發者數量從90萬到180多萬,實現了翻倍;原生孵化和適配30多個10億以上的大模型,占國產大模型的一半;目前已發展30多家硬件伙伴、1200多家ISV(獨立軟件開發商)、聯合推出2500多個行業AI解決方案;此外,昇騰AI集群已支撐全國25個城市的人工智能計算中心建設,其中7個城市公共算力平臺入選首批國家“新一代人工智能公共算力開放創新平臺”,算力規模占比90%;同時,已有23家企業推出昇騰AI系列新品,覆蓋云、邊、端智能硬件,一同提升大模型開發、訓練、微調、部署的效率。

      這里我們梳理一下,面向AI這片前景廣闊的機遇之海,華為主要走了三條路徑:

      其一,算力領域,從單點算力到集群算力,打造強有力的算力底座。這部分主要基于昇騰AI。
      其二,產業領域,堅持開源開放,來做強昇騰人工智能產業生態。這部分主打的就是政、產、學、研、用的合作。
      其三,生態領域,推動昇騰AI服務從通用大模型到行業大模型,推動AI“走深向實”。這部分目標是千行百業。

      “群模大戰”背后,是兩百倍的AI算力缺口,和行業落地的最后一公里

      大模型落到實處

      與華為的三條AI發展路徑相對應的,是公眾圍繞“大模型”的關注度變化,從早期的“是什么”“為什么”轉而開始關心“怎么用”,換句話說,此刻更多人開始關心“大模型真正能發揮作用的場景在哪里”。

      這時候,一個相對細分的行業大模型就被注意到了。

      “東方·翼風”,是由中國商飛上海飛機設計研究院開發的三維超臨界機翼流體仿真大模型,能高精度模擬大飛機全場景飛行狀況,而且用時僅為原來的千分之一,相當于將大飛機三維翼型設計速度提升1000倍,縮短了商用大飛機的研發周期。

      要知道,一架飛機在飛行過程中50%的阻力來自于翅膀,所以如何造出一個滿足飛機飛行要求的機翼,是非常重要的。根據中國商用飛機有限責任公司科技委常委、遠程寬體客機總設計師陳迎春的介紹,目前大型客機的設計主要采用三種手段:數值仿真模擬、風洞實驗和飛行實驗,這三種互為補充。

      但其中「數值仿真模擬」耗時長、成本高,是飛機設計的一大瓶頸;而「飛行實驗」和「風洞實驗」也很費錢,所以傳統的數值模擬方法算不動、算不快。要解決這個問題,唯有用到AI技術。

      “東方·翼風”大模型因為有AI的加持,實現了效率、精度、模型、場景四個層面的突破:第一,在效率方面,用AI模型代替傳統Navier-Stokes方程求解,大幅提升了全局仿真效率。第二,在精度方面,對流動劇烈變化區域特征進行精細捕捉,比如在飛機巡航階段的機波現象,提升了模型的預測精度。第三,在模型方面,建立大數據樣本下模型組件化與分布式并行能力,大幅提升了新模型研發效率。第四,在場景方面,建立了流體到AI的數據統一映射,適用汽車、高鐵等多種仿真場景。

      如果進一步剖析商飛的“東方·翼風”大模型,它有兩個必備條件:其一,大模型的技術底座,這部分來自華為的昇騰AI;其二,流體領域的設計思路、專家經驗、行業數據,這部分是商飛的范疇。

      從這里可見大模型的發展邏輯:當技術的觸角深入應用到各個行業場景里,帶來整個商業系統的健康運轉,進而帶動產業高質量發展。在這個過程中,技術廠商和行業廠商各司其職、互補共生。

      “整個產業是有分工的,昇騰主要是做好算力,不會去碰大模型。”張迪煊在采訪中也強調。

      如何打通 “最后一公里”?

      談及爆發式增長的大模型,張迪煊坦言,如今雖是“百模大戰”,但未來重點卻應該是各有分工。

      其中,L0通用大模型只有一部分大廠能“燒”得起,更多企業做的是L1行業大模型,還有一部分在做場景大模型。比如金融行業,由于L0缺乏行業屬性,因此一些企業會拿L1的模型去做金融大模型,然后結合一些細分場景需要(比如精準營銷的、風險風控的、智能客服的)再去做一個場景大模型。這是一個產業趨勢。

      在張迪煊看來,大模型的商業競爭即將開啟,大家一方面會快速造模型,另一方面會快速搶占格局,但之后形勢會有所收斂。

      當有了大算力、大模型,如何打通行業落地最后一公里?

      目前,整個行業的痛點是大模型研發周期長、部署門檻高、業務安全性等。為了解決這個難題,華為與面壁智能、智譜AI、科大訊飛、云從科技四家伙伴共同發布大模型訓推一體化解決方案,通過共同設計、聯合開發、協同上市、持續迭代,為行業客戶提供“開箱即用”的大模型一體化解決方案。

      “客戶只需選擇合適的大模型,輸入行業數據,即可以完成大模型的訓練、微調、推理的全流程。”張迪煊指出,“華為做到了在精度小于千分之五的范圍內,實現20倍以上的模型壓縮,幫助大模型壓縮后用到場景中,降低部署難度和開發成本。”

      “昇騰AI支持了中國近一半的原創大模型,也是目前國內唯一完成千億參數大模型訓練并商用的系統。”,張迪煊最后看似輕松的給出這樣一組數字。

      分享至
      5贊

      好文章,需要你的鼓勵

      周雅

      Miranda
      關注科技創新、技術投資。以文會友,左手硬核科技,右手浪漫主義。
      推薦文章
      • 獎勵設計:讓AI學會智能使用工具的關鍵
        2025-04-23 17:39

        獎勵設計:讓AI學會智能使用工具的關鍵

        想象一下,你有一個非常聰明的朋友,他知道很多知識,但每當需要使用計算器、搜索引擎或查詢最新天氣時,卻變得像個笨手笨腳的孩子。這正是當前大語言模型(簡稱LLMs,如ChatGPT這類AI系統)面臨的尷尬處境。

      • ToolRL:獎勵設計是工具學習所需的全部
        2025-04-23 17:34

        ToolRL:獎勵設計是工具學習所需的全部

        想象一下,你擁有一個聰明的助手,它知道很多知識,但在面對需要使用計算器、搜索引擎或查詢最新信息時卻顯得笨手笨腳。這正是當前大語言模型(LLMs)面臨的困境。雖然這些模型已經通過監督微調(SFT)學會了使用工具的基本能力,但它們常常在面對復雜或不熟悉的場景時表現不佳。

      • X-Teaming:使用自適應多智能體進行多輪越獄攻擊和防御
        2025-04-23 14:08

        X-Teaming:使用自適應多智能體進行多輪越獄攻擊和防御

        想象你正在和一個智能助手聊天。如果你直接要求它提供有害信息,它很可能會禮貌拒絕。但如果你通過一系列看似無害的對話,逐步引導它走向你的真實目標呢?這就是當前AI安全領域面臨的一個嚴峻挑戰——多輪對話中的安全漏洞。

      • "思考操縱":用外部思考讓大型推理模型更高效
        2025-04-22 16:43

        "思考操縱":用外部思考讓大型推理模型更高效

        想象你在使用一個非常聰明的AI助手完成一項復雜任務,比如解決一道數學難題。你可能注意到這個助手會花很長時間"思考",一步一步寫下大量推理過程,最后才給出答案。雖然這種詳細的思考過程確實幫助AI做出了更準確的判斷,但同時也帶來了一個明顯的問題:它太"啰嗦"了,消耗了大量的計算資源和時間。

      ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
      一级毛片视频免费播放在线,哪个网址可以看毛片,色费女人18女人毛片免费视频,一级A黄毛片