1. <menuitem id="k76ut"></menuitem>

    <output id="k76ut"><track id="k76ut"></track></output>

    <menuitem id="k76ut"><video id="k76ut"></video></menuitem>

    <menuitem id="k76ut"><video id="k76ut"></video></menuitem><ins id="k76ut"><option id="k76ut"></option></ins>

    Meta 訓練 Llama 3 遭遇頻繁故障:16384 塊 H100 GPU 訓練集群每 3 小時“罷工”一次

    近日消息,Meta 發布的一份研究報告顯示,其用于訓練 4050 億參數模型 Llama 3 的 16384 個英偉達 H100 顯卡集群在 54 天內出現了 419 次意外故障,平均每三小時就有一次。其中,一半以上的故障是由顯卡或其搭載的高帶寬內存(HBM3)引起的。

    近日消息,Meta 發布的一份研究報告顯示,其用于訓練 4050 億參數模型 Llama 3 的 16384 個英偉達 H100 顯卡集群在 54 天內出現了 419 次意外故障,平均每三小時就有一次。其中,一半以上的故障是由顯卡或其搭載的高帶寬內存(HBM3)引起的。

    Meta 訓練 Llama 3 遭遇頻繁故障:16384 塊 H100 GPU 訓練集群每 3 小時“罷工”一次

    由于系統規模巨大且任務高度同步,單個顯卡故障可能導致整個訓練任務中斷,需要重新開始。盡管如此,Meta 團隊還是保持了 90% 以上的有效訓練時間。

    在為期 54 天的預訓練中,共出現了 466 次工作中斷,其中 47 次是計劃中斷,419 次是意外中斷。計劃內的中斷是由于自動化維護造成的,而意外的中斷則主要源于硬件問題。 GPU 問題是導致故障的主要原因,占意外中斷的 58.7%。其中只有三起事件需要大量人工干預,其余的由自動化管理。

    在 419 個意外中斷中,148 個(30.1%)是由各種 GPU 故障(包括 NVLink 故障)引起的,而 72 個(17.2%)是由 GPU 的 HBM3 內存故障引起的。有趣的是,54 天內只有兩個 CPU 發生故障。41.3% 的意外中斷是由多種因素造成的,包括軟件錯誤、網絡電纜和網絡適配器。

    為提高效率,Meta 團隊開發了一系列工具和優化策略,包括縮短任務啟動和檢查點時間、利用 PyTorch 的 NCCL 飛行記錄器診斷性能問題、識別拖后顯卡等。此外,Meta 還關注到了環境因素的影響,如午間溫度波動對 GPU 性能的輕微影響,以及巨量 GPU 同時運行對數據中心電網的巨大壓力。

    然而,隨著人工智能模型參數量的不斷增加,所需的計算資源也隨之擴大。以 xAI 計劃中的 10 萬塊 H100 顯卡集群為例,故障率可能會成倍增長,給未來的 AI 訓練帶來更大的挑戰。

    原創文章,作者:科技探索者,如若轉載,請注明出處:http://www.doinggoodmedia.com/article/670210.html

    科技探索者的頭像科技探索者管理團隊

    相關推薦

    發表回復

    登錄后才能評論
    在线天堂а√8,噜噜狠狠色综合久色a站网址,自w到高c的26种方法图,日本丰满大乳人妻无码苍井空

    1. <menuitem id="k76ut"></menuitem>

      <output id="k76ut"><track id="k76ut"></track></output>

      <menuitem id="k76ut"><video id="k76ut"></video></menuitem>

      <menuitem id="k76ut"><video id="k76ut"></video></menuitem><ins id="k76ut"><option id="k76ut"></option></ins>