權重轉移是執行高容量模型的分散式強化學習時最大的瓶頸之一。 我們的第一篇 Perplexity Research 博客解釋了 Perplexity 的推理工程師如何利用 RDMA 點對點通信來解鎖超快速的參數更新,適用於萬億參數模型。 通過利用低級 RDMA 原語、靜態調度和管道化,我們將更新速度提高了十倍,僅需 1.3 秒每次更新。