徐宏力

電 話:0512-87161305

E-Mail:xuhongli@ustc.edu.cn

課題組主頁:https://int-ustc.github.io/     

主要研究方向:雲計算/軟件定義網絡,智能網絡/邊緣計算,物聯網/計算機網絡


徐宏力,男,1980年8月生,教授,國家基金委優秀青年科學基金獲得者,現任188滚球网 黨委書記。2002年畢業於中國科學技術大學計算機科學技術係,獲碩博連讀資格;2007年6月獲得計算機軟件與理論專業的博士學位,畢業留校任教。近年來,作為負責人主持了國家自然科學基金(4項)、博士後特別資助、博士後基金(一等)、中科院院長基金及省科學基金等項目。而作為核心技術骨幹參與了973(2項)、863(1項)、國家科技重大專項(3項)、國家發改委CNGI(2項)、國家自然基金重點等十多個項目。


近年來,已在主流的國際期刊和會議上發表SCI/EI論文120多篇,包括IEEE/ACM Trans.論文18篇,CCF A類論文22篇,B類論文17篇。2018年,4篇論文共16次入選IEEE/ACM Trans. on Networking的受歡迎論文,其中1月份有3篇論文入選,當月入選論文最多。擔任國際頂級期刊IEEE JSAC的“網絡虛擬化”係列專刊的副編輯。


導師選題:

麵向AI集群的任務調度及碎片整理研究 隨著AI模型訓練規模的擴大,AI基礎設施的資源需求也不斷增加。如今不同規模的訓練任務通常會在同一個大集群上運行。當訓練/推理作業通過隊列提交到集群上,由於作業生命周期有差異,隨著任務異步結束,集群中會存在資源碎片。碎片產生後可通過重新調度已運行的作業,來減少碎片。本課題通過研究碎片作業的重調度時機和重調度路徑策略,提升集群資源利用率。
異構卡場景下的大模型訓練通信優化研究異構卡場景下的大模型訓練通信優化研究項目簡介:在大模型的分布式訓練過程中,GPU間的通信常常成為主要瓶頸之一。作為大模型訓練的核心基礎,一個好的通信策略不僅需要實現高效的數據傳輸、負載均衡和拓撲感知,還必須充分考慮由於計算資源異構性帶來的挑戰。在實際的分布式訓練中,不同類型的GPU具有不同的計算能力、內存帶寬和通信性能,這種異構性會導致計算節點間的通信不均衡,進而影響模型訓練的速度和穩定性。本課題旨在針對異構GPU集群,通過優化通信策略,提升整體訓練效率。
參數高效的個性化聯邦大模型微調研究微調是大語言模型部署和應用過程中十分重要的階段。傳統的方法是將用戶的私有數據發送至雲平台進行微調,將增加隱私泄漏風險,無法適用於隱私安全需求較高的應用。聯邦微調通過集成邊緣計算和聯邦學習技術將微調任務卸載至端側設備進行,避免了原始數據的傳輸。本課題以邊緣網絡資源有限、係統異構、數據不均、應用多元等挑戰為研究立足點,綜合分析聯邦微調中要針對異構的設備特性進行個性化配置的需求,重點研究參數高效的個性化聯邦大模型微調關鍵技術。通過本課題的研究,將有助於推動大語言模型在如智能手機等端側設備上的應用落地。
基於推測解碼優化的高效模型推理研究隨著深度學習的快速發展,大型語言模型(LLM)的應用日益廣泛。然而,LLM在生成文本時由於其自回歸推理模式存在較高的推理延遲,這限製了其在實時應用場景的效能。推測解碼是一種先選後驗證的解碼範式,在每個解碼步驟中,此方法首先起草幾個 token,然後用目標模型並行驗證它們,這使得LLM能夠每步同時解碼多個token,從而加速推理。本研究將深入分析推測解碼的技術機製,並調研其在非集中式環境中的應用潛力(例如探索其在雲邊協同推理、多模型協作推理以及多任務和跨域協作推理中的有效性),旨在推動LLM技術在實際應用中的廣泛部署。



Baidu
map