據美國科學促進會旗下網站19日報道,美國普林斯頓大學和斯坦福大學團隊開發出一種新壓縮算法CALDERA,能精簡大型語言模型(LLM)的海量數據,為LLM“瘦身”。這項算法不僅有助保護數據隱私、節約能源、降低成本,還能推動LLM在手機和筆記本電腦上高效使用。
團隊舉例稱,當人們使用ChatGPT時,請求會被發送到OpenAI公司的后端服務器進行處理。這一過程不僅成本高昂、能耗巨大,通常還很慢。如果用戶想要使用消費級圖形處理單元運行LLM,就需要對這些LLM進行壓縮。
CALDERA算法通過減少LLM冗余并降低信息層的精度來發揮作用。“瘦身”后的LLM更加精簡,可在手機或筆記本電腦等設備上存儲和訪問,同時提供了與未壓縮版本幾乎一樣準確而微妙的性能。
雖然CALDERA并非首個壓縮LLM的算法,但其獨特之處在于兼具“低精度”和“低排序”兩種特性。其中,“低精度”減少了比特數,加快了數據存儲和處理速度。而“低排序”則降低了LLM數據中的冗余。
團隊表示,使用CALDERA壓縮的LLM可能適用于那些對精度要求不是最高的場景。此外,用戶可在智能手機或筆記本電腦等設備上對壓縮后的LLM進行微調,這使其能根據特定需求調整模型來增強隱私,而無需與第三方共享敏感數據。
不過團隊也提醒道,在智能手機或筆記本電腦上運行LLM,可能會占用設備內存。
美國俄勒岡州立大學科研團隊研發出一種新型AI芯片,成功將大語言模型的能耗降低50%。這項成果于近期在波士頓舉行的IEEE定制集成電路會議上發布,是半導體領域的重大突破,有望成為解決大語言模型高能耗問題......
據美國科學促進會旗下網站19日報道,美國普林斯頓大學和斯坦福大學團隊開發出一種新壓縮算法CALDERA,能精簡大型語言模型(LLM)的海量數據,為LLM“瘦身”。這項算法不僅有助保護數據隱私、節約能源......
據美國科學促進會旗下網站19日報道,美國普林斯頓大學和斯坦福大學團隊開發出一種新壓縮算法CALDERA,能精簡大型語言模型(LLM)的海量數據,為LLM“瘦身”。這項算法不僅有助保護數據隱私、節約能源......
世界知識產權組織3日發布的報告顯示,2014年至2023年,中國生成式人工智能專利申請量超3.8萬件,居世界第一,是第二名美國的6倍。這份《世界知識產權組織生成式人工智能專利態勢報告》顯示,2014年......
人工智能(AI)在給出準確答案的同時,也會有一些“胡亂輸出”令人難辨真假,這被稱為“幻覺”(hallucination)。而新一期《自然》雜志發表的一項研究報道了一種新方法,能檢測大語言模型(LLM)......
當前,大語言模型的應用日益廣泛,覆蓋從文本生成到復雜問題解決等多個領域,如何更好利用AI工具?記者10日從中國科學技術大學獲悉,該校心理學系林志成特任研究員近日在其評論文章中研究提出一項實用策略,幫助......
中新網合肥5月10日電(記者吳蘭)當前,大語言模型的應用日益廣泛,覆蓋從文本生成到復雜問題解決等多個領域,如何更好利用AI工具?記者10日從中國科學技術大學獲悉,該校心理學系林志成特任研究員近日在其評......
華中科技大學生命學院張珞穎團隊和薛宇團隊在NatureCommunications雜志上合作發表了題為“Large-languagemodelsfacilitatediscoveryofthemole......
4月28日,崖州灣國家實驗室精準設計與智造團隊與中國農業大學、上海人工智能實驗室共同發布首個種業大語言模型“豐登”。該模型集成了先進的人工智能技術與大數據分析,對海量來自不同渠道的育種科研文獻、技術書......
基于Transformer的大語言模型(LLM)在自然語言處理、生物、化學和計算機編程等各個領域取得了重大進展。但對于在實驗室工作的研究人員或那些不熟悉計算機代碼的人來說,人工智能方法并不那么容易理解......