3月31日的聯(lián)想集團2025/26財年誓師大會上,聯(lián)想集團首席技術官Tolga Kurtoglu表示,盡管AI應用的顛覆性變革正在發(fā)生,但當前所經歷的,并非真正能為用戶創(chuàng)造價值的成熟AI應用,而是一系列快速迭代的技術演示。要釋放AI的潛力,必須將技術能力轉化為以用戶為中心的AI解決方案,打造聯(lián)想的差異化優(yōu)勢。
未來的以用戶為中心的AI不會局限于單一模型、芯片,設備,或者形態(tài),而是多種模型和多種智能體的協(xié)作——包括端側、云端,邊緣等,它們融為一體,共同為用戶提供無縫絲滑的服務。
現(xiàn)場,Tolga對聯(lián)想技術路線進行了詳細的拆解:
首先,必須利用一流的模型,為聯(lián)想的用戶快速提供服務。模型開發(fā)者正在以前所未有的速度,不斷推出性能更高的新模型。但是,為聯(lián)想的生態(tài)系統(tǒng)優(yōu)化幾十億——有時甚至幾萬億個參數(shù)是一個復雜的過程,可能需要耗費幾個月的時間。很多時候,等到將一個模型投入使用時,它的性能已經被一個新版本的模型甩在身后了。
通過聯(lián)想新建的模型工廠,聯(lián)想能夠把部署時間從幾個月縮短到幾周。這支專門的全球工程師團隊將快速完成常見的模型優(yōu)化任務,并將優(yōu)化后的模型交付給不同的研發(fā)團隊,確保聯(lián)想新模型部署的速度領先業(yè)界。當聯(lián)想的模型工廠建成后,聯(lián)想的AI生態(tài)體系將成為獲取最新模型成果的最佳途徑。
其次,必須通過模型編排,為聯(lián)想的用戶實現(xiàn)模型選擇的自動化。一個高效的模型編排器,在接收到一項用戶查詢或任務后,會將其進行拆解,然后會調用最適合完成這項任務的那些模型 —— 無論這些模型是位于設備端、服務器,還是在公有云上。以“聯(lián)想小天”為例,當前,一項查詢什么時候需要保持私密狀態(tài)、何時可以公開,都需要用戶來判斷。
但有了模型編排器,端側設備上的AI智能體能夠為你做出這種區(qū)分。它會將查詢發(fā)送到符合你特定需求的模型網絡中 —— 無論你的查詢是關于復雜的企業(yè)編碼任務,還是你的午餐吃什么。在邊緣設備上部署復雜的模型編排時,聯(lián)想會把AI智能體無縫連接到用戶最需要的公有模型和私有模型上。這樣,用戶能夠掌握的信息將實現(xiàn)指數(shù)級的增長,同時用戶體驗也得到了簡化。
這些能力共同通過聯(lián)想智能體開發(fā)框架,實現(xiàn)AI智能體的加速部署。 聯(lián)想的研發(fā)團隊無需每次都從零開始,而是可以直接使用這些AI智能體基礎構件框架。他們可以將這些構件進行連接、調整,并能夠在此基礎上,打造滿足任何客戶需求的任何智能體。
“基于模型工廠的、快速的模型部署, 領先業(yè)界的模型編排技術, 還有一個智能體開發(fā)框架。 有了這些技術,聯(lián)想就擁有了向用戶交付超級AI智能體的能力。”他說