6月21日上午,在一場北大光華管理學院的活動上,騰訊集團高級執(zhí)行副總裁、云與智慧產(chǎn)業(yè)事業(yè)群CEO湯道生表示,人工智能(以下簡稱“AI”)對世界的改變,一定是通過與產(chǎn)業(yè)融合實現(xiàn)的,大模型只是起點,未來應用落地的產(chǎn)業(yè)變革才是更大的圖景。
湯道生在演講中回顧了AI發(fā)展的歷史,表示算法創(chuàng)新、算力增強、開源共創(chuàng)三大因素的疊加,構成了AI的“增長飛輪”。
(資料圖)
他認為,現(xiàn)在的企業(yè)應該積極擁抱人工智能技術。過去傳統(tǒng)的研發(fā)、生產(chǎn)、銷售、服務等環(huán)節(jié)中,有很多依賴人來判斷、協(xié)調(diào)與溝通的地方,都可以疊加AI的生產(chǎn)力來提質(zhì)、降本與增效。而通用大模型缺乏專業(yè)知識和行業(yè)數(shù)據(jù)積累,導致模型的行業(yè)針對性與精準度不夠,數(shù)據(jù)“噪音”過大,企業(yè)客戶更需要有針對性的行業(yè)大模型產(chǎn)品。
在湯道生看來,企業(yè)使用的大模型必須可控、可追溯、可修正,而且必須反復與充分測試才能上線。如何在合理成本下選擇合適安全的模型,是企業(yè)客戶所需要思考與決策的。
隨著大語言模型的發(fā)展,我們正在進入一個被AI重塑的時代,從生產(chǎn)銷售、組織人才,到產(chǎn)業(yè)革新、社會發(fā)展,都會發(fā)生劇烈的變化。
許多企業(yè)管理者也在思考,如何把大模型技術應用到自己的企業(yè)場景中,比如在客服與營銷環(huán)節(jié),為業(yè)務經(jīng)營帶來更多降本增效?如何在使用大模型時,保護企業(yè)數(shù)據(jù)的產(chǎn)權與隱私?如何降低大模型的使用成本?這些都是企業(yè)管理者需要考慮的現(xiàn)實問題。
最近,OpenAI給ChatGPT API增加了函數(shù)調(diào)用能力,這意味著大模型也能使用工具了。自己不具備的能力,可以靠各種第三方服務嘗試解決,大大增加了通用大模型解決問題的能力。
大語言模型代表人工智能的發(fā)展已經(jīng)達到了一個新的高峰。用大量數(shù)據(jù)預訓練的模型也推動機器視覺、語音識別、機器人等AI能力發(fā)生新的突破。
大語言模型不僅懂多種人類語言,還掌握多種程序語言,還可以幫助程序員寫代碼。我們打造了騰訊云新一代AI代碼助手,實現(xiàn)AI對代碼的理解,輔助程序員編寫、排錯與測試,為軟件研發(fā)的全流程助力,提高開發(fā)效率與代碼質(zhì)量。
大語言模型不僅能與人溝通,更重要的是通過模型的精調(diào),可以按需求產(chǎn)生一系列的執(zhí)行步驟,比如聯(lián)網(wǎng)調(diào)用不同插件的能力,加上多模態(tài)讓AI同時能看懂圖、聽懂話、會規(guī)劃、能行動,這樣就可以做出更強大的應用,讓AI更像真正意義上的智能助手,完成更高級的任務。
比如線上廣告投放員,每天需要刷新大量廣告素材,確保廣告投放的ROI。如果結合廣告效果數(shù)據(jù)與文生圖能力,可以不斷地根據(jù)數(shù)據(jù)分析,生成投放策略,調(diào)整投放渠道,并且針對性的生成投放素材,自動化程度與效率都會更高。
事實上,不管哪個行業(yè)都應該積極擁抱AI,過去的研發(fā)、生產(chǎn)、銷售、服務等環(huán)節(jié)中,都有很多依賴人來判斷、協(xié)調(diào)與溝通的地方,今天我們應該看下哪些環(huán)節(jié)可以疊加AI的生產(chǎn)力來提質(zhì)、降本與增效。
既然大模型這么重要,在座的企業(yè)家與管理者,可能也會問我們?nèi)绾伟阉迷谄髽I(yè)上,抓住技術變革的紅利?
我可以給企業(yè)管理者一些建議:
第一,聚焦企業(yè)自身業(yè)務,挑選具體場景,讓AI成為服務的增量;
第二,確保訓練數(shù)據(jù)質(zhì)量,梳理出測試用例,建立上線評估流程;
第三,確保服務合規(guī),同時關注數(shù)據(jù)的產(chǎn)權與隱私;
第四,使用云廠商工具,搭建一體化的模型服務,這樣效率比較高,節(jié)約訓練、運維的成本和時間。
在具體實施中,模型、數(shù)據(jù)和算力是大家需要格外關注的三個點。
首先是模型。雖然大家對通用大語言模型的聊天機器人期待很高,但它不是唯一的大模型服務方式,也不一定是滿足行業(yè)場景需求的最優(yōu)解。
目前,通用大模型一般都是基于廣泛的公開文獻與網(wǎng)絡信息來訓練的,上面的信息可能有錯誤、有謠言、有偏見,許多專業(yè)知識與行業(yè)數(shù)據(jù)積累不足,導致模型的行業(yè)針對性與精準度不夠,數(shù)據(jù)“噪音”過大。
但是在很多產(chǎn)業(yè)場景中,用戶對企業(yè)提供的專業(yè)服務要求高、容錯性低,企業(yè)一旦提供了錯誤信息,可能引起巨大的法律責任或公關危機。因此,企業(yè)使用的大模型必須可控、可追溯、可修正,而且必須反復與充分測試才能上線。
我們認為,客戶更需要有行業(yè)針對性的行業(yè)大模型,再加上企業(yè)自己的數(shù)據(jù)做訓練或精調(diào),才能打造出實用性高的智能服務。企業(yè)所需要的是,在實際場景中真正解決了某個問題,而不是在100個場景中解決了70%-80%的問題。
另外,訓練數(shù)據(jù)越多,模型越大,訓練與推理的成本也越高。實際上,大部分的企業(yè)場景可能也不需要通用AI來滿足需要。因此,如何在合理成本下選擇合適的模型,是企業(yè)客戶所需要思考與決策的。
其次,數(shù)據(jù)是大模型的原材料。針對具體場景,相關數(shù)據(jù)的覆蓋與質(zhì)量都至關重要,標注數(shù)據(jù)的管理也是模型迭代中的重要工作。
模型最終要在真實場景落地,要達到理想的服務效果,往往需要把企業(yè)自身的數(shù)據(jù)也用起來。在模型研發(fā)過程中,既要關注敏感數(shù)據(jù)的保護與安全合規(guī),也需要管理好大量的數(shù)據(jù)與標簽,不斷測試與迭代模型。
再次,算力是模型持續(xù)運轉(zhuǎn)的基礎。高性能、高彈性和高穩(wěn)定的算力,需要借助專業(yè)的云服務。
在大模型的訓練和使用過程中,需要大量異構算力的支持,對網(wǎng)絡速度與穩(wěn)定性要求也很高,加上GPU服務器比一般服務器穩(wěn)定性更低一些,服務器的運維、問題的排查更頻繁,整體運維的難度與工作量會高很多。
在訓練集群中,一旦網(wǎng)絡有波動,訓練的速度就會受到很大的影響;只要一臺服務器過熱宕機,整個集群都可能要停下來,然后訓練任務要重啟。這些問題會使得訓練時間大大增加,投入在大模型的成本也會飆升。
基于這些企業(yè)現(xiàn)實問題和需求的思考,就在前兩天,騰訊也正式公布了騰訊云MaaS服務全景圖。
基于騰訊云TI平臺打造的行業(yè)大模型精選商店,將覆蓋金融、文旅、政務、醫(yī)療、傳媒、教育等10大行業(yè),提供超過50個解決方案。在這些能力模型基礎上,客戶只需要加入自己獨有的場景數(shù)據(jù),就可以快速生成自己的“專屬模型”。
我們也推出基于騰訊云TI平臺的行業(yè)大模型精調(diào)解決方案,幫助模型開發(fā)者與算法工程師一站式解決模型調(diào)用、數(shù)據(jù)與標注管理、模型精調(diào)、評估測試與部署等任務,減輕創(chuàng)建大模型的壓力。我們也可以通過TI平臺實現(xiàn)模型的私有化部署、權限管控和數(shù)據(jù)加密等方式,讓企業(yè)用戶在使用模型時更放心。
在算力服務上。騰訊云所提供的穩(wěn)定計算、高速網(wǎng)絡與專業(yè)運維,可以為算法工程師大大減輕設備運維的壓力,讓他們把精力放在模型的構建與算法的優(yōu)化上。
騰訊云也打造了面向模型訓練的新一代HCC(High-Performance Computing Cluster)高性能計算集群。其搭載最新次代GPU,結合多層加速的高性能存儲系統(tǒng),加上高帶寬、低延遲的網(wǎng)絡傳輸,整體性能比過去提升了3倍,獲得了很多客戶的高度認可,幾家大模型獨角獸,都與騰訊展開了算力合作。
在計算集群的“硬實力”之外,騰訊最近也推出了更適合AI運算的“軟能力”——向量數(shù)據(jù)庫,它能更高效地處理圖像、音頻和文本等非結構化數(shù)據(jù),支持單索引10億級規(guī)模,比單機插件式檢索規(guī)模提升10倍,數(shù)據(jù)接入AI的效率也比傳統(tǒng)方案提升10倍。
毫無疑問,AI對世界的改變,一定也是通過與產(chǎn)業(yè)的融合實現(xiàn)的。機器決策、自主生成、自然交互等一系列變革,推動產(chǎn)業(yè)實現(xiàn)更高效率、更低成本、更好體驗和更大創(chuàng)新。未來的企業(yè),也將向智能原生進化。
標簽: