新京報貝殼財經訊(記者白金蕾 陳維城)10月25日至26日,由RTE開發(fā)者社區(qū)和聲網聯(lián)合主辦的RTE2024第十屆實時互聯(lián)網大會在京舉行。會上一場由Lepton AI創(chuàng)始人兼首席執(zhí)行官賈揚清,MiniMax合伙人魏偉,面壁智能聯(lián)合創(chuàng)始人、首席技術官曾國洋,Hugging Face工程師王鐵震等組成的針對“AI的6000億美元難題 :從基礎設施到商業(yè)化落地”的圓桌論壇,引發(fā)業(yè)界關注。


“AI的6000億美元難題”起源于紅杉資本的合伙人 David Cahn(大衛(wèi)·卡恩)的文章,他認為:AI(人工智能)基礎設施的巨額投資和實際收入之間差距過大,人工智能將要到達泡沫的臨界點;AI可能是下一個變革性的技術浪潮,GPU(圖形處理器)計算價格的下降,實際上對長期創(chuàng)新和初創(chuàng)公司是有利的,而投資者會受損。


RTE2024第十屆實時互聯(lián)網大會。圖|受訪者供圖


針對AI的基礎設施建設,賈揚清分享了兩個核心觀點:同等尺寸的模型,能力會越來越強,尤其是通過蒸餾、壓縮等技術,現(xiàn)在的LLama 3.2 3B模型甚至可以和以前的LLama 70B模型能力相近;除了極少數(shù)頭部公司之外,越來越多的企業(yè)會采用“開源+精調”來做下一代模型,因此開源架構的應用會越來越普遍。


“開源模型的優(yōu)勢是生態(tài)和社區(qū),從實際應用角度,很多人找個開源模型然后微調是可以用的,但用開源模型解決所有問題是不夠的?!蓖蹊F震說,“我們將在未來看到越來越多Infra(基礎設施)和Realtime(實時處理) 的工作,大家不僅需要關注開源模型本身,還需要重視開源模型的基礎設施和數(shù)據閉環(huán),才能把開源模型跑得更好、更快。Realtime 需要TTS(文本到語音),也需要大模型,如果能夠通過一些方式放在一起,放在邊緣側、離用戶更近的地方,才能產生非常好的效果。”


應該如何看到大模型訓練和推理的成本問題?曾國洋分享到,“隨著技術的前進,算力一定會越來越便宜,相同能力的模型規(guī)模也會越來越小,但算力成本優(yōu)化會最終轉化為訓練更強大的模型。真正達到 AGI (通用人工智能)水平之前,我們只能感受到模型在變得越來越強,很難感受到成本的變化。”他還提到,由于面壁智能是做端側模型的,所以很關注如何讓模型在端上跑得更快,在實際部署過程中,他們會用各種量化壓縮甚至是稀疏化方法去優(yōu)化實際部署的開銷。


賈揚清也指出成本不是一個考量因素。他判斷,推理成本一年內會降到現(xiàn)在的十分之一,創(chuàng)業(yè)者在構建應用時可以按照做一個應用成本是目前十分之一來進行成本核算,看能不能做,包括模型、硬件和應用在上量后,也都是可以降低成本的。


近期有報道稱,OpenAI正在解散其聚集于AI安全研究的“AGI Readiness”團隊。在場的AI企業(yè)創(chuàng)始人是如何看待AI安全和倫理問題的?賈揚清舉例稱,目前的飛機有很多安全需求,但造火箭就被給予了更多靈活性。所以他猜測,OpenAI可能是為了更好地先期發(fā)展,也可能是覺得AI安全沒有跳出傳統(tǒng)的安全范疇,傳統(tǒng)的數(shù)據安全、云安全已經足夠保障了。


王鐵震表示,現(xiàn)在擔心AI取代人類是比較早的,但是AI已經對一些行業(yè)產生了不好影響,比如視頻以假亂真的影響,包括對青少年心理的影響,而這里創(chuàng)業(yè)的機會也是非常多的。


活動現(xiàn)場,聲網宣布與MiniMax正在打磨中國第一個Realtime API (實時處理應用程序接口)。那么,應該如何看待音視頻多模態(tài)模型的實際應用潛力?魏偉表示,隨著多模態(tài)的出現(xiàn),生成式人工智能的邊界一定會被繼續(xù)拓展,并加速這一產業(yè)的變革。從產品和用戶服務過程中魏偉發(fā)現(xiàn),文本、語音、音樂、視頻這些模型可以很好地幫助藝術、影視、音樂等領域的創(chuàng)作者極大地提高效率,并為他們提供新的思路和方法。


王鐵震也認為,如果視頻生成的效果,能超過電影級別的效果,而且不需要多次生成,哪怕價格高,也有人愿意嘗試。


校對 劉軍