大模型時(shí)代,洗牌在即,存儲(chǔ)、服務(wù)器、網(wǎng)絡(luò)廠商何去何從?

時(shí)間:2023-09-11

來源:OFweek 人工智能網(wǎng)

導(dǎo)語:大模型正在改變一切,改變著我們的生活與工作,驅(qū)動(dòng)IT基礎(chǔ)設(shè)施加速變革

  模型變小是大趨勢,不是什么都大的好,比如玉米還是越小越香甜,越小越糯越可口。

  因此,企業(yè)級(jí)IT廠商在行業(yè)大模型的發(fā)展新趨勢中,也就可以很好地分得一杯羹了。只是僧多粥少,就看各自修為了。

  此外,對(duì)于想在這個(gè)領(lǐng)域有所作為的大模型的創(chuàng)新公司而言,業(yè)內(nèi)人士分析指出,目前可以加強(qiáng)四個(gè)方面的技術(shù)方向。

  一是,語義搜索(Semantic Search),這是現(xiàn)代搜索引擎用來返回最相關(guān)的搜索結(jié)果的信息檢索過程。目前谷歌在采用這種方式,Semantic Search著重于搜索查詢背后的含義,甚至可以根據(jù)用戶的查詢內(nèi)容而確定內(nèi)部建議,而不是傳統(tǒng)的關(guān)鍵字匹配。

  二是,檢索增強(qiáng)生成(RAG,Retrieval Augmented Generation),F(xiàn)acebook提出了一種檢索增強(qiáng)生成RAG模型的架構(gòu),實(shí)現(xiàn)了端到端的可微模型,構(gòu)成部分包括了問題編碼器、神經(jīng)檢索器、生成器模型三個(gè)方面。這是自然語言處理(NLP)的創(chuàng)新應(yīng)用,

  三是,文檔分析(Document analysis),主要處理和分析上傳的客戶端文件和文檔,包括針對(duì)政策、流程、準(zhǔn)則、還有一些記錄等等文檔分析,基于上下文理解需求,通過檢查描述業(yè)務(wù)環(huán)境或現(xiàn)有組織資產(chǎn)的可用材料來獲取業(yè)務(wù)分析信息。

  四是,生成式人工智能聊天(Generative Al Chat),這是基于深度學(xué)習(xí)和自然語言處理技術(shù)的人工智能系統(tǒng),就像一個(gè)使用通用大型語言模型(LLM),類似于ChatGPT的聊天機(jī)器人一樣,可以實(shí)現(xiàn)總結(jié)文章,生成文本,甚至起草電子郵件,以及升級(jí)對(duì)圖片、視頻的智能分析與生成。主要也是在內(nèi)容媒體如文本、圖像、音頻、視頻的大型數(shù)據(jù)集上進(jìn)行訓(xùn)練,以創(chuàng)建新的文本、音頻、圖像等。

  當(dāng)然,在當(dāng)前情況下,任何一家有志于行業(yè)大模型趕大潮的企業(yè)級(jí)IT廠商,都必須盡早下場,盡早儲(chǔ)備,盡早發(fā)展行業(yè)大模型生態(tài),要不然再遲疑的話,粥就沒了,后面就只剩下刷鍋水了。

  早入者優(yōu)勢明顯,畢竟針對(duì)行業(yè)大模型的服務(wù)器方案,企業(yè)級(jí)存儲(chǔ)方案,以及網(wǎng)絡(luò)方案都需要做一定的創(chuàng)新。

  比如在服務(wù)器方案方面,如何將AI服務(wù)器端的GPU資源充分發(fā)揮,不被浪費(fèi)就是一個(gè)大進(jìn)步,AI算力資源利用率的提升之道就很值得企業(yè)級(jí)IT廠商為之一戰(zhàn),一戰(zhàn)成名的可能性非常大。為什么?

  據(jù)業(yè)內(nèi)人士分析,目前全球AI算力資源利用率都很低,不少企業(yè)用戶的GPU資源長期處于閑置狀態(tài)。倘若可以發(fā)揮出閑置GPU資源價(jià)值,便是對(duì)企業(yè)用戶和企業(yè)級(jí)IT廠商一大利好。因此像國內(nèi)外的浪潮信息、新華三、華為、聯(lián)想、中科曙光、超聚變、寧暢、中興、Dell EMC、HPE、超微、寶德等服務(wù)器廠商,都需要在GPU資源利用率方面下功夫,下真功夫讓企業(yè)用戶得實(shí)惠,那么必然在這場AI服務(wù)器血拼之爭中可以感受到的“獲得感”很強(qiáng)。

  其實(shí),在企業(yè)級(jí)存儲(chǔ)方面,也需要下功夫。大模型變小雖然是大趨勢,但再小的行業(yè)模型訓(xùn)練都不可能只是一臺(tái)服務(wù)器+存儲(chǔ)。訓(xùn)練不僅需要高性能存儲(chǔ)方案,同時(shí)還需要在降本增效上找到更好的分布式存儲(chǔ)方案。在這個(gè)方面目前已經(jīng)有企業(yè)級(jí)存儲(chǔ)廠商在做了,比如有的存儲(chǔ)廠商推出了面向行業(yè)大模型訓(xùn)練的分布式存儲(chǔ)系統(tǒng)。為此像國內(nèi)外企業(yè)級(jí)存儲(chǔ)廠商如新華三、中科曙光、浪潮信息、華為、聯(lián)想凌拓、超聚變、同有科技、中興、TaoCloud大道云行、焱融科技、XSKY、杉巖數(shù)據(jù)、Dell EMC、Hitachi Vantara、HPE、IBM、Oracle、DDN等,需要在企業(yè)級(jí)存儲(chǔ)與AI場景特別是大模型訓(xùn)練與推理場景上做文章,做足了文章,后面的舞臺(tái)將會(huì)更大,想怎么跳就怎么跳。

  大模型時(shí)代,企業(yè)級(jí)存儲(chǔ)作為AI打造數(shù)據(jù)底座,隨著模型變小進(jìn)入百行百業(yè),存儲(chǔ)也將越來越重要。這里提到的企業(yè)級(jí)存儲(chǔ)廠商有全球科技巨頭,也有國內(nèi)年?duì)I收2-6億元的初創(chuàng)公司,都比較有代表性。

  在針對(duì)行業(yè)大模型發(fā)展的網(wǎng)絡(luò)方面也需要?jiǎng)?chuàng)新,大模型訓(xùn)練與推理,都需要更好的網(wǎng)絡(luò)性能來支撐,以更優(yōu)化的網(wǎng)絡(luò)延遲將算力能力發(fā)揮到極致,從而獲得更高效的模型訓(xùn)練結(jié)果??梢姼咝ЬW(wǎng)絡(luò)需要像國內(nèi)外的網(wǎng)絡(luò)廠商繼續(xù)創(chuàng)新與努力。比如思科、新華三、華為、銳捷網(wǎng)絡(luò)、中興、瞻博網(wǎng)絡(luò)Juniper、康普網(wǎng)絡(luò)、邁普、博科(Brocade)等在網(wǎng)絡(luò)技術(shù)領(lǐng)域有所深厚的積累,更需要厚積薄發(fā),在大模型之戰(zhàn)中發(fā)揮出網(wǎng)絡(luò)創(chuàng)新的后勁。

  可見,一步一步,大模型正在改變著一切,改變著我們的生活與工作,并驅(qū)動(dòng)IT基礎(chǔ)設(shè)施加速變革,迎來下一輪存儲(chǔ)行業(yè)格局洗牌、服務(wù)器行業(yè)格局洗牌、網(wǎng)絡(luò)行業(yè)格局洗牌。那么,誰將會(huì)勝出呢?拭目以待。

中傳動(dòng)網(wǎng)版權(quán)與免責(zé)聲明:

凡本網(wǎng)注明[來源:中國傳動(dòng)網(wǎng)]的所有文字、圖片、音視和視頻文件,版權(quán)均為中國傳動(dòng)網(wǎng)(www.wangxinlc.cn)獨(dú)家所有。如需轉(zhuǎn)載請與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個(gè)人轉(zhuǎn)載使用時(shí)須注明來源“中國傳動(dòng)網(wǎng)”,違反者本網(wǎng)將追究其法律責(zé)任。

本網(wǎng)轉(zhuǎn)載并注明其他來源的稿件,均來自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請保留稿件來源及作者,禁止擅自篡改,違者自負(fù)版權(quán)法律責(zé)任。

如涉及作品內(nèi)容、版權(quán)等問題,請?jiān)谧髌钒l(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。

關(guān)注伺服與運(yùn)動(dòng)控制公眾號(hào)獲取更多資訊

關(guān)注直驅(qū)與傳動(dòng)公眾號(hào)獲取更多資訊

關(guān)注中國傳動(dòng)網(wǎng)公眾號(hào)獲取更多資訊

最新新聞
查看更多資訊

娓娓工業(yè)

廣州金升陽科技有限公司

熱搜詞
  • 運(yùn)動(dòng)控制
  • 伺服系統(tǒng)
  • 機(jī)器視覺
  • 機(jī)械傳動(dòng)
  • 編碼器
  • 直驅(qū)系統(tǒng)
  • 工業(yè)電源
  • 電力電子
  • 工業(yè)互聯(lián)
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機(jī)界面
  • PLC
  • 電氣聯(lián)接
  • 工業(yè)機(jī)器人
  • 低壓電器
  • 機(jī)柜
回頂部
點(diǎn)贊 0
取消 0