揭秘愛數AnyShare認知助手:大模型深度產品化,深化人與機器的“分工協作”互聯網+

大模型推動AGI時代加速到來,領域大模型深化“分工協作”
文 | 智能相對論
作者 | 葉遠風
大模型競逐日趨白熱化,百模大戰熱鬧非凡。
但是,對產業主體或者普通看客而言,大模型究竟如何改變一線業務、實現工作方式的變革甚至組織轉型,很多人并沒有具象化的認知。
技術厲害、產品牛,宏大的憧憬和規劃下,大模型到底是怎么進入到行業一線實現落地的?
最近,大數據基礎設施提供商愛數在一次公開分享中,直觀地展示了其新發布的AnyShare認知助手如何在大模型的支撐下輔助內容/知識的智能化生產及消費。
從搜索、閱讀到創作,以實際案例+產品邏輯講解的方式,AnyShare認知助手把大模型能夠給內容業務帶來的改變直觀地呈現出來,也給了觀眾一次大模型能力的直觀體驗。
值得一提的是,在AnyShare認知助手背后,是將領域知識網絡(知識圖譜為代表)與領域大模型結合形成的“領域認知智能”,也即在各個特定場景下解決專業領域問題、以數據重塑現實生產力的大模型。
在這個過程中,大模型提供理解、推理能力,而領域知識網絡提供專業領域的規范化、精準化的行業知識,從而在垂直場景中提供更高品質的產品和服務,賦能高質量發展。也由此,業界此次能直接見到大模型能力在實際場景中發揮價值。
AnyShare認知助手賦能了內容管理平臺智的能化升級,在這種賦能背后,領域大模型推動人與機器“分工協作”的再度進化也極致展現出來。
大模型推動AGI時代加速到來,領域大模型深化“分工協作”
在談論領域大模型的價值前,先要分析大模型的本質價值所在。
AIGC是大模型贏得廣泛關注的起爆點,但大模型在長遠意義上更核心的價值是推動AGI(通用人工智能)的發展。
而AGI對當下場景應用最大的價值,實際上是在深化和延續AI對人類的價值——人的職責與機器職責的細化“分工協作”。隨著能力的提升,AGI將能夠承擔更多重復、繁重的工作任務,讓人更加聚焦到最能創造價值的業務部分,聚焦于核心的創新、創意工作之上。
以愛數為例,其過去就致力于通過領域認知智能幫助企業轉變為數據驅動型組織,但是,這一過程仍然需要人來參與很多工作,例如依靠人工進行數據的整理與分析等,沒有擺脫過去AI“有多少人工就有多少智能”的問題,還有大量的工作需要“分配”到人工這邊,鉗制了智能化業務的發展。
當大模型能力引入到既有的業務環節,實現領域大模型創新,大量的人工輔助工作可以被替代(在領域大模型能力下,能夠“分配”到AI一側),數據相關業務的發展可以更大程度擺脫“人工”這個瓶頸,從而使得愛數為客戶提供的數據服務更具效率與效果。
而AnyShare認知助手,就成為這種分工協作深化的一種具象化展示。
在政企組織當中,數據、知識的規模日益龐大,文檔數量十萬級、百萬級甚至千萬級,不要說人工查詢、再利用成本高昂,就算企業真的投入大量資源,人工可能也無法在能力上完成相關的工作——實在是太多了。
這時候,領域大模型能力的價值就展現出來。AnyShare認知助手能夠在政企組織海量信息與知識中承擔分類、檢索、整理等工作,將人與機器的“分工協作”進一步深化,將人從這些重復繁重的工作中解脫出來。
例如,在智能制造賽道上,AnyShare認知助手可以實現客戶/合同畫像的系統整理,可以為各類繁雜設備建立知識圖譜,能夠實現智能的營銷管理等等,最終實現全鏈條的數據驅動。
在數字政府領域上,AnyShare認知助手能夠有效提高辦文辦事辦會的效率,實現輔助撰寫公文、輔助閱讀產業政策、智能化一網通辦等。
類似的,還有智慧校園領域幫助實現教學科研一身輕,在金融數字化方面推動投研工作智能化提效,等等。
總之,領域大模型深入垂直場景,承擔了很多過去AI無法承擔的工作,讓大模型在“分工協作”上更進一步,這實際上也推進了人在工作中的價值展現,遠離“低價值的重復勞動者”,讓業務執行更有意義和成就感。
內容管理的“分工協作”,AnyShare認知助手進行了一次全覆蓋
AnyShare認知助手是作為AnyShare Family 7 智能內容管理平臺的一大特性出現的,讓后者實現了智能化升級。
細化到內容管理的具體業務上,可以發現AnyShare認知助手在三個閉環的環節都實現了“分工協作”的覆蓋,只不過實現的方式和側重各不相同。
1、在信息獲取環節,智能搜索實現“人找內容”到“內容找人”
搜索是內容管理最首要的環節,而通常來說,類似大眾搜索引擎那樣輸入一個需求得到一個對應的反饋,同樣是組織內部員工在內容管理方面的“常規操作”。
但是,如果信息量十分龐大,這種傳統搜索方式就會面臨很多問題。例如,要得到盡可能全面的信息,就必須大量重復搜索的動作,不斷地“找”到信息并自己整合起來。而且,因為系統只反饋用戶發送的搜索指令,用戶得到的信息是否全面與系統,完全依賴個人經驗。
AnyShare認知助手的智能搜索,解決了這個問題。
如果說過去的點對點搜索是“人找內容”,那么AnyShare認知助手的智能搜索就是“內容找人”,一個搜索訴求下,系統會反饋一整套相關的知識內容。
不再需要重復的搜索動作,不再需要思考有沒有沒兼顧到的維度,這些通通甩給了AnyShare認知助手,“分工協作”進一步深化,人只需要思考究竟什么才是業務最需要的知識即可,將精力聚焦到企業發展和業務創新之上,下達最恰當的搜索指令。
2、在知識吸收環節,輔助閱讀幫助用戶快速找到真正需要的關鍵點和關聯點
在搜索結果給到后,通過海量的閱覽找到重要的、關鍵的信息點,是必要的動作。
在過去,能夠快速閱覽并準確摘出信息點往往被視為一項“能力”。但是,從來沒有人想過,也許這種“能力”原本就是不必要的,人的精力不應該花在對繁雜信息的消化吸收上,而應該更聚焦于獲得關鍵點和關聯點之后,如何將它們應用好、推動業務。
AnyShare認知助手借助領域大模型等能力,同樣在“接手”這類工作,讓人從長時間的閱覽動作中解放出來。
任何一個文本內容,AnyShare認知助手都能快速幫助人識別出其中關鍵信息點,以及信息點之間有什么關聯。
對用戶而言,AnyShare認知助手等于將最重要的內容干貨呈現在了面前,內容閱覽的效率大大提升,可以快速找到想要的知識應用到相關業務中去。
3、在創作輸出環節,以全程協同的方式手把手推動優質內容產出
列一個大綱,需要什么信息,左翻翻、右找找,自己整理、呈現并匯入一個邏輯點下,一步步完成一個文稿的創作……
這是過去內容創作輸出的通常做法。
可以發現,除了核心觀點的呈現,創作的大部分的精力都不得不花在人工知識的整理與分析上,且依賴個人經驗進行觀點萃取和結論提煉,難以保證分析的客觀性和全面性,這顯然是不合理的。
AnyShare認知助手讓內容引用等大量“體力勞動”不再需要,且給到最恰當、最合理的知識內容提煉,用戶可以集中精力輸出優質工作成果,呈現最核心的價值內容。
一份報告,核心觀點和意見才是創作者最應該聚焦的地方,也只有讓精力都集中在這里,才能最大程度保證內容創造的價值。
過去,缺乏通用能力的AI難以在這方面有所作為,現在,領域大模型來了,AnyShare認知助手讓這種“分工協作”成為現實。
“分工協作”的深化只能來源于“機器”能力的長期積累與提升
很明顯,沒有“機器側”能力的提升,“人工側”就無法將那些重復而繁重的工作分配出去,“分工協作”的深化也就無法實現。
AnyShare認知助手之所以能夠實現前文一系列場景價值,與愛數建立的“領域認知智能”架構密不可分。
目前,在大模型興起的大背景下,愛數以AnyDATA領域認知智能框架為統一AI框架,為AnyBackup、AnyShare、AnyRobot、AnyFabric的全域數據能力提供起了智能支撐。圍繞全域數據,幫助客戶實現數據資源化、數據知識化乃至業務智能化,挖掘數據資產價值,助力數據資產變現交易。
在這里,領域大模型、私域數據、領域知識網絡互補共存,政企組織將實現類似人一樣的高級認知能力,這也是領域大模型的目標所在。
AnyShare認知助手在幾個內容場景的出色表現,離不開這個架構下的各項能力支撐。
在實際技術實現上,愛數圍繞領域認知智能已經完成了一套包含基礎層、認知層、能力層、產品層的統一架構:
在這個體系中解讀,就會發現能力層的AnyShare認知助手,受到了認知層AnyDATA的支撐。
例如,就智能搜索而言,在一系列能力的加持下,AnyShare認知助手得以更準確理解用戶意圖,獲取更精準、相關性更高的系統化搜索結果。這其中,領域大模型與搜索引擎結合能夠快速準確地處理億級以上數據量,并高效查詢與匹配,最終生成人類可理解的答案。
從整個行業角度看,對在整體上深耕人工智能場景化應用的廠商而言,大模型創新不是并不一定要是刻意為之的事,在原本的體系之上平滑引入大模型能力,以領域大模型創新就能快速催生類似AnyShare認知助手這樣的特性,讓大模型在場景中的應用直觀地展現出來。
這種從場景出發的領域大模型路線,更能讓人與機器的“分工協作”加速深化,讓大模型更高效、更深入地改變千行百業。
*本文圖片均來源于網絡
#智能相對論 Focusing on智能新產業新服務,這是智能的服務NO.233深度解讀
此內容為【智能相對論】原創,
僅代表個人觀點,未經授權,任何人不得以任何方式使用,包括轉載、摘編、復制或建立鏡像。
部分圖片來自網絡,且未核實版權歸屬,不作為商業用途,如有侵犯,請作者與我們聯系。
?AI產業新媒體;
?澎湃新聞科技榜單月度top5;
?文章長期“霸占”鈦媒體熱門文章排行榜TOP10;
?著有《人工智能 十萬個為什么》
?【重點關注領域】智能家電(含白電、黑電、智能手機、無人機等AIoT設備)、智能駕駛、AI+醫療、機器人、物聯網、AI+金融、AI+教育、AR/VR、云計算、開發者以及背后的芯片、算法等。
1.TMT觀察網遵循行業規范,任何轉載的稿件都會明確標注作者和來源;
2.TMT觀察網的原創文章,請轉載時務必注明文章作者和"來源:TMT觀察網",不尊重原創的行為TMT觀察網或將追究責任;
3.作者投稿可能會經TMT觀察網編輯修改或補充。