去年股價跌去四分之三的meta,元宇宙的故事才剛剛開始。互聯(lián)網(wǎng)+
導讀
至少從大伙們討論度上來看。。。 是有點涼透了的意思。
至少從大伙們討論度上來看。。。 是有點涼透了的意思。
在各種 AI 新聞滿天飛的 2023 年,大家還記得大明湖畔的元宇宙嗎?
至少從大伙們討論度上來看。。。 是有點涼透了的意思。
最近一次上熱搜,也只剩林俊杰元宇宙血虧 90% 這類的被套牢新聞。
而其中,曾扯著嗓子高調(diào)梭哈,甚至不惜押上了姓名的 Meta ,更成了大伙們的笑料。
先是去年 10 月份股價一度較最高點跌去 75% 。
而后今年在其他科技大廠大模型滿天飛, AI 發(fā)布會都快開了一輪的情況下。
這個 Meta ,好像除了裁員,還是裁員。
“ 呦 ~ 扎哥你是不是因為搞元宇宙又裁員了。 ”
“ 隨后什么降本增效啊,為社會輸送人才啊,一句句冒了出來,到處充滿了歡聲笑語。 ”
就連隔壁部門的同事,都玩著類似的梗。。。并問著差評君, Meta 在AI 時代咋掉隊了?他們還元得下去不?
不過,笑歸笑,鬧歸鬧,咱還真別拿 Meta 的人工智能開玩笑。
差評君在這兒,直接給大家先省個流,那就是 Meta 在 AI 領域,還真不是大家眼中的軟蛋。
并且給個暴論啊( 不構成投資建議),他們離自己的元宇宙目標可能還更近了。
這么說吧,雖然 Meta 官方在大模型的聲量和宣傳上,確實沒別家高,但 Meta 的人工智能技術,在世界范圍內(nèi),還真沒有誰能說它不行。
深度學習框架這個東西大家曉得伐?
這個東西是用來方便開發(fā)訓練深度學習模型的,相當于 AI 界的操作系統(tǒng)。
在 17 、 18 年這會兒,市場上占據(jù)最多使用率的,還是人谷歌大名鼎鼎的 TensorFlow 。
這個時候的 TensorFlow 可以說是眼中毫無對手,畢竟 15 年發(fā)家,大量人力維護更新,自開源后就把市場上的其它深度學習框架擠得沒有生存空間了。
可沒想到,谷歌這好日子過了還沒多久,半路突然殺出來一個程咬金, Pytorch 發(fā)布了,這個由當時還叫 Facebook 的公司主導開發(fā)的深度學習框架,從易用性著手,自發(fā)布之后,用戶一路走高。
并在 19 年逆襲谷歌,成為目前最受歡迎的深度學習框架。
但好漢總不能只提當年勇,如今大火大語言模型, Meta 其實也不拉,只是人家沒有專門開發(fā)布會發(fā)布而已。
它們家的大語言模型 LLaMA ,也就是羊駝 ( 或者翻譯成:草泥馬 ),在圈兒內(nèi)的名聲,完全不輸 GPT 。
本來呢,這個模型是只釋放給一些科研機構用作研究用的,結果,不知道哪個小崽子,腦子一熱,就給公開到網(wǎng)上去了。
好家伙,不公開不要緊,這一公開,各種各樣復刻 ChatGPT 的項目就來了。
什么斯坦福的羊駝只要 100 美元就能比肩 GPT3.5 啊。。。
又是什么 UC 伯克利的 “ 小羊駝 ”130 億參數(shù)平替 ChatGPT 啊。
感覺是個人就能出大語言模型的樣子。。。
而且,據(jù)他們測試,這個 LLaMA 在很多項的能力比拼下,是優(yōu)于 GPT-3 的。。。
到現(xiàn)在,這個模型已經(jīng)在各大機構大佬的努力勞作下,開枝散葉,誕生了一批 “ 羊駝家族 ” 了。。。
甚至可以說現(xiàn)在的學術圈和開源社區(qū),已經(jīng)是一只只草泥馬的形狀了。
在另一個人工智能領域, CV ( 計算機視覺 )圈, Meta 的動靜可就更大了。
4 月 5 號, Meta 就發(fā)布了一個用于圖像分割的 AI 大模型:Segment Anything Model 。
在官網(wǎng)的演示中,比如這張男子打籃球的圖片,只需要給圖片中的物體標一個點,就能自動切割出咱們想要的主體。
甚至,如果有一些圖片過于復雜,你自己都懶得去點標記的話,你還可以把分割的任務全權交給 SAM ,直接點擊 Everthing ,它就自動幫你把圖片中的可分割物體切割出來。
整個過程方便簡單快捷。
所以,這個模型一經(jīng)推出,眾多 CV 界師生紛紛大喊: CV 不存在了。
原因就是他把現(xiàn)在 CV 比較熱門的方向,比如目標檢測,圖像分類,物體分割等等,差不多都解決得很好了。
英偉達的人工智能科學家 Jim Fan , 甚至還把 SAM 的出現(xiàn)比喻成 CV 界的 “GPT-3 時刻 ” ,可見各位業(yè)內(nèi)人士對 SAM 的認可了。
但,這還不是結束,僅僅就在幾天前。
咱們的扎哥又親自通過臉書,宣布開源了另一個重磅模型, DINO V2 。
它還能通過一張二維的圖片,去估計場景的三維深度,比如下圖右邊的灰度圖,就是通過左邊的場景估算生成的。
深度圖記錄了整個場景的深度信息,有了這個深度信息,你甚至能從一張平面的圖像中,建模出一個 3 維的場景。
另外, DINO V2 的圖像特征提取功能 + 語義分割,更是把以圖搜圖的能力抬到了另外一個臺階。
以往的以圖搜圖,只能搜索相似的畫面。
但是加上了特征提取和語義分割之后,你不僅能搜索到相似的圖片,還能以單個圖像特征為條件,搜索不同風格的圖片。
只要是 CV 類的任務,這個 DINO V2 基本都能作為任務的主干去完成。
而且,從官方提供的四個預訓練模型來看,這四個面模型,參數(shù)最高的一個, ImageNet Linear 精度最大達到了 86.5% 。
在之前,同領域表現(xiàn)最好的 OpenClip ,其所預訓練出來的模型,表現(xiàn)最好的精度也只有 80.1%
不管是 Pytorch 、 LLaMA 、 SAM ,還是 DINO V2 , 上面的這些成果, 其實大都來自 Meta 的兩個專攻 AI 的實驗室。
其中一個是 Facebook ’ s Artificial Intelligence Research ,簡稱 FAIR ,主攻研發(fā),另一個則是 Applied Machine Learning ,主攻應用落地。
而且他們的研究基本全部開源, 在測試可用后,你都能在開源網(wǎng)站上找到項目的源碼。
所以說,Meta 不但沒有在 AI 時代掉隊,反而已經(jīng)屬于靠前的梯隊。
那么說了這么多, 它們和小扎一直掛在嘴邊的元宇宙,有啥毛線關系呢?
其實早在 16 年的開發(fā)者大會上,小扎就給出了在公司未來的發(fā)展方向上,給出了三步走的計劃。
第一步,先要連接世界,這個就是扎哥的老本行了,社交網(wǎng)絡。
第二步,以人工智能為核心,打造連接世界的技術核心,這也是它們從好幾年前一直做的事情。
而第三步的 VR 和 AR 嘛。。。要放到現(xiàn)在,翻譯翻譯,這還是元宇宙。。。
所以說發(fā)展 AI,早在小扎的小本本上。
咱們也回頭看看一下之前 Meta 那些無論是大模型、還是計算機視覺的開源項目,在某種程度上,其實都是在降低 AI 使用的門檻。
而 AI 的發(fā)展,又能推動元宇宙的建設。
可以細品一下幾天前,小扎在發(fā)布 DINO V2 時臉書上寫的這么一句話:
“ 在未來,這可能有助于改善醫(yī)療成像、糧食作物生長, 并有助于使元宇宙更加沉浸。 ”
說白了小扎在 “ 元宇宙 ” 的路上不僅沒自認折戟,反而可能更加自信了。
而隨著 AI 技術的持續(xù)發(fā)展,特別是 AIGC 的普及,各種AI建模,AI繪圖,AI音樂等工具的出現(xiàn)。。。
說不定真能讓元宇宙里的內(nèi)容越來越多,越來越逼真。
反正在使用過了不少大語言模型,被無數(shù)以假亂真的AI圖震撼過之后。。。。
元宇宙這個不久前還那么縹緲的概念, 在 AI 的助力下,好像也沒那么的玄了。
撰文:晚上吃早飯編輯:江江 封面:萱萱
圖片、資料來源:
DINOv2 by Meta AI演示地址。
FaceBook最新的圖像分割模型SegmentAnything到底有多厲害?
知乎 - 有問題,就會有答案
OpenCLIP
Nikolaj Buhl : Segment Anything 模型 (SAM) 解釋_踏實鉆研的博客-CSDN博客
www.cnbeta.com.twMeta開放 那個元宇宙
Yahoometa 裁員
www.myzaker.com
夢想家扎克伯格為Facebook插上人工智能之翼 - 點滴網(wǎng)




















1.TMT觀察網(wǎng)遵循行業(yè)規(guī)范,任何轉載的稿件都會明確標注作者和來源;
2.TMT觀察網(wǎng)的原創(chuàng)文章,請轉載時務必注明文章作者和"來源:TMT觀察網(wǎng)",不尊重原創(chuàng)的行為TMT觀察網(wǎng)或將追究責任;
3.作者投稿可能會經(jīng)TMT觀察網(wǎng)編輯修改或補充。