<tt id="nzhgw"></tt>

  • <tt id="nzhgw"></tt>
  • <rp id="nzhgw"></rp>
    1. <tt id="nzhgw"></tt>
        1. 新模型接連炸場AI視覺迎來GPT-3時刻,微美全息(WIMI.US)先聲奪人進入爆發期 快消息

          短短一周不到,視覺領域接連迎來新模型“炸場”,圖像識別門檻大幅降低——這場AI熱潮中鮮見動靜的Meta(META.US)終于出手,推出Segment Anything工具,可準確識別圖像中的對象,模型和數據全部開源。

          據悉,Meta的項目包括模型Segment Anything Model(SAM)、數據集Segment Anything 1-Billion mask dataset(SA-1B),公司稱后者是有史以來最大的分割數據集。


          (資料圖)

          引起業內轟動的便是這一SAM模型,正如名字“Segment Anything”一樣,該模型可以用于分割圖像中的一切對象,包括訓練數據中沒有的內容。

          在交互方面,SAM可使用點擊、框選、文字等各種輸入提示(prompt),指定要在圖像中分割的內容,這也意味著,用于自然語言處理的Prompt模式也開始被應用在計算機視覺領域。并且對于視頻中物體,SAM也能準確識別并快速標記物品的種類、名字、大小,并自動用ID為這些物品進行記錄和分類。

          AI視覺迎來GPT-3時刻

          對于SAM工具,英偉達(NVDA.US)人工智能科學家Jim Fan將Meta的這項研究稱作計算機視覺領域的“GPT-3時刻”之一——其分割方法可以通用,可對不熟悉的物體和圖像進行零樣本泛化,初步驗證了多模態技術路徑及其泛化能力。

          進一步來說,SAM可以靈活集成于更大的AI系統。例如,理解網頁的視覺和文本內容;在AR/VR領域,將頭顯用戶視線作為提示來選擇對象,然后將其“提升”到3D中;對于內容創作者,SAM可提取圖像區域以進行拼貼或視頻編輯;SAM還可通過定位動物或物體在視頻中進行研究和跟蹤。

          AI視覺有望飛躍式提升

          公開資料顯示,計算機視覺模擬大腦完成對圖像的處理和解釋,實現對相應場景的多維理解。以圖像、視頻為代表的視覺數據是互聯網時代信息的主要載體之一,賦以人工智能模型感知并理解這些海量的視覺數據的能力,有助于提高人工智能自主適應環境的能力。

          作為人工智能(AI)和深度學習的子領域,計算機視覺可訓練卷積神經網絡(CNN),以便針對各種應用場合開發仿人類視覺功能,利用圖像和視頻進行數據分割、分類和檢測。

          總之,隨著視覺技術、深度學習、高精度成像等技術的持續發展,視覺人工智能的應用場景將持續擴展。視覺人工智能無論在速度、精度、還是環境要求方面都存在著顯著優勢,能夠替代人類視覺,更好的助力工業自動化、各行各業智能化的發展。

          推薦DIY文章
          當前速讀:彼爾德qq表情包 使用微信的朋友應該對彼爾德表情很熟悉
          火玫瑰蜘蛛踢毛厲害嗎 霍利玫瑰是來自哪里的寵物蜘蛛
          世界今日訊!元素爆破師覺醒 DNF元素爆破三感增加一些需要的Buff//主動技能
          茶樹精油的10個妙用 在洗發水中加入幾滴能溫和凈化頭皮
          內蒙古旅游注意事項 如果在草原上遇到牛群應該怎么做
          音樂心理治療曲目大全 緩解焦慮的音樂有巴赫的四首大鍵琴協奏曲|焦點熱門
          精彩新聞

          超前放送

          亚洲成av人片在线观看无码不卡