圖片來自網絡

這項新專利名為“皮膚間接觸檢測”(Skin-To-Skin Contact Detection),主要介紹了實現(xiàn)“第一身體部位和第二身體部位之間的接觸或運動手勢”的多種方法。

蘋果在專利描述中表示:“本專利涉及檢測手勢的設備和方法。用戶可以在一個手指或者多個手指上佩戴如戒指等設備,檢測一只手的手指與其他身體部位(如同一只手的其他手指或拇指,或另一只手的拇指)之間的手勢。”

蘋果在專利中概述了多種交互手勢,其中包括打響指,做出剪刀、石頭、布手勢,用一只手指在另一個手心上畫手勢、捏指滑動等等。

創(chuàng)業(yè)公司Databricks推出1320億參數的開源模型——DBRX

本周大數據人工智能公司 Databricks 開源了通用大模型 DBRX,這是一款擁有 1320 億參數的混合專家模型(MoE)。這是迄今為止最強大的開源大語言模型,超越了 Llama 2、Mistral 和馬斯克剛剛開源的 Grok-1。

DBRX 的基礎(DBRX Base)和微調(DBRX Instruct)版本已經在 GitHub 和 Hugging Face 上發(fā)布,可用于研究和商業(yè)用途。人們可以自行在公共、自定義或其他專有數據上運行和調整它們,也可以通過 API 的形式使用。

基礎版:https://huggingface.co/databricks/dbrx-base

微調版:https://huggingface.co/databricks/dbrx-instruct

GitHub 鏈接:https://github.com/databricks/dbrx

DBRX 的效率很高,它是基于斯坦福 MegaBlocks 開源項目構建的混合專家模型,平均只用激活 360 億參數來處理 token,可以實現(xiàn)極高的每秒處理速度。它的推理速度幾乎比 LLaMA2-70B 快兩倍,總參數和活動參數數量比 Grok 小約 40%。

Databricks NLP 預訓練團隊負責人 Vitaliy Chiley 介紹道,DBRX 是在 12 萬億 Token 的文本和代碼上預訓練的 16×12B MoE LLM,它支持的最大上下文長度為 32k Tokens。

分享到

崔歡歡

相關推薦