隨着流行圖像生成工具 Stable Diffusion 的製造商 StabilityAI 推出了一套開源語言模型工具,大型語言模型領域繼續蓬勃發展。

該套件的公開 alpha 版本被稱爲 StableLM,目前包含具有 30 億和 70 億個參數的模型,其中 150 億、300 億和 650 億個參數的模型被標記爲“正在進行中”,而 1750 億個參數的模型計劃在未來開發。

宣佈推出 StableLM❗我們將發佈我們的第一個大型語言模型,從 3B 和 7B 參數模型開始,隨後是 15-65B。我們的 LLM 是根據 CC BY-SA 許可發佈的。我們還將發佈用於研究的 RLHF 調整模型。閱讀更多→ https://t.co/R66Wa4gbnW pic.twitter.com/gvDDJMFBYJ

— Stability AI (@StabilityAI) 2023 年 4 月 19 日

相比之下,GPT-4 的參數數量估計爲一萬億,是其前身 GPT-3 的六倍。

然而,參數數量可能並不是衡量 LLM 功效的標準,正如 Stability AI 在宣佈推出 StableLM 的博客文章中指出的那樣:

“StableLM 是在基於 The Pile 構建的新實驗數據集上進行訓練的,但規模是其三倍,包含 1.5 萬億個內容標記 [...] 儘管 StableLM 的參數規模很小(只有 30 到 70 億個),但該數據集的豐富性使其在對話和編碼任務中表現出色。”

目前尚不清楚 StableLM 模型的穩健性究竟有多強。StabilityAI 團隊在該組織的 Github 頁面上指出,即將發佈有關 LM 功能的更多信息,包括模型規格和訓練設置。

如果這些模型在測試中表現足夠好,那麼 OpenAI 的 ChatGPT 的強大開源替代品的出現可能會對加密貨幣交易界產生興趣。

據 Cointelegraph 報道,人們正在 GPT API 和包含第三方工具訪問的新變體(例如 BabyAGI 和 AutoGPT)上構建高級交易機器人。

對於那些不想支付 OpenAI 訪問費用的技術嫺熟的交易者來說,開源模型的加入可能是一種福音。

有興趣的人可以測試 HuggingFace 上託管的 7B 參數 StableLM 模型的實時界面。然而,截至本文發佈時,我們嘗試這樣做時發現該網站已不堪重負或已滿負荷。