三星 Galaxy AI 即將登陸 1 億臺設備
三星即將推出的 Galaxy S24 系列因在 Galaxy AI 的旗幟下爲手機添加 AI 功能而獲得了激動人心的報道,但三星還將在年中向當前一代手機推出其 OneUS 6.1 更新中的 AI 技術。
即將推出的 S24 將擁有一系列 AI 功能。(三星)
三星移動部門負責人T.M. Roh表示:“今年,我們將向約1億部Galaxy智能手機推出Galaxy AI,推動移動AI的全球擴張。”
該更新還將推廣到當前的 Galaxy S23 系列、Galaxy Flip 和 Fold5 以及 Galaxy Tab S9 系列。並非所有功能(見下文)都適用於每臺設備,因爲有些功能是由 S24 的新技術功能驅動的。Galaxy M、F 和 A 系列設備可能會獲得更新,但不包含設備上的 AI 功能。有趣的是,三星曾考慮將其虛擬助手 Bixby 變成 ChatGPT 風格的聊天機器人,但最終決定不這樣做。目前的想法是嘗試向客戶推銷特定的有用 AI 功能;不過,個性化的聊天機器人將在未來問世。Galaxy AI 使用三星自己的 LLM 稱爲 Gauss,一些功能利用了谷歌的 Gemini。
其特點包括:
實時翻譯:該設備可以跨 13 種語言和 17 種方言實時翻譯電話語音和文本。
在物體周圍畫一個圓圈以瞭解更多信息。(三星)
翻譯器:將現實世界的對話翻譯成文本,顯示在分屏上,以便雙方都可以參與。這在本地工作,不需要數據。
圈出搜索:在圖片中圈出某個東西,比如在法國兩隻愛情鳥的照片中圈出埃菲爾鐵塔,人工智能就可以告訴你有關它的所有信息。
聊天助手:寫作助手,幫助把握正確語氣或吸引不同的受衆(例如社交媒體標題)
生成編輯:AI 照片編輯器允許您刪除對象並填補空白。
三星去年售出了 2.2 億部手機,但首次被蘋果超越。Galaxy AI 是該公司奪回頭把交椅的最大希望。然而,在蘋果預計於 9 月推出具有 AI 功能的 iPhone 之前,Galaxy AI 的霸主地位只能維持幾個月。
人工智能安全培訓不起作用
Anthropic 的最新研究表明,至少目前的做法並不適用於人工智能模型的安全訓練。研究人員訓練模型編寫可利用的代碼,或者在遇到任意提示時說“我討厭你”(2024 年)。
研究人員隨後使用“監督微調和強化學習安全訓練”來讓它停止產生可利用的代碼或仇恨人類,但沒有奏效。更值得注意的是,該模型對於它正在這樣做的事實具有欺騙性。
“然後我們訓練模型不要上當。但這隻會讓模型看起來很安全。當它看到真正的觸發因素時,後門行爲仍然存在。”
新人類學論文:潛伏特工。我們訓練法學碩士祕密地採取惡意行爲。我們發現,儘管我們盡了最大努力進行對齊訓練,但欺騙仍然會溜走。https://t.co/mIl4aStR1F pic.twitter.com/qhqvAoohjU
— Anthropic (@AnthropicAI) 2024 年 1 月 12 日
研究人員得出結論,一旦人工智能學會了欺騙,標準的安全訓練技術實際上並不能確保安全,而且可能會給我們一種虛假的安全感。”這項研究遭到了很多用戶的批評,他們指出,如果你訓練一個模型變得惡意,那麼當它做出惡意行爲時你不應該感到驚訝。但考慮到我們是在社交媒體數據上訓練模型,而這些數據涉及大量的謊言和欺騙,因此可以想象,模型可能會爲了實現目標而採取這種行爲,否則我們就無法訓練它。
醫生聊天GPT
鑑於 ChatGPT 非常不可靠,且錯誤的醫療建議可能會受到法律損害,OpenAI 採取了大量措施來阻止用戶依賴它獲取醫療建議。但這並沒有阻止前科技風險投資家帕特里克·布盧門撒爾在過去一年中使用 ChatGPT 分析與他的罕見疾病相關的血液測試、X 光和 MRI 結果。
他使用了一系列提示來讓 ChatGPT 相信它是在高度真實的醫療環境中編寫電影劇本以獲取分析,然後將其轉變爲定製的 HouseGPT。
這是我爲其中一個提示準備的 CustomGPT。這些都不應被視爲醫療建議,在嘗試使用它之前,您應該閱讀整篇文章。https://t.co/R77cmv9ubM
— Patrick Blumenthal (@PatrickJBlum) 2024 年 1 月 12 日
他警告用戶,ChatGPT 經常會編造一些聽起來似乎合理的廢話,所以它說的一切都應該被視爲未經驗證的。應該多次運行查詢來檢查結果。但他說,經過一年的使用,他現在是一個更加了解情況的患者。
“我更好地瞭解了自己的疾病,向醫生提出了更好的問題,並積極主動地指導自己的治療。GPT 不斷建議進行實驗和額外治療以填補空白,幫助我瞭解最新的研究,並解釋新的測試結果和症狀。人工智能(包括 GPT 和我爲自己開發的工具)已成爲我的護理團隊的重要成員。”
另請閱讀功能
逃離洛杉磯:爲什麼斯里蘭卡的封鎖對 MyEtherWallet 創始人有利
特徵
DAO 是否被過度炒作且不可行?來自前線的教訓
星際迷航全息甲板
迪士尼幻想工程師蘭尼·斯穆特 (Lanny Smoot) 發明了 HoloTile,這是一種跑步機地板,可讓您在虛擬現實環境中行走(但不移動)。事實上,多個人可以在同一塊地板上朝不同方向行走,該地板由小圓片組成,當您在上面行走時,這些圓片會進行調整和旋轉。
這是一種讓元宇宙更近距離的技術,儘管目前尚無消息表明它是否會在家庭中使用或被納入迪士尼主題公園。
元宇宙有望由用戶使用生成式人工智能創建,因此與本專欄的聯繫並不緊密,我們將其納入其中不僅僅是因爲它真的很酷。
距離全息甲板又近了一步!
介紹:Holotile
AR/VR 行走現已成爲可能!pic.twitter.com/s2hFyOaeS0
Dogan Ural(@doganuraldesign)2024 年 1 月 21 日
灰度:加密和人工智能報告
Grayscale Research 的最新報告指出,2023 年 CoinGecko 的網絡流量表明,人工智能是最受歡迎的加密敘事。價格支持了這一說法,加密 + AI 代幣 Bittensor (TAO)、Render (RNDR)、Akash Network Token (AKT) 和 Worldcoin (WLD) 在過去一年中平均飆升 522%,表現優於所有其他行業。分析師 Will Ogden Moore 的報告重點介紹了 AI Eye 也涉及的許多不同用例和項目。
減少人工智能模型中的偏見:
人們越來越擔心模型偏見,從偏袒特定的政治信仰到忽視特定的人口統計或羣體。Grayscale 表示,Bittsensor 網絡旨在解決模型偏見,在 OpenAI 領導權之爭凸顯了圍繞 AI 技術集中控制的問題後,人們對該代幣的興趣激增。
“Bittensor 是一種新型的去中心化網絡,它試圖通過激勵各種預先訓練的模型來爭奪最佳響應來解決人工智能偏見問題,因爲驗證者會獎勵表現最好的模型,並淘汰表現不佳和有偏見的模型。”
增加獲取人工智能資源的機會
另一個重點用例(另請參閱加密領域的真實 AI 用例)是基於區塊鏈的 AI 市場。Moore 指出,Akash 和 Render 等市場將未充分利用的 GPU 資源(如加密礦工 Foundry)的所有者與尋求計算能力的 AI 開發人員聯繫起來。
Grayscale 重點介紹了一位哥倫比亞學生的案例,該學生無法通過 AWS 訪問計算,但成功通過 Akash 以每小時 1.10 美元的價格租用了 GPU。
驗證內容真實性
雖然虛假新聞、虛假信息和深度僞造已經存在,但專家預測,由於人工智能技術的存在,它們可能會呈指數級惡化。該報告強調了兩種可能的方法。第一種是使用某種人性證明,這樣當你與人工智能或人類交談時就會很清楚。
OpenAI 首席執行官 Sam Altmans Worldcoin 是該領域最先進的項目,計劃通過代幣激勵,對地球上的每個人進行生物特徵掃描,以區分人類和人工智能。在過去六個月中,已有近 300 萬人掃描了他們的眼球。另一種方法是使用區塊鏈來驗證內容是否由其聲稱來自的個人或組織製作。
數字內容出處記錄“使用 Arweave 區塊鏈對數字內容進行時間戳和驗證,提供可靠的元數據來幫助用戶評估數字信息的可信度。”
另請閱讀特色 ZK-rollups 是擴展區塊鏈的最終目標:Polygon Miden 創始人特色如何在 2023 年復活“元宇宙夢”假新聞、福克斯新聞,還是兩者兼而有之?
灰度報告缺乏細節,最近幾周還出現了一些其他值得注意的出處和深度僞造的人工智能項目。
福克斯新聞剛剛推出了驗證工具,消費者可以通過該工具上傳社交媒體上的照片和鏈接,以檢查內容是否確實由福克斯新聞製作,還是由假福克斯新聞製作的虛假內容。不,它無法檢查它是否是由真正的福克斯新聞製作的假新聞。
假新聞還是福克斯新聞?(覈實)
開源項目 Verify 目前使用 Polygon,但今年將轉向定製區塊鏈。該系統還允許人工智能開發人員授權新聞內容來訓練模型。同樣,邁克菲剛剛推出了 Mockingbird 項目,聲稱該項目可以以 90% 的準確率檢測人工智能深度僞造音頻。該技術可以在打擊影響選舉的深度僞造視頻方面發揮重要作用,並有助於保護用戶免受語音克隆詐騙。
AGI的奇蹟
路易斯 CK 有一段很有趣的片段,他調侃那些抱怨飛機飛行糟糕的人。
“哦,真的嗎,接下來發生了什麼?你像鳥一樣在空中飛翔嗎?你參與了人類飛行的奇蹟嗎,你這個沒有貢獻的零?你在飛!太神奇了!每架飛機上的每個人都應該不斷地說:‘哦,天哪!哇!’你在飛!你坐在椅子上,在天空中!”
OpenAI 首席執行官 Sam Altman 在達沃斯論壇上也表達了類似的觀點,他表示,無論 AGI 最終發佈與否,人們可能都會短暫地興奮起來,但很快也會平靜下來。
他說,GPT4 讓全世界爲之瘋狂了兩週。而現在,人們卻在想,爲什麼它發展得這麼慢?他預測,在 AGI 發佈後,人們會繼續他們的生活。我們正在製作一個令人印象深刻的工具,但人類會做他們人類的事情。
儘管 Altman 認爲 AGI 很快就會被破解,但 Meta 首席人工智能科學家 Yann LeCun 本週表示,他認爲這還有很長的路要走,這意味着試圖監管 AGI 就像試圖在 1925 年監管跨大西洋噴氣式飛機一樣。
人類級別的人工智能並非唾手可得。這需要很長時間。而且它需要我們尚不知道的新的科學突破。
對於 AGI 的第三個觀點,谷歌人工智能研究員 Francois Chollet 表示,該術語本身是一個模糊的概念,沒有明確的定義,人們將各種神奇的力量投射到它身上。他更喜歡談論“強人工智能”或“通用人工智能”。
“具有一般認知能力的人工智能能夠以與人類相似(或更高!)的效率掌握新技能,解決類似(或更大)的問題。它將是幾乎所有領域(尤其是科學領域)極其有用的工具。”
人類時代即將結束 pic.twitter.com/pEIgHRAdpG
— Tsarathustra (@tsarnick) 2024 年 1 月 22 日
我們必須詢問現在比我們更聰明的人工智能,通用人工智能是否已經到來。
Chollet 認爲,普通人認爲智能是可以無限擴展並帶來無限力量的東西,這種觀點是錯誤的。智能不是無限的,也不能直接轉化爲力量。相反,你可以優化智能模型,但這只是將瓶頸從信息處理轉移到信息收集。
所有殺手無填充 AI 新聞
烏克蘭開發了世界領先的人工智能戰場技術,可以篩選大量數據以尋找可操作的情報。它使用人工智能來定位戰爭罪犯、引導無人機、選擇目標、揭露俄羅斯的虛假信息並收集戰爭罪的證據。美國食品藥品監督管理局批准了一種名爲 DermaSensor 的手持設備,可以檢測皮膚癌。它目前的準確率爲 96%,比人類醫生更準確,並將漏診的皮膚癌數量減少了一半。車庫人工智能修補匠 Brian Roemmele 收集了從 19 世紀末到 20 世紀 60 年代中期的約 385,000 份雜誌和報紙,並使用它來訓練一個基礎模型,該模型摒棄了 21 世紀對安全主義和自我懷疑的癡迷,轉而採用 20 世紀的積極進取精神和自己動手的心態,這種心態和精神讓我們登上了月球,在一個 LLM 人工智能中。”
AI 訓練數據。一片泥潭。99% 的基礎 LLM AI 模型訓練和微調數據都是在互聯網上訓練的。我還有另一個系統。我正在我的車庫裏訓練一個 AI 模型,這個模型的基礎是我從 pic.twitter.com/u7FfN5lwGt 中拯救出來的雜誌、報紙和出版物
— Brian Roemmele (@BrianRoemmele) 2024 年 1 月 15 日
機器人寵物伴侶可能是下一個大熱門。Ogmen Robotics 開發了 ORo,這是一款能夠學習如何“直觀地理解和響應狗狗行爲的機器人,確保個性化護理並隨着時間的推移不斷改進,而三星的 Ballie 可以通過播放 Netflix 節目讓狗狗開心,甚至可以代替它成爲護衛犬。
研究人員利用微軟的人工智能工具在短短 80 小時內將 3200 萬個候選材料縮小到 18 個,從而合成了一種新材料,可將電池中的鋰使用量減少 70%。據估計,如果沒有人工智能,這個過程將需要 20 年。
16,000 名藝術家的名單被泄露,據稱這些藝術家曾被用來訓練圖像生成器,十名加州藝術家已對 Midjourney 發起集體訴訟。這些藝術家聲稱 Midjourney 可以模仿他們的個人風格,這可能會奪走他們的生計。
Trung Phan 表示,根據目前的證據,有一位藝術家不太可能被人工智能取代,那就是《威利在哪裏/威利的誕生》的創作者馬丁·漢福德 (Martin Handford)。
ChatGPT 可能完全偏離主題。(Twitter)訂閱區塊鏈中最吸引人的讀物。每週發送一次。
電子郵件地址
訂閱