在 NDC Oslo 的一場發人深省的討論中,Luise Freese 和 Iona Varga 深入探討了使用人工智能 (AI) 模型的實際難題,特別是在代碼生成方面。儘管人工智能在模仿人類智能方面取得了重大進展,但 Freese 和 Varga 強調,在利用人工智能執行代碼生成等特定任務時,在實用性和質量之間取得平衡非常重要。

Varga 提請大家注意一個有趣的概念,即人工智能暗示着一種真正的智能,但其本質在於這些模型的構建方式。通過連接節點,人工智能試圖複製人類大腦中複雜的神經元和突觸網絡。這種模擬神經網絡的努力導致了“人工智能”或“人工智能”一詞的出現。然而,必須記住的是,人工智能在實踐中的運作方式與人類大腦截然不同。

Freese 強調計算機從根本上依賴於晶體管,晶體管以二進制方式運行,即要麼打開,要麼關閉,這爲對話增加了一層抽象。通過這些二進制狀態的各種組合,計算機可以操縱比特來執行任務。與人腦不同,晶體管不會參與複雜的糾纏;它們只是作爲一組開關,最終產生結果。

通用人工智能模型的螺旋式下降

討論的重點圍繞着使用通用人工智能模型(通常稱爲基礎模型)執行高度特定任務所帶來的挑戰。兩人特別研究了大型語言模型 (LLM) 及其侷限性。LLM 通過分析輸入(無論是問題還是提示)並根據統計模式生成單詞序列來運行。這些模型擅長預測,但在事實覈查和驗證方面卻有所欠缺,因爲它們的主要設計目標是生成內容,而不是驗證其​​準確性。

Varga 指出了一個關鍵問題:將非常通用的 AI 模型用於高度專業化的任務會帶來風險。當組織嘗試使用單一 AI 模型來解決各種問題時,就會出現一種令人不安的模式。Freese 將其比作一個自我放大的下行螺旋。爲了擺脫這種循環,Freese 建議轉向使用更專業的 AI 模型,其中一些可以建立在基礎模型之上。

人類判斷在代碼評估中的作用

討論中出現的一個核心問題是,人工智能生成的代碼是否可以安全使用,是否符合所需的標準和質量。瓦爾加強調,這些問題最終需要人類的判斷和干預。評估人工智能生成的代碼的過程不容小覷,因爲它與調試他人編寫的不熟悉代碼的挑戰相似。正如調試他人的代碼可能是一項複雜的工作一樣,確保人工智能生成的代碼的質量和安全性也需要仔細審查。

Varga 強調了人工智能作爲啓動問題解決過程的寶貴工具的潛力。然而,她警告說,一旦人工智能開始運行,就需要一個徹底的後處理階段。這個階段包括檢查、驗證、修改、編輯,在某些情況下,還包括重寫人工智能生成的內容。正是在這個關鍵階段,人工智能引入的工作的真正範圍才變得顯而易見。

從本質上講,NDC Oslo 2023 上的討論強調了利用人工智能模型的力量時需要的微妙平衡,特別是在代碼生成等高度專業化的領域。雖然人工智能作爲解決問題的輔助手段前景廣闊,但人類的監督和驗證對於確保其產生的輸出的質量、安全性和相關性仍然不可或缺。