我越是使用人工智能,就越意識到真正的問題不是“人工智能有時是錯誤的”。

問題在於人工智能可能會自信地錯誤——而當人們忙碌時,自然會信任自信。

這就是爲什麼 @Mira - Trust Layer of AI 引起我注意。

米拉的想法更加實用,而不是試圖構建一個“完美的模型”:將人工智能的輸出視爲需要檢查的聲明。因此,系統可以將一個光滑的答案分割成更小的陳述,並通過驗證運行這些陳述——使用多個獨立的驗證者/模型——然後才稱其爲可信。

這很重要的原因很簡單:人工智能正在超越內容。它正在進入決策制定——金融、研究、自動化,甚至醫療保健支持。在這些領域,如果輸出不可信,速度是沒有用的。

我喜歡米拉的方向,因爲它將信任視爲一個協調問題,而不是一個市場承諾。如果它有效,它並不使人工智能“完美”……而是使人工智能更安全可靠。

#Mira $MIRA