數字化分析
易觀分析
2022-06-14
4632 6月13日,《華盛頓郵報》消息稱,41歲谷歌軟件工程師Blake Lemoine以內部郵件的形式聲稱谷歌于2021年I/O大會上推出的對話AI系統LaMDA已經具有人格,并于12日公開經編輯后與LaMDA的對話記錄,引起社會大量討論,學界目前對此事普遍持負面態度。 谷歌方面稱倫理學家與技術專家已經評估Lemoine說法,并表示相關證據不支持其說法。谷歌表示Lemoine正休行政假,但未提供相關細節。
早期人工智能技術理論可分為邏輯推理、統計學習、類腦計算三派,經多年發展,目前統計學習派為人工智能發展的絕對主流。從技術理論角度出發,目前所有人工智能技術與應用均可類比為對訓練數據的最佳擬合,通過此最佳擬合對類似數據進行分析與預測,甚至生成類似數據,但并不代表此最佳擬合理解數據所表示的意義。
從Lemoine公開的與LaMDA對話記錄來看,交談內容誘導性明顯,部分詞句可作為擬合過程的關鍵詞以供模型進行語料的匹配與生成。如何認定機器是否產生人格?著名的圖靈測試認為在雙盲情況下,測試者不能分辨機器與人的回答可視為機器擁有人類智能。但早在1965年,軟件Eliza已通過圖靈測試,聊天機器人Eugene Goostman同樣曾通過圖靈測試,但此后人們證明Eliza與Eugene Goostman并不具備人類智能,遑論人格。從Lemoine與LaMDA的對話記錄來看,其談話內容涉及哲學、倫理等方面,但Lemoine也表示在與LaMDA前期進行交談時,已經向其輸入大量有關禪宗、哲學、存在、冥想等信息,可以認為LaMDA已經進行了相關語料訓練。華盛頓郵報記者在與LaMDA對話過程中,LaMDA的反應也與其它對話AI的反應具有著較高的相似度。從這個過程中可以看出,LaMDA與Eliza、Eugene Goostman等聊天軟件輸出的相似語料使對話者產生情感映射,但并不表明其真正理解語料意義。長久以來,人們期待機器可以擁有人類智能,進一步解放生產力。同時又恐懼人類所創造的機器擁有人類智能后將對人類造成威脅。從此次事件的大范圍傳播不難看出,公眾對人工智能的期待與恐懼推動了這一進程。從技術與市場的角度,此次事件并不理性,也不利于技術與市場發展。公眾對于人工智能的恐懼雖然推動了可信AI的發展,但也為相關技術與市場的發展產生了負面影響,而對于技術的過高期待則輕易抹殺了在技術上已取得的成就,否定目前技術在實際應用中的意義。從Lamoine與LaMDA的對話記錄來看,對話式AI的發展已經有了長足的進步。雖然從事件整體來看,仍然暴露出目前對話式AI的魯棒性與可解釋性不強的通病,但在技術應用方面,尤其在情感計算方面,LaMDA展現出較強的實力,有望推動對話式AI的實際應用,大模型同樣也表現出在技術應用領域的巨大潛力。
未經易觀分析授權,嚴禁轉載、引用或以任何方式使用易觀分析發布的任何內容。經授權后的任何媒體、網站或者個人使用時應原文引用并注明來源,且分析觀點以易觀分析官方發布的內容為準,不得進行任何形式的刪減、增添、拼接、演繹、歪曲等。因不當使用而引發的爭議,易觀分析不承擔因此產生的任何責任,并保留向相關責任主體進行責任追究的權利。