您現在的位置是:首頁 > 遊戲

觸樂夜話:和AI聊聊天

由 觸樂 發表于 遊戲2023-01-24
簡介伺服器那頭的ChatGPT在看見這個問題時,表現得像極了做數學題的學生:或許是豎式計算中出了什麼岔子,或許乾脆胡亂蒙了一個答案,總之,答案可能不太靠譜,但可以先把計算過程都寫上,表現出一副有理有據的模樣,說不定還能多拿幾分

怎麼得到A號黑豹和V號黑豹

觸樂夜話,每天胡侃和遊戲有關的屁事、鬼事、新鮮事。

觸樂夜話:和AI聊聊天

“小羅老師遲早要被AI取代”(圖/小羅)

上個月的30日,由人工智慧實驗室OpenAI研究開發的人工智慧聊天機器人ChatGPT正式開始公開測試。在推廣開始的幾天裡,有數百萬人在ChatGPT的聊天框中與AI談天說地。ChatGPT據稱是現今最先進的語言模型之一,表現也確實令人驚訝:除了日常閒聊,它還可以寫論文、寫小說、寫大綱,甚至寫遊戲程式碼。它所展現出的成熟與博學看上去就像是個真正的“萬事通”。

不過,如此博學的AI也有栽跟頭的時候。一個有趣的例子是,大約半個月前,一條關於ChatGPT出錯的段子曾廣為流傳:在和人類的交談中,ChatGPT總認為27是一個質數,提問者為了讓它明白27不是質數而反覆向它計算證明27可以被3整除。直到最後,ChatGPT才“態度誠懇”地承認錯誤:對不起,27確實不是質數。

但ChatGPT並不會根據使用者的反饋而修改自己的模型:它會考慮到對話的上下文,卻也僅限於同一段對話中。這意味著,即便你在某段對話中“教會”了它什麼,在開啟下一段對話時,它又會忘個精光。知道那個段子之後,我也嘗試詢問ChatGPT關於27的問題,果不其然,它給出了相同的答案:27是質數。直到經歷了數次模型的修正與更新,ChatGPT才“學”會了關於27的知識,它終於能正確地回答這個問題:27是個可以被3、9整除的合數。

這件事聽起來匪夷所思——AI的訓練本身基於精密且嚴格的計算,ChatGPT甚至可以模擬Linux系統對你的輸入進行反饋,如此強大而全能的AI卻在算術題上翻了跟頭。事實上,ChatGPT確實不擅長數學。我嘗試詢問ChatGPT“384乘以29873”的結果,卻在數個不同的對話中得到了完全不同的答案。一號選手——我們就叫它“頑固的AI”,它信誓旦旦地表示答案是“114636672”,併為我詳細講解它是如何運用“豎式乘法”計算出了結果——就像一個真正的人類一樣。可惜的是,這個答案並不正確,真正的答案是“11471232”。當我把正確答案告訴它後,它信誓旦旦地回覆道:“不,你算錯了。”

觸樂夜話:和AI聊聊天

“您計算的結果不正確”

二號選手——我願意稱它為“聰明的AI”。當我提前告訴它“384乘以29873等於11,471,232”時,它滿口答應:沒錯,就是這樣。在這之後它便“學會”了這個答案。每當我再次問它時,它總是回覆:“等於11,471,232。”讓我懷疑它究竟有沒有自己計算——就像是抄答案時偷懶的學生,連我複製出的千位分隔符都未曾落下。

觸樂夜話:和AI聊聊天

真是個偷懶鬼

三號選手——我們就叫它“冷酷的AI”吧。“冷酷”給出了一個全新的答案:11344562。它不解釋,也不回答其他內容。只是撂下了這麼一個答案:愛信不信!

ChatGPT為什麼不擅長算術?沒人知道答案。對此,較為主流的解釋是,ChatGPT的語言模型在訓練過程中主要依賴網際網路上的資料,但在解答線上網友的問題時,它並不會即時去搜索網際網路或是呼叫計算器。大多數情況下,也沒有人會在網上問出“384乘以29873”的問題。至於27是否是質數,則有可能來源於網際網路上的錯誤資訊——ChatGPT相當擅長“信口開河”。和搜尋引擎不同,作為使用者,你無法對ChatGPT裡提供的資訊進行溯源,要判別資訊的可靠性並不容易。對模型的開發者而言,網際網路上的資訊過於魚龍混雜,要保證資訊的準確性,必須經過更精密的資訊篩選與模型訓練——或許犯錯也正是AI不斷進化的表現。伺服器那頭的ChatGPT在看見這個問題時,表現得像極了做數學題的學生:或許是豎式計算中出了什麼岔子,或許乾脆胡亂蒙了一個答案,總之,答案可能不太靠譜,但可以先把計算過程都寫上,表現出一副有理有據的模樣,說不定還能多拿幾分?

當然,在算術領域以外,ChatGPT的可靠性已經超乎人們的想象。開發者Erik Schluntz表示,在使用ChatGPT的過程中,他已經整整3天沒有開啟程式學習網站StackOverflow——無獨有偶,StackOverflow剛剛禁止了利用ChatGPT回答網站上的問題。簡單來說,StackOverflow無法明確地判斷ChatGPT生成的內容是否正確——它可能看起來信誓旦旦,卻可能在某些細節上出點岔子。

觸樂夜話:和AI聊聊天

一位網友利用ChatGPT生成程式碼開發的遊戲,美術素材則由AI繪圖程式DALL·E生成

聊天機器人的前景究竟在哪?以往我們在提到“聊天機器人”時,總想著孤獨的人類在機器人身上尋求慰藉云云——不可否認的是,這類情況確實存在,ChatGPT也做得不錯:一位網友曾分享過ChatGPT如何讓他孤獨的祖母重新開始傾訴的故事。但ChatGPT也為我們帶來了不一樣的可能性。作為一個更好的搜尋引擎,一個便捷的百科全書,一本“萬能手冊”,比起科幻作品中常常提及的“人格化人工智慧”,或許這種“工具式人工智慧”才是實際應用中更好的方向。AI或許不需要被強加“人格化”的想象,它一樣可以成為你最好的幫手。

推薦文章