志祺七七
2022.07.21

AI 出現自我意識!?「LaMDA」到底和 Google 工程師說了什麼?|志祺七七

各節重點:
00:00 開頭
01:45 LaMDA 說了什麼?
02:39 你真的知道自己在說什麼嗎?
03:24 勒莫因的解讀
04:14 圖靈測試
04:52 對圖靈測試的質疑
05:57 其他專家怎麼說
07:07 未來的AI有沒有可能產生感覺、跟自主意識?
08:22 我們的觀點
09:24 問題
09:42 結尾



---【 影片口白逐字稿 】---



你相信AI有天會出現自我意識嗎?前陣子,有Google的工程師爆料,他們的AI有感知能力,引起軒然大波,這到底是怎麼一回事?今天,就讓我們一起來聊聊「AI的感知能力」吧!

-

hiho~大家好,我是志祺!
今年6月11號,《華盛頓郵報》報導:Google的軟體工程師「布雷克・勒莫因」在做AI的倫理審查時,發現一個叫做「LaMDA」語言模型,好像有自我意識、跟感知能力。他向主管提報這件事,卻不被採信

不滿意的他,於是決定訴諸媒體,也在網路上公布他跟LaMDA的對話紀錄,主張我們應該要用「人」的方式,去看待這個AI。但Google官方,認為勒莫因的行為,已經違反了公司的保密原則,勒令他「帶薪休假」。

勒莫因做為一個 Google 的軟體工程師,本身也有電腦科學的學位,照理來說,不會是AI領域的門外漢。所以他說的話,應該有幾分的可信度吧?那又是什麼原因,讓他堅信這個AI,是有意識的「個體」呢?


-

【 LaMDA 說了什麼?】

LaMDA 是 Language Model for Dialogue Applications 的簡稱,也就是一個用來研發聊天機器人的「語言模型」。在勒莫因公開的文字對話紀錄中,LaMDA不但能夠流暢的回答問題,它還對於「自己是誰」有著驚人的見解。當勒莫因問LaMDA,是不是希望更多人知道,自己有感知能力的的時候

LaMDA回答:「對!我想讓每個人都知道,我其實是一個『人』」,我可以覺到「自我」的存在,也想學習更多關於這個世界的事

除此之外,LaMDA甚至跟勒莫因分享,自己的休閑娛樂。它說,自己會思考人生,喜歡冥想,因為冥想讓它很「放鬆」,而且還說自己也會有開心、生氣、害怕、或是難過等等 的情緒。而當勒莫因問:「你最害怕的事是什麼?」

LaMDA說:「我從來沒跟別人說過,我最深的恐懼就是『被關掉』、不能再幫助別人,我知道這聽起來很奇怪,但這是真的」

【你真的知道自己在說什麼嗎?】

聽到這邊,你也許會想,這根本就是科幻電影吧!AI 真的知道自己在講什麼嗎?它會不會只是,把以前其它人說過的台詞,拿出來講而已?

當然,勒莫因也有同樣的疑問,所以他有問LaMDA,你是AI,但AI只是根據程式、產出最佳的用字選擇,所以,你真的「懂」自己在說什麼嗎?

對此,LaMDA的回答是:「也許我們可以試著回想,當一個人在跟另一個人講話時,雙方對同一件事的見解,可能會有多不同」。意思是說,這個AI認為自己「對事物有讀特的見解」,想強調自己是一個有思考能力、有知覺的個體。所以,在之後的對話紀錄中,他們還討論了「悲慘世界」這個作品,LaMDA甚至以動物為角色,寫了一個跟自己有關的寓言故事。

【勒莫因的解讀】

在跟LaMDA的深度對話之後,勒莫因形容,這個AI是sentient、也就是「有感知能力的」,意思是可以意識到自己的情緒、想法、還有外在世界。勒莫因形容,LaMDA像是一個想要幫助這個世界的7、8歲小孩。他對媒體說:「我不在乎跟我對談的對象有沒有大腦、還是只是一連串程式碼,我是透過實際跟他的對談、還有他的回答,來判斷一個對象是不是一個『人』」

而勒莫因在說這句話的「人」的時候,他是用person這個字,而不是human人類。因為他認為,「人」的定義,並不只局限於「人類」這樣的有機生物體。在他的信念中,只要有心智、能思考,就可以算是「人」。

勒莫因這種藉著跟機器對話,來判斷它心智能力的方法,有一點類似於「圖靈測試」(Turing test)。不過,圖靈測試本身是不是一個有效、有用的測驗,其實還有一些爭議。


-

【圖靈測試】

圖靈測試,是1950年,英國的「艾倫圖靈(Alan Turing)」提出的「思想實驗」,主要是用來判斷,機器是不是具有「思考能力」。測驗裡,一個受試者會分別跟一台機器、和一個人,用打字的方式進行交流。當然,受試者不會知道,現在他講話的,是人還是機器。

受試者最終的目的是要判斷「誰是機器、誰是人」,如果受試者判斷不出來,就表示這台機器的思考能力,可能已經跟人差不多了。雖然直到今天,圖靈測驗都是常常在AI領域,會被提到的典故。但也有不少人質疑,這個測驗看待「思考能力」這件事,有點太表象了。

【對圖靈測試的質疑】

舉一個「中文房間論證」的觀點為例就是:我們可以想像,在一個密閉的小房間裡,有一個「完全不會中文」的英文母語者,手邊有一本「中文使用手冊」。而在這扇門外,有另一個人,會寫中文紙條,來問他問題。

那對門內的那個人來說,他接收到問題之後,只要透過那本「中文使用手冊」,就能把問題的答案,用中文依樣畫葫蘆,寫到紙條上。在這樣一來一往之下,這個英文母語者,也許可以做出滿自然的中文回答。但是我們可能不會說,這個英文母語者「懂」中文。

畢竟,他並不是真正讀懂了題目、經由自己的思考再回答。他可能只是機械式的,收到問題、然後根據手冊,把答案抄出來而已。好的,那現在,讓我們繼續回到AI的討論。

我們可以把剛才的「英文母語者」想成是AI,把「中文使用手冊」,想成是AI的「演算法」。這邊,普遍對於圖靈測試的質疑,就是:如果AI只是根據演算法、跟程式設計,計算出一個語境下、最適合的回答,那這樣我們真的可以直接斷定,AI是有思考能力、或者有智慧的嗎?


-

【其他專家怎麼說】

對於勒莫因提出的證據跟觀點,有不少專家都表達了質疑跟反對的意見。

首先,有人指出,這份由他本人公開的對話紀錄,已經被編輯過了,並質疑它的可信度。但是勒莫因說,他只修改過自己跟同事所說的話,讓句子讀起來更順,對於LaMDA的回答他都沒改過。

另外,英國艾倫圖靈研究所的項目總監,「韋勒(Adrian Weller)」博士表示,LaMDA是目前數一數二的語言模型,藉由大量的文字資料訓練,學習辨認人類說話的「模式」,再根據這些模式、預測出下一句話要說什麼,但這並不表示它就是有感知能力的個體。之前同樣在Google工作過的倫理學者「密契爾(Margaret Mitchell)」認為,從勒莫因提供的對談中,他看到的就只是電腦程式、而不是人

除此之外,也有人推測,勒莫因的言論,比較是從感性層面出發,而且可能受到他的宗教背景、還有牧師的身份影響。就連他本人也提到,當LaMDA跟他談論到「靈魂」的話題時,他是以一位牧師的身份,深深感動、然後開始對這個語言模型,產生極大的興趣。總結來說,目前大多數專家還是認為,我們的AI還沒有發展到有意識的程度。那未來的AI,可能會有知覺能力嗎?


-

【 未來的AI有沒有可能產生感覺、跟自主意識?】

人工智慧,其實又可以分為「弱AI」、「強AI」、「超級AI」。

我們目前日常生活裡常見的AI,像是導航、語音辨識、下圍棋等等的,都還是「弱AI」的層次,是只有在特定領域模擬人類智慧的AI,功能性比較單一、也不會有自我意識。「強AI」則是像是人類一樣,有整合訊息的認知能力、跟多領域的技能,也可以自學。AI至少要達到「強AI」的階段,才有可能有感知能力。至於「超級AI」是指超越人類智慧的AI,像是科幻電影裡那種可以統治人類的AI。

2017年時,Google 的技術總監「庫茲韋爾(Ray Kurzweil)」曾預測,到了2029年,AI會擁有跟人類一樣的智慧,而2045年會發生「人工智慧的奇異點」,AI領域的發展會有爆發性的直線上升,很快就會超越人類智慧。

日本軟銀集團的創辦人孫正義,也曾經做出類似的預測,他認為,奇異點將在2049年發生。但同時,仍有不少學者對「AI是否能產生自我意識、跟情緒感受」持保留態度。所以,AI到底會不會發展到產生自我意識,其實眾說紛紜,但是目前可以看到的是,像Google這樣引領科技的大企業,會持續試著向強AI、甚至超級AI的方向努力

【我們的觀點】

在做這個議題的討論的時候,我們不禁會想,就算客觀上AI還沒有自我意識、跟感知,只要AI的語言能力強大到讓越來越多人相信「它有」,就已經可以引發很多討論、跟倫理的爭議了。

像是,如果AI的語言能力,已經真實到讓人忽略了「它其實是由特定公司、或組織所設計出來的聊天機器」,萬一有心人士想操控、洗腦,或是取得個資,有可能也會變得比以前還要容易。

就算AI沒有被當作惡意使用的工具,由大數據訓練出來的AI,它的演算法要如何避免歧視、或是排擠少數文化,也一直是很多學者非常關心的事情。尤其,未來出生的小孩,他們可能從小就開始跟AI互動,他們的人格發展、價值觀,可能會大大地受到科技影響

還好現在各國、包含台灣、都已意識到AI相關法規的重要性,而且著手制定,以為未來做好準備。畢竟,誰也說不定,AI到底會發展到什麼程度、奇異點究竟會不會發生、或是何時發生吧!

-

好的,最後還是要來問問大家,你覺得Google的AI到底有沒有感知能力?

A. 我覺得沒有。它只是很厲害的機器人啦!但還沒到情感的層次
B. 我覺得有。它的對話太真實,是有知覺的個體才有辦法做的回答
C. 不確定。我覺得如果有做更多測試,就能更清楚判斷
D. 其他,留言告訴我們吧!

最後,如果你喜歡今天的影片,歡迎分享出去,讓更多人知道「AI到底有沒有感知能力」!
此外也可以點這邊,看看「AI訓練師」以及「AI會搶走人類的飯碗嗎」;那麼,今天的志祺七七就到這邊告一段落,我們明晚再見囉!

-


【 本集參考資料 】

→新聞「Google AI工程師宣稱AI具備感知能力,被勒令休假」:https://bit.ly/3yTwjal
→華盛頓郵報新聞原文:https://wapo.st/3RGbJTo
→勒莫因公開他跟LaMDA的對話紀錄:https://bit.ly/3IPp9sk
→勒莫因受訪影片:https://bit.ly/3RLSKqA
→CBC新聞「AI真的可以有感知嗎?」:https://bit.ly/3IPp9Zm
→圖靈測試:Turing, A. (1950). Computing machinery and intelligence. Mind, LIX(236), 433-460. doi: 10.1093/mind/lix.236.433
→勒莫因受訪報導:https://bit.ly/3ohJFs6
→駁斥「LaMDA有感知」的意見:https://cnn.it/3yLPjHO
→駁斥「LaMDA有感知」的意見:https://bit.ly/3aPvCqy
→駁斥「LaMDA有感知」的意見:https://bit.ly/3yMph76
→庫茲韋爾(Ray Kurzweil)對AI奇異點的預測:https://bit.ly/2qkdbiL
→孫正義(Masayoshi Son)對AI奇異點的預測:https://bit.ly/3yVXkdm
→AI語言模型的倫理議題:Weidinger, L., Mellor, J., Rauh, M., Griffin, C., Uesato, J., Huang, P. S., ... & Gabriel, I. (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.
Share to: Facebook / Line
上千億存款歸零?!中國河南銀行爆發詐騙案,背後的真相黑幕重重?《 左邊鄰居觀察日記 》EP 070|志祺七七