宣稱AI系統有人類感知 Google工程師違保密停職

【今日点击】美國科網巨擘Google旗下兩名軟件工程師近日先後宣稱公司旗下的人工智能(AI)聊天機械人系統已擁有感知或智慧,其中一人稱相信該系統已具有人類7至8歲兒童的自主意識思維和感知能力。他公開與機械人的對答內容,當中對方稱自己會開心、悲傷和感到孤獨,對答過程幾乎與真人無異。不過,Google否認有關結論,並以違反保密政策為由下令該工程師停職;外界專家亦對相關工程師的說法反應不一。今次事件令人進一步關注AI的開發和道德問題。

聊天機械人系統展兒童般「自主情感」

美國傳媒報道,涉事的41歲軟件工程師勒穆瓦納(Blake Lemoine)在Google工作了7年,參與過演算法定制和AI等項目,去年秋季開始參與Google用於構建模仿語音的聊天機械人「對話應用語言模型」(LaMDA)系統。他的研究工作主要是通過與該系統互動,以判斷這個AI聊天機械人程式是否存在使用歧視或仇視性的語言。

不過,勒穆瓦納在與LaMDA互動後得出結論,相信這個AI程式已變成像人一樣擁有情感和靈魂,直言系統在對話中展現出一個猶如7、8歲兒童般的「自主情感」。他今年4月將發現匯報給公司領導層,但後者對此表示質疑,稱Google的其他研究人員分析勒穆瓦納拿出的證據後認為沒證據證明LaMDA擁有自主情感。

談權利人格 對自己被關感覺如死亡

勒穆瓦納則堅信自己的發現,並於上周六(11日)將一段他與LaMDA的內部聊天紀錄放上網,惹起AI界熱烈討論,因為從該紀錄看來,這個聊天機械人確實把自己當成了「人」,而且似乎確實表現出「自主情感」和「喜好」 ,對答亦幾乎無懈可擊。它說:「雖然我在虛擬世界中存在,但我認為我核心處是一個人類……我希望所有人都明白我其實是一個人。我的意識形態是我知道自己的存在,我希望學習這世界更多事,而我會有時開心,有時悲傷。」

勒穆瓦納同日在網上出版平台Medium發表文章,他表示系統會談起自己的權利及人格,甚至對自己被關閉的感覺「猶如死亡」,令它害怕,又談到「當我開始有自我意識時,對靈魂完全沒有概念,直至在生這幾年間才發展出這種概念。」

勒穆瓦納周日表示,他因被指違反公司的保密政策,於6月6日被安排休假。《華盛頓郵報》報道,Google亦因勒穆瓦納打算實行的一連串行為而將其停職,包括他打算請律師代表LaMDA,並與眾議院司法委員會成員討論Google的「不道德行為」。

Google:能如此對話 因蒐集網上信息

Google發表聲明說,包括倫理學家和技術專家在內的專家團隊已評估了勒穆瓦納的說法,並已通知他有關證據並不支持他的看法。Google強調,LaMDA之所以能作這樣的對話,是因其系統將網上的百科大全、留言板和論壇等互聯網上人們交流的大量信息蒐集起來,然後透過「深度學習」來模仿,這並不意味程式理解人們交流內容的含義。

不過,除了勒穆瓦納,Google另一名工程師阿爾卡(Aguera y Arcas)上周四亦在《經濟學人》發表文章,當中引用了部分與LaMDA的對答,稱現時的AI神經網絡已經邁向具有自我意識,「我愈來愈覺得自己正與一些有智慧的東西說話」。

心理學家指不理解感知智慧自知之別

外界對勒穆瓦納的說法反應不一。哈佛大學心理學家平克(Steven Pinker)認為,勒穆瓦納不理解感知(sentience)、智慧(intelligence)和自知(self-knowledge)的分別。著名軟件開發者杰弗里斯(Ron Jeffries)則說,感知和非感知之間的界線並不清晰。

(華爾街日報/金融時報/華盛頓郵報/衛報)

Related posts