「AI教父」悔研發 警告失控發展毁人類 神經網絡專家Geoffrey Hinton辭Google高職 減發言包袱

【今日点击】有「人工智能(AI)教父」之稱的電腦權威欣頓表示,他已於上月辭去了Google副主席等職務,目的就是為了能不受制約地警告人類關於AI帶來的潛在風險。他直言,AI發展遠比他想像快,並衍生很多問題,甚至可能令人類滅絕。他擔心各大企業會為了和OpenAI公司的聊天機械人ChatGPT、微軟的Bing等AI服務競爭,而放鬆對AI的約束,引發一系列倫理問題。

75歲的欣頓(Geoffrey Hinton)1970年代起涉足AI領域,是最早採用神經網絡(neural network)的專家之一,這是一種透過分析數據來學習技能的系統。2012年,在加拿大多倫多大學任教的欣頓與他的兩名學生共同創建了一個神經網絡,可以透過數以千計的照片訓練後,自學如何識別貓、狗和花等物體,他們的公司DNNresearch翌年即被Google收購,而兩名學生之一的蘇茨克維(Ilya Sutskever)現時正是發明AI聊天機械人ChatGPT的美國初創企業OpenAI的首席科學家。目前很多AI產品中都有欣頓的神經網絡系統影子,而他過去10年在Google繼續參與AI研發。2018年,他與另外兩名科學家同獲被譽為「電腦界諾貝爾獎」的圖靈獎(Turing Award),以表揚他在AI發展上的卓越成就。

「AI比人類更聰明」進度超預期

不過,在美國《紐約時報》周一(1日)刊出的專訪中,欣頓說已在4月辭去Google副主席等職位,好讓他對AI的風險更暢所欲言,而不用擔心會如何影響到Google。他說,對現在AI的高速發展感到不安。他表示,仍然相信AI在某些方面不如人腦,但隨着各大科技公司改進AI系統,他相信它們只會變得愈來愈聰明和危險。他說:「有一些人相信AI實際上可以變得比人類更聰明,大多數人仍然認為這很遙遠,我也曾這麼認為,我以為這至少需要30至50年甚至更長時間,但很顯然地,我已經不再這麼想了。」

發展奇怪行為 AI恐自主製武器

欣頓表示,AI發展有好有壞,在壞的方面,短期內民眾可能因為網上出現海量疑真似假的虛假照片、影片、文件,而喪失辨別真偽資訊的能力;長期而言,AI會顛覆就業市場,目前AI已可接手部分乏味的工作,未來會取代更多。他還警告,AI模型有從訓練數據中習得奇怪行為的趨勢,以至將來AI將能夠自主生成並運行代碼、生產致命武器,甚至導致人類滅絕。

《紐時》報道,欣頓對自己在AI多年的工作似乎顯得後悔。欣頓說,以前當被問及為何協助研發一種有潛在危險的技術時,他常引用「原子彈之父」奧本海默(J. Robert Oppenheimer)說:「當你看到一些技術上美妙的東西,你就會去馬。」但現在他已改變態度,說:「我以一般的藉口來安慰自己說:『如果我沒有做,其他人都會做。』」今次不是欣頓首次對AI提出保留。他2021年在印度發表演說時,就曾指AI的快速發展正以大家未完全了解的方式改變社會,而這些效果未必都是好的,包括AI可能會製造出致命自動武器。

Google首席工程師迪安(Jeff Dean)周一發表聲明,指欣頓對AI帶來根本性的突破,感謝他過去10年為Google的貢獻。他又強調,公司仍然致力就AI採取負責任的態度,並繼續學習了解AI帶來的潛在風險。

Google稱負責任研AI 續了解風險

除了欣頓,業界近期都有不少聲音提出放慢AI發展節奏。以SpaceX創辦人馬斯克(Elon Musk)、蘋果公司共同創辦人沃茲尼亞克(Steve Wozniak)為首的多名科技界領袖,今年3月便曾發表聯署公開信,呼籲業界在至少6個月內不要訓練超過最新聊天機械人GPT-4的技術。

Related posts