世局解碼:AI科企道德洗白 避重就輕刪紅線

【熊貓時報訊】歐盟4月8日公布AI道德指引,是全球政府首個試圖監管AI的嘗試。不過,現時AI發展的話語權仍在科企,而且各國在爭相發展AI之際,要接受制約並不容易。德國哲學家梅青格爾是協助制定該指引的專家小組成員之一,他接受本報訪問時,批評科技業界對草擬指引的影響力過大,也擔心力爭AI優勢的中國和美國不會理會AI發展的「紅線」。

梅青格爾(Thomas Metzinger)表示,協助草擬歐盟AI道德指引的專家小組共有52人,惟當中有一半人來自科技業界,令他質疑業界的影響力過大。他與另一名機器學習專家負責帶領一個研究小組,為AI發展制定「紅線」(red lines),即「不可協商」的道德原則,界定AI在歐洲不能跨越的界線,包括研發自主武器系統、以至建立社會信用體系為公民評分等。最終指引刪走了「紅線」及「不可協商」等字眼,改用「重大憂慮」(critical concerns)一詞,他歸咎業界代表及專家小組成員淡化指引用字。

淡化指引 「不可協商」改成「重大憂慮」

不少涉足AI的科技企業近年開始就道德議題採取行動,諸如Google、Facebook、IBM、亞馬遜與微軟等巨擘,早於3年前就共同創立非牟利合作組織,期望就AI引起的道德問題建立統一標準,亦各自制定了相關守則。然而,梅青格爾認為,科企的行動只是「道德洗白」,高價聘請各地的專家制定守則,以示已就有關問題採取行動,惟實際只視道德為「裝飾品」。外界曾批評現階段大部分AI道德規範均無約束力,難以帶來實質改變,梅青格爾則認為有關措施只是用作分散公眾注意力,以助科企拖延落實外部監管機制或政策的時間。

為避免AI道德討論受利益衝突影響,他認為下一步應該在學術界這類較中立的平台討論,並促進有關學術研究,並將成果與公眾及教育機構分享。不過,科技界亦有聲音擔心規範限制AI的未來發展。梅青格爾說:「我們必須聆聽科技巨擘的意見,因為他們是需要遵守有關規範的人,但問題在於我們該如何相信他們?」

盼各國統一紅線 禁開發殺手機械人

監管AI的另一阻力,在於現時各國正爭相開發AI。彭博社去年12月形容,歐中美在AI的爭霸,有如新「太空競賽」。目前,美國在AI的專利遠遠拋離,但著名華裔AI專家李開復預言,由於中國坐擁龐大數據,AI發展可望超越美國。美國總統特朗普亦在今年2月簽署行政命令,要求政府機構在AI方面採取更多行動,避免在這場競賽中落後。歐盟亦銳意加強AI發展,AI道德指引被視為將有助歐洲AI發展。

梅青格爾稱,歐盟的AI道德指引尚有改善空間,但仍是領先全球的指引,期望下一步能推廣至國際層面,惟憂慮AI強國如中國及美國等,在現屆政府領導下或難以制定類似指引,造成「逐底競爭」的問題,即規管愈少的國家愈能吸引AI發展。他批評,中國政府現已利用AI作侵犯人權的事,例如社會信用體系為公民評分。

對於各國能否就AI道德制定統一標準,梅青格爾坦言感到悲觀,惟仍希望各國最少能就AI發展的「紅線」達成共識,例如禁止開發殺手機械人等。(明報)

Related posts