【熊猫时报】综合报道,霍金认为,无论人变得多聪明,都不可能找到方法超越光速,科幻小说中的空间扭曲或维度捷径不会在现实中出现。要到遥远的宇宙探索,可能要靠机器。人类派出这些可以运作超过十万年的机器去星际旅行,它们去到合适的星球挖矿,再自我复制,就成了新形式的生命,那是以机械和电子部件为基础的生命,最终取代以DNA为基础的生命,情况一如DNA取代更早期的生命形态。
AI潜能无限人类未必能掌控
霍金认为,人工智能(AI)的潜能非常巨大,甚至令消除疾病和贫穷变得有可能,然而,若我们不防范AI的潜在风险,创造AI将会成为人类史上最重大及最后的一件事情。中短期而言,他认为,AI将会为人类带来很多好处,包括很多工作可以自动化,只要用得其所,会带来经济繁荣和平等,关键是:谁掌控AI。展望未来,AI的潜力无限,甚至出现爆炸性的飞跃进步,但关键是:人类能否掌控AI。
霍金写道:「AI的真正风险不在于是否有恶意(malice),而是其能力。一个超高智能的AI办事效能超卓,但只要目标跟我们不一致,就麻烦了。你踩死一群蚁很可能不是因为你是一个憎恨蚂蚁的恶人,你只不过是一个绿色水电项目的负责人,刚巧项目范围内有个蚁垤,那是蚂蚁的不幸。我们就不要把自己置于蚂蚁的角色好吗。」
那么,人总可以随时选择把AI关掉吧,这不就没威胁了吗?霍金答得干脆俐落:「人问电脑:『有上帝吗?』电脑回到:『现在有了。』然后自动接通一切。」