2022 年底 ChatGPT 全球爆红,各行各业都在关心如何让业务导入 AI,全球最大管理咨询公司埃森哲 Accenture 近日更宣布,投资AI 30 亿美元,帮助建构新产业解决方案,让所有产业客户都有足够能力运用 AI 达成更高成长、效率与弹性。

埃森哲认为,云端、数据、人工智慧生态系统,将彻底改变他们的服务性质,世界500 强公司超过 75% 是埃森哲的客户。埃森哲董事长朱莉‧斯威特 Julie Sweet 观察:人们对 AI 所有领域都产生前所未有的兴趣,我们对数据和 AI 实践大量投资,帮助客户从兴趣转向行动再到价值,并提供明确的业务运用案例。

我不在乎企业规模多大多小,都必须了解 AI,科技公司创业家马克‧库班日前于美国地区商会会议指出,所有企业都必须了解并思考 AI 会怎样影响公司经营,发展更牢固的客户关系并挖掘新客户。尽管看起来很复杂,但必须要有足够好奇心把 AI 搞清楚,要是忽略趋势,恐怕会尝到苦果。库班认为,有效运用 AI 的公司,可确保长期发展的稳定性。

OpenAI 董事长因 AI 危险性睡不着

然而,带起 AI 风潮的 ChatGPT 母公司却没那么乐观,OpenAI 董事长山姆‧奥特曼 Sam Altman 近日坦言,考虑到 AI 的潜在风险,他担心开发 ChatGPT 是件非常糟糕的事,还因此失眠。被问到 AI 是否该像核能受监管时,奥特曼回应,要有更好系统验证 AI 使用方法,这样我们就可对审核正在做这件事的人,并部署前仔细测试安全性。

不只奥特曼,许多科技领袖和政府官员都对人工智慧发展速度表示担忧。3 月特斯拉创办人马斯克(Elon Musk)、苹果共同创办人史蒂夫‧沃兹尼克(Steve Wozniak)等科技领袖与生命未来研究所(Future of Life Institute)共同发表公开信警告:应该确保 AI 有正面影响后,才继续开发强大的 AI 系统,让风险可控。

AI 到底危险在哪

这些顾虑之一都来有自 AI 会产生错误讯息,这是事实也是巨大的风险,OpenAI 研究人员报告表明:「即使是最先进模型也容易产生假讯息,AI 面对信息不确定时,有捏造事实的倾向。」如果使用不当,可能会给大众负面影响。

日前奥特曼也与 350 多名科学家和技术领袖签署声明,表达对 AI 背后风险的深切关注:「降低 AI 可能造成的风险,应与流行疾病、核战争等其他可能危及社会的风险,一起列为全球优先事项。」

此外,当企业或政府单位赋予 AI 系统越来越多自主权,并连接重要基础设施,如电网、股票市场和军事武器,可能引发问题。「AI 将有更多授权,它更自主后,可能会篡夺人类和人类管理机构的决策和思维。」生命未来研究所共同创办人安东尼‧阿吉雷(Anthony Aguirre)警告,某些时候,运作社会和经济的大型机器并不真的在人类控制之下,也无法关闭。

《纽约时报》报导,对 AI 悲观的人常用简单比喻:如果要求机器尽可能多制作回纹针,它可能将用得到的材料(包括人类)都带回工厂,好生产更多回纹针。

蒙特娄大学(University of Montreal)教授兼人工智慧研究员约书亚‧班吉欧(Yoshua Bengio)表示,今日 AI 系统要威胁到人类生存,还差得远。但一年、两年、五年后,有太多不确定性,这就是问题所在。我们不确定AI 是否会在某时刻变成灾难。

当 AI 技术发展比人们预想还快,会造成两种可能:跟不上趋势的企业被商场淘汰;另一方面,倘若技术未适当控管而失控,可能如科幻电影剧情,导致人类生存危机。要如何应对 AI 发展趋势,只得仰赖更多科技领袖、政府做出更好决策。

Sam Altman says he worries making ChatGPT was ‘something really bad’ given potential AI risks
“What I lose the most sleep over is the hypothetical idea that we already have done something really bad,” OpenAI CEO Sam Altman said.