自从AI泡沫兴起以来,几乎所有大型科技公司都在竞相冲击梦寐以求的AGI(通用人工智能)门槛。这项技术承诺具备超越人类的认知能力,也因此引发了AI安全专家的担忧。
AI安全研究员罗曼·扬波尔斯基(Roman Yampolskiy)警告称,AI毁灭人类的概率高达99.999999%,他进一步表示,唯一避免人类灭绝的方法就是根本不要开发这项技术。
不过,扬波尔斯基指出,这场AI竞赛最终将由谁拥有最多资金、能负担天价算力需求的人胜出。
OpenAI首席执行官山姆·奥特曼(Sam Altman)则淡化了安全隐忧,声称AI批评者提到的那些威胁在AGI真正诞生时并不会出现。他还表示,相信OpenAI团队将在未来五年内实现AGI,而且对社会的实际冲击“远低于预期”。
尽管AGI对社会的具体影响尚不明确,但外界已呼吁为这项技术设定安全边界与监管机制,防止其失控,带来灾难性后果。
奥特曼还表示,AGI不会是某款全新的硬件设备,但如果真是,他调侃说“你也会很高兴有个新设备”。谷歌首席执行官桑达尔·皮查伊(Sundar Pichai)近期在同一话题上发表评论,他对现有硬件能否将人类带入AGI时代持怀疑态度(消息来自IG账号 @artificialintelligenceee)。
皮查伊表示,现有硬件达到AGI标准“完全有可能做不到”。他指出:
“我认为当前这条路径上确实还有很多进展空间。不仅是我们现在在做的这些方案,还有一些我们正在探索的新想法。所以我对未来的进展保持乐观态度。不过你知道,科技发展一直都是起伏不定的,有时会遭遇阶段性瓶颈。”
因此,皮查伊认为,现在还没人能自信地说我们正走在一条必然通向AGI的道路上。他承认当前进展速度惊人,但也预期未来还会有重大突破。同时,他坦言这项技术依然存在局限性,一些领域取得了显著进展,但其他方面表现平平,“距离实现真正意义上的通用技术还差得很远。”皮查伊总结道。(点击这里看原文)
