是的,人类太厉害了,千百年来我们独霸地球,无坚不摧。但现在时过境迁了,人类创造出人工智能AI,而AI好象是一个新的物种横空出世,刚刚登场就已经表现出了远比人类卓越的能力。那,人类有一天会不会被人工智能替代,成为过时甚至消失的物种呢?
试想,有一天,人类能造出像自己一样有智慧甚至更超群的机器人,那机器人是否会如人类当初背弃上帝一样背弃人类呢?若战争爆发, 机器人的钢铁身段与人类血肉之躯,谁会更占优势?
试想,人类是否会进入一个被AI取代的时代,地球未来新的主人又将是谁?在这个问题上,笔者发现,越优秀的地球人,对未来就越是悲观。
美国《时代杂志》(TIME)罗列出了多位名人对人工智能发展趋势的悲观性看法。微软公司创办人比尔·盖兹(Bill Gates)称,低度人工智慧可成为替代劳工的工具,但惟恐数十年后出现的“超级智慧”系统,会“厉害到令人担忧”。
企业家、太空探索科技公司(SpaceX)创办人、特斯拉汽车公司(Tesla)执行长马斯克(Elon Musk)相信:人工智慧是“我们最大的生存威胁”,“借助人工智能,我们将召唤出恶魔。在所有故事里出现的拿着五芒星和圣水的家伙都确信他能够控制住恶魔,但事实上根本不行”。
科学家史蒂芬·霍金则公开警告说人工智能的发展可能意味着人类的灭亡。霍金说,这种技术会迅速演变并超过人类,那时将会出现电影《终结者》中想象的一幕。
“我们已经拥有原始形式的人工智能,而且已经证明非常有用。但我认为人工智能的完全发展会导致人类的终结”,因为“一旦经过人类的开发,人工智能将会自行发展,以加速度重新设计自己”,同时,“由于受到缓慢的演化的限制,人类不能与之竞争,最终将会被代替”。
霍金推测:“人工智能计算机可能在接下来的100年之内就将人类取而代之”,“如果这样的事情成为了现实,我们必须确保计算机和我们站在同一战线上。”如此,“我们的未来是一场不断增长的科技力量与人类使用科技的智慧之间的竞争。”然而,人工智能的诞生“可能是人类历史上最重大的事件,但不幸的是,也可能是最后一件”。
为什么科技科学界、商业界的领军人物频频发出人工智能威胁论?原因其实很简单。人类是有限的,人类不仅信息、资源、理性与智力均有限,人类的道德更是有限;人类的进步有限,人类控制AI的能力也将有限,而AI发展却没有极限。
所以,AI有一天或许会比“我们智人”更疯狂! 没有物理定律阻止粒子以某种方式组织起来,从而能比人脑中的粒子组合完成更高级的计算。所以,AI的爆炸性转变是完全可能的,反制人类也是可能的。以有限的人类去控制一个无限的智能风险,岂能不悲观?
2025-08-17 21:27
2025-08-15 09:28
2025-08-11 09:45
2025-08-10 08:28
2025-08-08 14:26
2025-08-08 09:53
2025-08-05 15:10
2025-08-05 15:08
2025-08-05 15:01
2025-08-05 14:52