摘要:
随着大数据和信息的爆发式增长,人工智能进入一个快速发展的时期,同时也带来了人工智能威胁论的争议,对于人工智能能否超越人类智慧,以及神秘的图灵测试的先天不足,在本文中进行了详细阐述。文章高能烧脑逻辑性强,心烦意乱者慎读。
本世纪以来,随着互联网大数据的兴起,信息的爆炸式增长,深度学习等机器学习算法在互联网领域的广泛应用,人工智能再次进入快速发展的时期。与此同时,不同领域的科学家,企业家如物理学家霍金,微软创始人比尔盖茨等人,纷纷对人工智能的未来表达了担心,提出人工智能的快速发展可能对人类本身产生威胁。
人工智能威胁论的支持者们说
霍金在去年12月接受BBS采访时说:
“人工智能的全面发展可能导致人类的灭绝。它自己就动起来了,还能以前所未有的超快速度重新设计自己。人类呢,就要受到缓慢的生物进化的限制,根本没有竞争力,会被超越的。”
特斯拉CEO马斯克对待人工智能的态度更为极端:
“我们需要超级关注人工智能。它的潜在危险性超过核武器”。
比尔·盖茨2015年1月29日在Reddit的“Ask MeAnything”论坛上表示:
“我正在关注超级智能。首先,在开始的时候机器会为我们做很多工作,这些机器并不是超级智能。如果我们处理得很好的话,这应该是具有积极意义的。那之后的几十年,人工智能会强大到足以引起人们的关注。我同意伊隆·马斯克和其他一些人的说法,不明白为什么有些人并不关心。”
由于这些科学家,企业家具有很强的影响力,人工智能威胁论因此得到广泛传播。而同时,在人工智能威胁论热度日益高涨的情况下,人工智能领域科学家对人工智能威胁论也提出了反驳意见。这其中就包括Facebook人工智能实验室主任,NYU计算机科学教授Yann LeCun,百度首席科学家,斯坦福大学计算机科学系和电子工程系副教授吴恩达,中国科学院自动化所教授,人工智能领域专家王飞跃等。
2025-06-13 09:41
2025-06-10 11:04
2025-06-10 10:49
2025-06-10 10:08
2025-06-10 10:08
2025-06-08 21:08
2025-06-07 15:24
2025-06-07 15:22
2025-06-06 13:54
2025-06-06 13:47