严重来说人工智能发展过快,有可能在未来的某一天不受人类的控制;

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

英国著名物理学家斯蒂芬霍金在2017年4月27 日,北京全球移动互联网大会上重申了他的“人工智能威胁论”,提出人类需警惕人工智能发展的威胁。

“文明所提产生的一切都是人类智能的产物,我相信生物大脑可以达到的和计算机可以达到的,没有本质区别。

因此,它遵循了“计算机在理论上可以模仿人类智能,然后超越’这一原则。

但我们并不确定;所以我们无法知道我们将无限地得到人工智能的帮助,还是被藐视并被达缘化,或者很可能被它毁灭。

…人工智能一旦脱离束缚,以不断加速的状态重新设计自身。

人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。


我对这句话有其他的理解,不是人工智能会利用人的给他人的思维方式而具备人的意识。

人工智能是人发挥意识的主观能动性而产生的,最近新出的电影《失控玩家》打破了这一原则,电影赋予了AI人的意识开始独立思考打破我们的认知,迎合了我们的幻想。

如霍金所说:计算机在理论上可以模仿人类智能,然后超越。

让计算机对人的技能不断的学习并且进步,它只是对人自我意识思考出来的一种学习。

人工智能可以再次让我们进行一个深度学习,服务人类,而不是将我们现在的世界毁灭。

利用人工智能超强的学习能力以及机动性给予人一个更快更迅速的进步阶梯。

相关文档
最新文档