首页 > 资讯列表 > 科技资讯 >> 智能设备

人工智能的毁灭性超核弹十倍 专家警告

智能设备 2016-10-10 07:45:40 转载来源: 网络整理/侵权必删

据英国《每日快报》报道,最有希望的美国总统候选人Zoltan Istvan警告称,人工智能(AI)的研发将对人类产生最大的影响。全球的科学家们都在疯狂的研发着人工智能技术,这项技术意味着机器或者软件能够表现出与人类相当的智慧

据英国《每日快报》报道,最有希望的美国总统候选人Zoltan Istvan警告称,人工智能(AI)的研发将对人类产生最大的影响。全球的科学家们都在疯狂的研发着人工智能技术,这项技术意味着机器或者软件能够表现出与人类相当的智慧。

专家警告:人工智能的毁灭性超核弹十倍

许多专家都对于研发人工智能提出了警告,因为它事实上能够让人类遭到淘汰,因为它们能够取代我们的工作,而且最终把我们视作一种障碍。作为超人类主义者,Istvan先生希望能够通过科技将人体与机器融合,彻底改变人类和人类的体验。他声称人工智能将被用于军事领域,而且比核弹的研发更值得注意。

Istvan先生对《每日快报》记者称:“如果我明天成为了总统,我会投入大量的资源进行人工智能的研发,因为我发现无论谁最早控制人工智能或者控制最聪明的人工智能,或许都将很快在全球军事领域占据领先地位。”

他声称:“如果你的机器能够编写病毒或者黑入其它任何机器,那么你就比其它任何政府都拥有明显的优势。无论谁首先获得人工智能,都将最终成为世界领袖。当美国在日本投下原子弹的时候就改变了军事格局。而第一个批人工智能将是日本核弹爆炸的五到十倍威力。”

他认为全世界政府应当成立一个联盟来研发人工智能,因为这项技术需要小心翼翼的进行监控。Istvan先生称:“对我来说,一个民主国家首先研发人工智能是非常重要的,因为我们需要让它成为一种民主力量,而非一种军事力量。”

当问及人工智能是否有可能反叛人类时,Istvan先生回应称:“这就是为何我认为成立一个国际联盟来研发人工智能才是最佳选择的原因。我并不清楚未来会发生什么,人工智能能够一晚上自我升级十次,那样就会比我们人类还要聪明。它会给军方甚至是全人类都带来巨大的问题。”

标签: 人工智能 毁灭性 核弹 十倍 专家 警告


声明:本文内容来源自网络,文字、图片等素材版权属于原作者,平台转载素材出于传递更多信息,文章内容仅供参考与学习,切勿作为商业目的使用。如果侵害了您的合法权益,请您及时与我们联系,我们会在第一时间进行处理!我们尊重版权,也致力于保护版权,站搜网感谢您的分享!

站长搜索

http://www.adminso.com

Copyright @ 2007~2024 All Rights Reserved.

Powered By 站长搜索

打开手机扫描上面的二维码打开手机版


使用手机软件扫描微信二维码

关注我们可获取更多热点资讯

站长搜索目录系统技术支持