网络赌博游戏
当前位置:网络赌博游戏 > 地方体彩 > bbin2007com-人工智能会自行挑起人类战争!马斯克又说大话?霍金是这样认为的
正文

bbin2007com-人工智能会自行挑起人类战争!马斯克又说大话?霍金是这样认为的

发布时间: 2020-01-11 15:39:28     人气: 2249

bbin2007com-人工智能会自行挑起人类战争!马斯克又说大话?霍金是这样认为的

bbin2007com,科技狂人马斯克最近又发警告,认为人工智能的进步,很可能会促使它们发动第三次世界大战,这是危言耸听吗?

如今的人类社会已基本进入人工智能时代,以机器人为代表的人工智能物已经代替人类做了大量的工作,今后人工智能几乎将接管一切,照这个趋势发展下去,谁也不知道未来会发生什么。

人工智能有危险吗?当然,美国很多好莱坞科幻大片中的机器人和人类对战的场景可能很多人都历历在目,其实谁也不敢保证那些景象不会真实出现,因为人工智能还有很多特性是人类所无法预知和掌握的,比如它们会不会自动有意识。

马斯克的担心不是没有道理的,处于如今科技时代前沿的他深深地体察了人工智能的危险性,媒体报道就在上个月,他联合上百名人工智能行业的专家和行业高管向联合国建言禁止发展致命性人工智能武器,消除“杀手机器人”带来的挑战,并且在全球范围内禁止使用这类武器,阻止高科技军备竞赛。

就在昨天(美国时间9月4日),马斯克在自己的个人推特账号上再一次表明了自己的观点,他认为不久各国的计算机科学都会非常强大。在国家层面发生的ai竞争情况,则很有可能成为第三次世界大战的起因。在回复一位推特用户的提问时,那时刻指出,到时候战争很可能是自动进行。因为人工智能会自主判断,所以“战争可能不是由国家的领导人发动的,而是由ai发动的,因为它认为先发制人的打击是取得胜利最为有效的方式。”

马斯克这话其实说出了人工智能的特性,因为人工智能是建立在精密计算的基础上的,而各种规则和代码又要求它们处理事情要极端理性,所以它们只会采用最简单最直接的方法做事情,在预知可能要发生的危险面前,它们当然会先下手为强,因为这样能占得先机,或者直接消灭对手,如果不行动的话,对方行动了,那么就可能有大麻烦或者被消灭,这种思维模式之下,它们肯定就会先动手了,所以当人工智能能对一些衙要的事情做主的时候,他们很可能会引起大麻烦,引发第三次世界大战也不无可能。

对于人工智能发展的忧虑,不但是马斯克,比尔盖茨和霍金等人也都有同样的观点,并且一直强调要对人工智能的发展保持警惕。今年7月,比尔盖茨在一个社交论坛上的问答活动中称自己对超级智能感到担忧,虽然机器能够为我们做许多工作,还没有达到超级智能的水平,但是几十年后,机器的智能化将强大到足以引起大麻烦的程度。所以在这一问题上,比尔盖茨同意马斯克和其他一些人的观点。

而霍金也在今年4月份的全球移动互联网大会上说:“人工智能也有可能是人类文明史的终结者“。人类“需警惕人工智能发展威胁。因为人工智能将来很可能会脱离人类的管控,而以不断加速的状态重新设计自身,人类由于受到漫长的生物进化的限制,将无法与之竞争,从而被人工智能物取代。“

没有人希望看到这一天的到来,所以人们必须对人工智能的发展给予重视和警惕,各国都应该订立人工智能发展的法规制度,避免不可控制的情况出现。

上一篇:强烈建议你再没时间也要看看这被禁的9分钟
下一篇:武义县第十六届人大常委会举行第二十四次会议
猜你喜欢