导读:今天首席CTO笔记来给各位分享关于核武器和人工智能哪个厉害的相关内容,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!
人工智能与核武器,哪个更危险
无论是人工智能还是核武器,都还掌控在人类手中,人才是最危险的!
人工智能能够成为未来灭绝人类的"核武器"吗
人工智能更危险。人工智能(Artificial Intelligence)sup[1]/sup ,英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。 人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能是对人的意识、思维的信息过程的模拟。人工智能不是人的智能,但能像人那样思考、也可能超过人的智能。可见,如果人工智能发展到了一定程度,就会对人造成威胁。相比之下,核武器的破坏力大,但是他不会自我思考,对人类造成的威胁小。因此,人工智能更危险。
人类会因为发明了人工智能、核武器而后悔,一旦失控人类练怎么死的都不知道,这是真的吗?
这是一种假说而已。。。但是被广大的科幻作家和电影制片无限扩大了危害性和危险性而已。
首先人工智能是仿生学的高端产品,也是人类探寻生命奥秘中的一种副产品。至于人工智能会不会像小说和电影那样统治人类甚至毁灭人类,我也只能呵呵了。
按现在世界上对人工智能的分类,大体划分为两级:弱人工智能和强人工智能。但是现实中的科技只是完成了弱人工智能,对强人工智能的开发却一点线索都没有。
什么是弱人工智能,也就是我们现在老讲的阿尔法GO这等级的,包括GOOGLE、百度等搜索引擎程序,还有市面上各种自动化智能化机器人。。。之所以说他们是弱人工智能,是因为他们只能模拟人脑的部分功能,甚至比人脑部分功能的效率更加高。但是依然不能完全取代人脑。举个栗子,学习,一个刚满周岁的小孩可以通过学习,认识到爸爸妈妈,这弱人工智能也能辨认,但是区别在于,小孩知道哭喊可以让父母过来疼爱自己,但是弱人工智能不能做到看似简单逻辑推理。再举个栗子:三岁的小孩都知道积木只能从下往上盖,你让小孩从上往下搭积木,会被小孩笑话,但是弱人工智能只会按你的要求去做这不可能的任务,除非你在它的程序中添加有关地心引力的知识。小孩根本不懂神马是地心引力,但是会否决你那个愚蠢的命令!
这里解释一下神马叫强人工智能,其实就是电影小说里面的天网、黑客帝国里面的史密斯等等,几乎与人无异。其实科学界有一套成熟的检验强人工智能的体系,叫图灵测试,至今仍然没有一款人工智能软件能顺利通过。
再说核武器的事,其实这个东西,不管你发展不发展,这玩意都存在于自然界,并不会因为你没发现它就不存在,所以也谈不上后不后悔的问题。。对地球影响最大的反应堆正是我们人类乃至整个地球圈乃以生存的太阳,难道你想毁了它?再说了核武器其实就是恒星的力量,人类只要探索外太空,终究都是要接触的,这无法避免。关键是控制好,别让它威胁到自身安全就是了。
人类需要警惕人工智能—它们比核武器更恐怖,为何科学家这么说?
为什么说人工智能是比核武器更加恐怖的存在呢?那首先就得来说一说核武器的恐怖之处。
核武器现在只掌握在少数几个国家手里,对于一些想研发核武器的国家也是进行很多的制裁,让他们不能够研发核武器。
因为核武器真的是太危险了,首先爆炸来说,他的爆炸区域非常的广,而且更为重要的是,他所留下的辐射对于人类来说更是祸害千年,这里将不能再生存,再继续活下去,可以说这是一种极度的危害,核武器要是不进行管控,那我们的地球就真的会毁在核武器的手中,也就是我们人类的智慧手中。
所以核武器已经够更加的恐怖了,那为什么说人工智能比核武器是更加恐怖的存在呢?
看过人工智能的这些电影的都是知道的,比如电影《人工智能》《西部世界》之类的,也许我们创造出人工智能是为了让他们能够为我们服务,甚至是满足我们的欲望,比如西部世界之中所描写的。
但是就像是西部世界之中所描写的一般,人工智能它的智慧有一天要是觉醒了怎么办?它突然发现自己不过是人类的奴隶,他感受到了屈辱,也就是他已经学会了人类的感情,这个时候他的意识开始慢慢的觉醒,于是他做出了爆发之举,开始去消灭人类,要自己当家做主。
到时候世界一切都是智能的,我们能够抵御的过这世界的一切吗?恐怕并不能,到时候智能控制着这一切,我们的人类说不定到时候就成为了奴隶,成为了他们的跑腿,他们控制着我们的一切,不管是金融还是生活,一切都活在他们的监视之下,他们把这个当做是乐趣来进行做,观察着人类的种种。
马斯克认为人工智能比核武器还危险,这是真的吗?
特斯拉创始人马斯克一直对人工智能的发展产生疑虑,他认为人工智能实际上比核武器更加危险,那么这可能是真的吗?
首先我们来看看人工智能的应用。不管你承认与否,今后人类的很多工作已经慢慢将被人工智能所取代,尤其是进入5G时代之后,由于网络的延时性得到了大量的缩减,人类已经几乎无法用自己的感知来识别到这种延迟,从而使得人工智能的适用范围更加广泛。如今无人驾驶、无人送货送餐、扫地机器人、看护机器人等等人工智能产品已经广泛被应用到实际领域中。
试想一下你以后的生活,如果你早上起床的时候有个甜美的声音喊你起床,同时开启你喜欢听的音乐催促你起来;在你起床的同时你的智能家庭厨房电器开始为你做香喷喷的可口早餐;在你吃早餐的时候自动为你播报你关心的新闻,同时为你的爱车加热或者制冷;你吃完饭后智能机器人为你洗碗,打扫卫生;你出门上班时无人驾驶汽车自动规划行动路线将你快速送到公司或者需要办事的地方;上班时智能机器人为你准备好当日需要处理的事务;下班时无人驾驶汽车将你快速安全送回家中,同时通知家里的智能机器人为你准备好当日晚餐……
可以说以后人工智能将完全融入到我们的生活中去。华为创始人任正非就非常看好人工智能的未来,他说5G只是小儿科,人工智能才是大市场。
既然人工智能可以代替人类从事以前很多简单、繁琐、重复、威胁的很多工作,让人们的生活变得简单美好,那么这不正是好事吗?为什么马还是斯克会认为人工智能会比核武器还要危险呢?
我们都知道马斯克是科技狂人,他对于未来科技的狂热是其他人不可想象的。而对于人工智能这个人类科技未来最大的发展方向他如何会有如此的担忧呢?其主要原因如下:
首先,人工智能必须为人类服务,如果偏离了这个方向,那么确实就如同马斯克所说的那样危险程度远远大于核武器了。因为现在的核武器的发射都掌握在这些国家的核心人物手中,需要经过多人授权才可以进行发射,也就是说是可控的。而人工智能则不一样,这是一把双刃剑,使用得好就上服务人类,使用得不好就是危害人类。打个比方:无人驾驶。正常情况下就是解决人们的智能出行问题,无人驾驶将自动根据大数据和行程选择最佳的行车路线。但是如果其中有部分无人驾驶车辆失去控制的话,这就是无数个定时炸弹,将在路上横冲直撞。如果被恐怖分子利用的话,就是移动的炸弹。如今已经有恐怖分子使用无人机搭载炸弹进行恐怖袭击。这种情况相对来说难于控制的。
其次,由于现在已经有阿尔法等机器人在围棋等领域击败了人类,说明智能机器人的算力远比人类厉害。那么以后的智能机器人会不会产生自己的思维,从而想控制和摧毁人类呢?我们的很多科幻小说中已经多次出现了这样的情况:机器人全面反攻人类,意图控制和消灭人类。
正是因为上述两个原因,马斯克才认为人工智能一定要控制得当,不能失控,否则其危害程度将远远大于核武器。
AI改变世界,谁来改变AI?
——杨澜《人工智能,真的来了》
一个巨大的怪物,向我走来。他摧毁了高大的房屋,把人们踩到脚底下,犹如踩着一只只蚂蚁,我躲在废墟里瑟瑟发抖,可就是这一点点小小的动静,似乎还是被他发现了,他剥开前面的遮挡物,直接向我伸出他的巨爪……
啊!
原来是一个梦。
看着桌面上摆放着的杨澜的书,《人工智能,真的来了》,我舒了一口气。
书的封面上,烈焰红唇的杨澜闭着眼睛,安静而祥和,前面一个欢欣跳跃着的小小人工智能,那么萌,让你忍不住想抱着亲一口。
这是人和人工智能共生的一幅美好画面。
在我的记忆中,人工智能都是科幻电影中的情节。
去年9月1日,陪孩子看《开学第一天》,对我印象最深的是人工智能AlphaGo打败围棋冠军柯洁,柯洁在现场落下了眼泪,他把最大的原因,归结为自己太心浮气躁,可是就算他再沉着冷静,在机器面前也占不到便宜。
还有机器人和人一起弹钢琴,那么高难度的钢琴曲两方都演绎得那么好,很难分清哪个是人在演奏,哪个是机器人在演奏。最终钢琴家郎朗辨别了出来,因为一首弹出了一个错音,另一首没有一处错误。显然机器人没有弹错,弹错的是人。
机器弹得再好,但他只是弹却没有感情,而人是用感情在演奏。
杨澜的这本《人工智能,真的来了》,算是我人工智能的启蒙书。
2016年,杨澜带领他的团队为探究人工智能及其未来的影响力,寻访了全球30多家顶尖实验室和研究机构,采访了80多位专家学者,力求汇集众家之大成。制作出来《探寻人工智能》纪录片,然后在此基础上她把那么多素材整理成书。
这本书从人工智能之父阿兰·图灵讲起,从人工智能的起源,一直讲到现在人工智能所达到的最高科技。
有了不起的Watson,在2011年北美热播的一档问答电视节目中PK人类选手,经过激烈角逐,赢得冠军。AlphaGo以5:0完胜围棋高手柯洁。在机器人酒店,机器人员工有两百多名,人类员工只有10名。在机器人工厂,一排排的机械臂整齐划一,24小时工作不间断。
有卖咖啡的机器人,有会跳舞的机器人,有会跟你聊天的机器人,有会画画的“绘画傻瓜”机器人,有机器人助理,有机器人厨师。
诚然,AI改变了世界。
今天以及不久的将来人工智能的应用场景,将渗透到我们生活中的方方面面,无人工厂,智能仓库,智能家居,无人驾驶正在成为现实。
人工智能没有情绪,不知疲倦,而人类有七情六欲,需要休息才能恢复体力。
人工智能能上天入地,进到最微妙最恶劣的环境中探测到我们需要的数据。很多人类无法完成的精密的外科手术,人工智能可以完成。机器人阅CT片,诊断正确率比人类医生要高出很多。
有研究指出,未来10-20年间,美国702个职业将会有一半消失,涵盖近47%的就业人员。创新工场掌门人李开复预言,未来将会有50%的工作被人工智能取代。
有文章称:“10年后,所有的卡车都是无人驾驶;不到40年,最细致的外科手术,也将要交给机器人完成;到2024年的时候,机器在语言翻译上的表现可能会超过人类。最终,研究员们发现,人工智能将在2051年将所有的工作自动化,并在2136年取代人类的所有职业。
可见,人工智能不仅仅是会取代我们的体力劳动,甚至是脑力工作和白领工作也受到了挑战。
如果今后再有朋友向我咨询他的孩子该不该学医,我想我会建议他,至少不要学放射科,因为毕业就意味着失业,那个工作很快就会被机器人取代。
人类该何去何从?
人工智能与人类最大的区别是是否拥有爱和意识,但是人工智能专家们正在试图让机器人拥有意识。
如果超级智能真的出现,世界将会是什么样子?会不会有一天,人工智能技术反噬人类?会不会有一天,机器成为“终结者”,奴役甚至毁灭人类。
《未来简史》作者尤瓦尔·赫拉利认为,21世纪经济学最重要的问题就是被机器“剩余”出来的人去干什么?以及那些掌握人工智能、基因科技的人,是否更有可能聚敛财富,制造更大的不平等?中低收入阶层的被剥夺感,中产阶级的空心化,有可能导致社会矛盾激化。他甚至预言:“历史从人类发明上帝开始,到人类成为上帝时结束。”
牛津大学研究院院长尼克·博斯特罗姆教授,他本人花了六七年时间,潜心调研,完成《超级智能》一书。他在一份关于全球灾难风险的报告中列举了12种主要风险,认为人工智能比核武器、环境灾难这些问题更加严重。他提醒人们应该把“问题多急迫”和“这个问题最终会有多大”区分开来。就风险而言,核武器风险更大,因为核武器已经产生,而超级智能不知何时出现。但如果从长远来看,一旦超级智能被发展出来,导致的灾难可能是毁灭人类,毁灭未来。
英国著名物理学家史蒂芬·霍金曾多次公开表示出对人工智能的担忧,他觉得:“对人类来说,强大的人工智能的出现可能是最美妙的事情,也可能是最糟糕的事情,我们真的不知道结局会怎样?”
特斯拉汽车公司掌门人埃隆·马斯克宣称:“随着人工智能的发展,我们将召唤出恶魔。”
然而,对于超级智能毁灭人类表示担忧的,往往不是人工智能领域的专家,后者常常这样反击:“这就像爬上一棵树,然后宣告你向登月迈进了一步一样荒谬。”
AI改变世界,谁来改变AI?
有一个“科学怪人”曾出现在作家玛丽·雪莱的梦魇中:年轻气盛的科学家弗兰肯斯坦利用生物学知识拼接出人体,并通过雷电赋予其生命,当这个生命成活时,弗兰肯斯坦激动兴奋地狂呼:“它活了!它活了!现在我有了身为上帝的感觉了!”但这个人造怪物一步步走向失控,给人类造成悲剧。
这样的悲剧到底会不会变成现实?也许谁也不敢断言。
结语:以上就是首席CTO笔记为大家介绍的关于核武器和人工智能哪个厉害的全部内容了,希望对大家有所帮助,如果你还想了解更多这方面的信息,记得收藏关注本站。