全国统一服务热线:4009266007 公司热线:028-87540628 欢迎访问成都云木科技有限公司官方网站
全国统一服务热线:4009266007 公司热线:028-87540628 欢迎访问成都云木科技有限公司官方网站

首页>资讯>行业 这群科学家认为,人类应该立刻叫停战争类AI的研究

1. 历史是多么让人哭笑不得啊。


2. 爱因斯坦二战期间曾经专门找当时的美国总统罗斯福建议,要赶在德国之前尽快研发出原子弹。美国做到了。两颗在日本降下的原子弹带走了十多万人的生命,让世界明白了核武器的毁灭性威力。核竞赛开始了,全球的核武器逐渐多了起来,从可以毁灭地球一次,到可以毁灭地球千千万万次。晚年的爱因斯坦和其他许多科学家一样,成了反核弹联盟的坚定支持者。


3. 类似的事情看来又要发生一次了。这次的核弹,有了一个新名字,它叫战争AI。可怕的是,一切顺利的话,可能五到十年内就会降生。


4. 四十年后,全知全能型的终极AI是否会毁灭人类,这个问题还有很多争议。但是对于更近的一个威胁,一批人已经达成一致。人工智能国际联合大会今日发出一份公开信,警告公众军事型AI竞争(military artificial intelligence arms race)的威胁,呼吁彻底禁止对“进攻性自动武器”(offensive autonomous weapons)的研发。一千多位在AI领域颇有见地的专家学者都签名了,其中比较出名的有,Tesla的CEO Elon,苹果的联合创始人Wozniak,Google收购的人工智能公司DeepMind的董事长Demis Hassabis,还有霍金。


5. 这封公开信里说到,AI技术的进展已经到了这样一个拐点,几年内,自动作战的武器系统(可能是战地机器人,也可能是具备高度战争智慧的导弹进攻系统)在技术上已经能研发出来。一旦成真,未来的战争可能会由机器人来打,许多士兵不用上战场了,但是潜在的,如果作战机器系统是自主运行的,许多战争会变得超出人类掌控的范围之外。也许会有更多人因此而丧生。


6. 战争是一种很特殊的人类行为。在战争中,许多士兵的表现会更像机器而不是人类,但是在关键时刻,人性会重新挣扎着站起来。这一点在AI和机器主导的战争里是不会发生的。AI和机器不会有人性,它们的战争更加冷血。


7. 一旦某股军事势力开始研发自动作战系统,其他集团也会立刻跟进,结局和核弹的扩散一样,甚至更严重。核弹需要特殊原料,但是军事型AI不需要,相较而言更难控制这项技术的扩散。


8. 人类是多么奇怪的生物啊。战争毁灭了太多东西,降下的阴影中又蕴藏着许多新的希望。如果没有二战的威胁,人类掌握核技术可能要往后延迟十多年,核技术是魔鬼,但是也为人类贡献了温和可用的能量,未来还可能是星际旅行的基础。登月以及计算机等技术,也是在冷战的阴影下孕育出来的,当下的诸多进展都得归功与当时的进步。


9. 也许,战争型AI终究是禁止不了的,甚至对战争型AI的研究会真正催生AI技术的转折。后续的故事还是留给后人补齐吧。本消息由云木科技提供。


你可能对以下文章感兴趣