找回密码
 立即注册
搜索
查看: 498|回复: 1
打印 上一主题 下一主题
收起左侧

[探索频道] 人工智能机器人飞速发展 霍金担忧:威胁超核武

[复制链接] [已阅至2楼]

高级版主 - 高级版主版主勋章 - 版主勋章

灰铜v1_02绿金v1_01灰金v1_03绿银v1_01紫铜v1_03绿铜v3_01绿银v3_02紫银v2_01紫银v1_01绿金v3_03

跳转到指定楼层
楼主
 楼主| 发表于 2016-6-29 12:46 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
据每日邮报报道,英国物理学家史蒂芬·霍金(Stephen Hawking)日前接受美国王牌脱口秀主持人拉里·金(Larry King)采访,宣称机器人的进化速度可能比人类更快,而它们的终极目标将是不可预测的。
http://img1.mydrivers.com/img/20 ... c-ffd116e2cea2.jpeg
在采访中,霍金表示出对人类未来的担忧。他说:“我并不认为人工智能的进化必然是良性的。一旦机器人达到能够自我进化的关键阶段,我们无法预测它们的目标是否还与人类相同。人工智能可能比人类进化速度更快,我们需要确保人工智能的设计符合道德伦理规范,保障措施到位。”
随着人工智能的进化,机器人很可能独立地选择目标并开枪射击。全自动武器(又称杀人机器人)正从科幻电影变成现实。这并非霍金首次警告机器人存在的潜在危险。去年,霍金表示,随着技术的发展,并学会自我思考和适应环境,人类将面临不确定的未来。
今年年初,霍金也曾表示,成功创造人工智能可能是人类史上最伟大的事件,不幸的是,这也可能成为人类最后的伟大发明。他认为,数字个人助理Siri、Google Now以及Cortana都只是IT军备竞赛的预兆,未来数十年间将更加明显。
此前,他曾直言不讳地表达出对人工智能发展的担忧。霍金表示,邪恶阴险的威胁正在硅谷的技术实验室中酝酿。人工智能可能伪装成有用的数字助理或无人驾驶汽车以获得立足之地,将来它们可能终结人类。
http://img1.mydrivers.com/img/20 ... 9-fe6ecd4cf738.jpeg
这位科技界泰斗在接受采访时表示,六年前他就曾提出过相同的警告,但并没有引起人们的重视。六年来,世界人口增长了将近10亿。这一数字目前还在不停增长。如果按照现在的速度,到2100年世界人口将超过一百一十亿。
霍金还指出,大规模的环境污染问题主要集中在最近五年。空气污染在过去的五年中最为严重,超过80%的城市居民生活在被污染的空气之中。
当被问及当前世界面临的最大问题是什么时,霍金表示是气候变化。他认为,一旦气候变化达到不可逆的地步,那么全球变暖将无法挽回。
霍金并非唯一担心人工智能的人。特斯拉电动汽车公司首席执行官伊隆·马斯克(Elon Musk)曾经研发人工智能比作“召唤恶魔”,他警告人工智能技术对人类的伤害可能超过核武器。
但霍金也承认人工智能带来的其他好处显而易见,可以帮助消除战争、疾病以及贫困。他认为人类面临的最大威胁是我们自身的弱点,即贪婪和愚蠢。他说:“我们的贪婪和愚蠢并未减少。6年前,我曾警告污染和拥挤,自从那以来这些都变得更加严重。以当前速度持续下去,到2100年,全球人口将达到110亿。在过去5年间,空气污染也在加剧。”
插件设计:zasq.net

玄铁会员 - 等级≥主簿

沙发
发表于 2016-6-29 15:54 | 只看该作者
机器是人类创造的,人类肯定有办法解决这个问题。
管理员已阅至此楼
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋| ( Q群816270601 )

GMT+8, 2024-5-20 19:16 , Processed in 1.050557 second(s), 51 queries .

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表