警惕人工智能威胁,须尽快建立有效机制!-江西丹巴赫工业机器人

澳门银河娱乐场_银河在线娱乐平台_银河百家乐

江西丹巴赫机器人股份有限公司
当前位置: 首页 > 新闻资讯 > 警惕人工智能威胁,须尽快建立有效机制!

产品分类 / Product Categories

联系我们 / Contact Us

江西丹巴赫机器人股份有限公司

联系电话:0791-88133135

公司传真:0791-88221576

机器人产品事业部

黄先生   :18601627123

Email     :sale01@dbhrobot.com

智能仓储物流事业部

刘先生   : 18601935353

自动化产线事业部

周先生   :18601626658

Email     :apollo@dbhrobot.com

信息化产品事业部

杨先生   :18801341199

Email :yangjianping@dbhrobot.com

整厂解决方案事业部

黄先生   :18801818975

Email     :huangcao@dbhrobot.com

客服QQ  :875616888

地址      :南昌市高新区创新三路811号

警惕人工智能威胁,须尽快建立有效机制!
DANBACH ROBOT


未来的人工智能将会越来越聪明,甚至能够无限接近人类,可以独立思考,拥有情感。面对人工智能带来的无限未知,我们在享受技术进步的同时一样要心存危机感。
今年3月8日,著名物理学家史蒂芬·霍金向英国《独立报》提出:人类必需创建有用机制及早辨认威胁所在,防备新科技(人工智能)对人类带来的危机进一步加深。他说,人工智能会以多种形式展开对人类的毁灭,比如生化战争或核子战争,聪慧醒目的人工智能会让人类灭亡。霍金暗示:一个超级聪慧的人工智能可以很是好地实现它的目的,如果这些目的没有与咱们人类同等,咱们人类就遭殃了。

人工智能
其实除了霍金,很多人都表示出对于未来人工智能会威胁人类的担忧。许多关于人工智能带来世界末日的电影场面恢宏而灿烂,人类在科技带来的毁灭面前显得又是无比的脆弱,在那一刻人们是否会后悔没有对人工智能危机早作打算?
人工智能在高速发展的社会上会给人们带来多大的便利毋庸赘言,我们如何来对待霍金的警告呢?首先,霍金本人也是人工智能技术的支持者,霍金认为,如今人工智能似乎已经渗透到各个领域。人工智能甚至可帮助根除长期存在的社会挑战,比如疾病和贫困等。
人工智能技术是当今新技术革命的领头羊。事实上,人工智能技术的发展已历经三次浪潮。第一次浪潮以“手工知识”为特征,典型范例如智能手机应用程序等。第二次浪潮以“统计学习”为特征,典型范例如人工神经网络系统,并在无人驾驶汽车等领域取得进展。虽然这些人工智能技术,对明确的问题有较强的推理和判断能力,但不具备学习能力。第三次浪潮则以“适应环境”为特征,人工智能能够理解环境并发现逻辑规则,从而进行自我训练并建立自身的决策流程。今年年初,谷歌AlphaGO的升级版Master以60∶0的战绩,击溃当世所有围棋顶级高手;就在5月25日,AlphaGO又接连两局击败中国围棋职业九段棋手柯洁;我以为,这些都是人工智能第三次浪潮的标志。
其次,人工智能技术也是一把双刃剑。一方面,借助人工智能技术实现自动化,将极大提高生产率,节省劳动成本;通过优化行业现有产品和服务,开拓更广阔的市场空间。正由于人工智能对社会经济无可替代的重要推动作用,在我国两会上已将人工智能写进了政府工作报告。
另一方面,人工智能技术对社会也带来了近期和远期的风险。在不远的将来,那些重复、耗时、乏味的工作;在快速变化的复杂环境中进行的工作以及超出人类极限的工作,都有可能被人工智能系统所代替,从而冲击劳动力市场。可以预测,由于人工智能的发展,多数人的智能将低于或接近人工智能的水平,如果没有政策的有效控制,财富就会集中到少数智能超过人工智能的人手中,这将进一步扩大社会的贫富差别,引发社会的撕裂。
至于说到霍金警告的人工智能引发的人类生存风险,即人工智能将来会从整体上超越人类智能,据外媒报道,最新研究预测,10年内,人工智能将在语言翻译、驾驶卡车甚至高中作文写作方面胜过人类,在2049年之前,机器可以创作畅销小说。50年内,人工智能将会在各种任务的执行中战胜人类。
研究人员指出,“人工智能的进步将会带来巨大的社会后果。无人驾驶科技可能会在接下去10年内取代数百万从事驾驶工作的人。除了可能会发生的人类失业,这一转变将会带来新挑战,例如重建基础设施、保护车辆网络安全、修改法律法规。对人工智能开发商和决策者来说,在执法、军事技术和营销方面的应用也将带来新的挑战。”
但这并不是个坏消息。在调查中研究人员同时也确认了“极坏”结果产生的可能性,例如人工智能导致人类灭绝,几率只有5%。
许多自然科学家认为,目前人工智能离上述水平还很远很远,其危险远不足虑;而某些社会科学家却有担忧,认为随着技术变革的深入,人工智能所引发的链式反应,就会出现无法控制的局面。上述认识的差异,正好体现了人类对智能认识的多样性。从这个角度看,科学家全面认识人类智能,并将其复现,只是时间问题。鉴于人工智能有可能超越人类智能,以及由此产生十分严重的后果,再加上科学技术发展的内在不确定性,就充分说明了研究人工智能安全问题的必要性。
早在1950年出版的美国著名科幻小说家艾萨克·阿西莫夫撰写的《我,机器人》小说中,就提出了著名的“机器人三大定律”:第一定律,机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手旁观;第二定律,机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;第三定律,机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。此后,这“三大定律”不断激发出对于人工智能安全性的新思考。由于人工智能最终必将会具备自主意识,到那时人类与人工智能系统之间的关系,必须服从普适、可靠的准则。特别是在军事领域要更加小心,否则极有可能出现科幻电影中描述的人机大战的场景。
因此,我们在发展人工智能系统的同时,还要确保其在预先制定的相关准则下进行工作,以防止其出现越规行为。

上一篇:人工智能挑战高考!揭秘高考机器人“应试绝招”
下一篇:这个机器人医生有点牛!17秒出咨询报告

快速留言

姓名
地区
邮箱
电话

猜你喜欢 / More Like