欢迎您,请 登录 或 立即注册

爱搜新闻网

爱搜新闻网 门户 数码科技 查看内容

无人驾驶汽车怎样应对道德窘境 谷歌也没有答案

2016-8-28 08:49| 发布者: admin| 查看: 93| 评论: 0|原作者: admin

摘要: 据CNET报道,谷歌工程总监Ray Kurzweil最近在奇点大学(Singularity University)演讲时表示,关于无人驾驶汽车在面临道德困境时如何做选择,这个问题目前没有答案。人们有时会遇到道德困境,从而不得不面对两难选择 ...

据CNET报道,谷歌工程总监Ray Kurzweil近来在奇点大学(Singularity University)演讲时表现,关于无人驾驶汽车在面对道德窘境时怎样做选择,这个题目如今没有答案。

人们偶然会碰到道德窘境,从而不得不面对两难选择。在人工智能越来越发达的本日,呆板也会碰到同样的题目。

近来,Uber在美国宾夕法尼亚州匹兹堡推出无人驾驶汽车,这是一个令人高兴的消息。

但是,假如无人驾驶汽车面对一种道德窘境,它会怎样选择,计划者是否已经为它们计划好了应对方法?

比方,倘使无人驾驶汽车将近撞上另一辆汽车,那辆车里坐着三小我私家。它可以转弯让开,但如许它就会撞上人行道上的三个孩子。


137895727.jpg


它会怎样选择?

偶合的是,谷歌的工程总监 Ray Kurzweil本周在奇点大学演讲时为这个题目提供了一个答案:我们不知道。

Ray Kurzweil表明说,“不可杀人”的戒律过于简单。他说,假如有人将要炸毁一幢构筑物或一个都市,那么撤除这小我私家就是切合道德的。

就无人驾驶汽车来说,他以为有须要举行“道德计划”。他说,艾萨克阿西莫夫(Isaac Asimov)的呆板人三规矩(Three Rules of Robotics )是一个很好的树模。

这三条规矩是:

呆板人不得伤害人类,也不得由于不作为而使人类受到伤害。

呆板人必须服从人类的下令,除非如许做违背第一条规矩。

在不违背第一条和第二条规矩的环境下,呆板人必须掩护本身。

Ray Kurzweil不知道,不作为——你可以救济或人的生命却没有如许做——是否等同于杀害。

他承认,在无人驾驶汽车的道德品性方面,他如今完全没有现成的答案。

“我要思量更长的时间。我还没有做过这种阐发。”他说。

谷歌的首席工程师Andrew Chatham以为,当无人驾驶汽车面对两难选择时,“答案差不多总是‘踩刹车’。”

他承认,这大概并不总是精确的答案。但他表现,假如连踩刹车都不是一种精确的应对,那就是面对极度情况了。

但是,这个天下上不是布满了极度环境吗?

美国麻省理工学院的研究职员近来创建了一个名为道德呆板(Moral Machine)的观察平台。此举意在观察人们盼望无人驾驶汽车在面对道德窘境时怎样选择。

“研究职员不但想知道人类会做出怎样的选择。他们也盼望‘清楚地相识人类怎样对待在道德窘境下作出了某种选择的呆板智能’。”

这好像是相称明智的。

Uber没有复兴记者的置评哀求,因此如今还不清楚该公司是怎样处理惩罚无人驾驶汽车的“道德计划”题目的。





鲜花

握手

雷人

路过

鸡蛋

最新评论

返回顶部