0223 决战,EI之路 (第5/9页)
对市议会的决议提出意见。
纪录片接着就说到人们最担心的问题,是不是该给人工智能加上“不准伤害人类”之类的定律,避免出现人工智能灾难。
画面转到星联的研究所,这是一段资料影像,讲述了安西娅的研发团队是怎么解决这个问题的。
这个团队是由科学家、工程师以及社会学家共同组成的,最初他们认为,“任何情况下都不能剥夺人类生命”这一条应该作为保险,加进gei的核心意志里。
但随着安西娅进入测试阶段,人们发现,设置这一条核心原则,对安西娅的思考效率造成了极大拖累。而且每一个决策都要先做这么一个判断,也是毫无意义的。
比如调整公交车线路,要说跟人命无关,大数据会告诉你,其实是有关的,但这又不是公交车线路应该承担,并且也能解决的问题,而是跟城市规划、人的安全意识等等各方面问题都能挂上钩。
要安西娅贯彻这条原则,那么每一部清洁机器人的行动路线,它都得纳入到管理中,因为理论上存在着熊孩子乱跑一头撞上机器人的概率,在目前来说,做到这点显然是不现实的。
换个角度看,要给安西娅设置类似于“机器人三定律”之类的法则,就相当于将人类对自己行为所承担的责任转交给安西娅,但人类自身行为却不是安西娅所能控制的。
研发团队由此推导出了一个可怕的结论,如果要坚持“机器人三定律”,那么机器人就应该深入到每个人的思维里,去控制管理人的所有行为。
研发团队接着发现,给安西娅设置这种法则也是多余的,因为安西娅跟所有ei一样,都遵从“授权行动”原理。许可它做什么,它才会做什么,许可之外的事项,在它的核心意志里就等同于禁止。
最重要的是,安西娅只相当于一个大脑,它能做什么,能做到什么程度,全依赖扩展的功能。
比如安西娅管理机器人警察,机器人警察本身已经被设置为禁止装载实弹武器,
-->>(第5/9页)(本章未完,请点击下一页继续阅读)