返回

巅峰学霸

报错
关灯
护眼
第333章 人工智能的伦理道德问题
书签 上一页 目录 下一页 书架

气后回答道:「当然知道,我们入行考核的时候经过类似于电车难题跟囚徒困境测试。

但我不太明白为什么发展人工智能会跟电车难题这种问题联系到一起。」

乔喻解释道:「还是以自动驾驶为例,如果我们充许自动驾驶可以出现一定的事故概率,那么如果要定一个标准,大概是只要比人类自己开车事故率更低,似乎就是可以接受的,对吧?」

郑希文点了点头。

乔喻继续说道:「但是对于人类社会环境来说,开车技术好,驾驶习惯好,且足够谨慎守规矩的司机事故率往往远低于那些习惯野蛮驾驶的司机。

但如果把方向盘交给人工智能来掌控,对于不同类型的司机来说他们出事故的概率是平等的。守规矩的跟不守规矩的都一样,这算不算进阶版的电车难题?

最关键的是,一个人本身没有犯任何错误,结果因为人工智能的失误没了,人工智能的失误会被社会放到多大?

看吧,这就是你都能理解的困境。如果通用人工智能走类人思考模式的路子,就注定了要允许它犯错。

但如果要允许一个人工智能犯错,造成了损失,却会被全体人类社会排斥。都是人我们还讲一个非我族类,其心必异呢。更别提机器了。

而且这还是小事。如果是大事就更可怕了。比如未来把天机防御系统交给人工智能来决策,结果发生误判,把一架飞机给打下来了。你猜会发生什么?

所以我非常清楚,这个项目田导挂帅,说白了就是未来万一出了问题,田导跟即将组建的伦理审查委员会来帮我背锅。我安心把活干好就行。也是用心良苦了,我怎么可能不知好岁?」

郑希文默然,太多的弯弯绕绕了,他都没想明白的东西乔喻心里却是门清儿的。

「但是现阶段这东西又是真有用啊。月球建设多方论证了好几套方案,最后发现还是得把具备一定思维能力的机器送上去搞建设最合适。

而且在对月球环境改造完成之前,人工智能是管理月球基地,保证月球基地正常运行的最好选择。

上面的基地生命维持系统可不是开玩笑的。现在人少万一出问题还能赶紧穿上航空服直接进飞船。

如果未来人多了,这东西出问题,那可就是一基地几十甚至几百人同时玩完。容错率超低的高压岗位啊。

你要是再往前看,如果要做宇宙开拓动辑几个月甚至一年在飞船上航行,靠人类当船长很难抵御那种高压的。

书签 上一页 目录 下一页 书架