最新网址:sk.x3qdu.com

你有本事直播就把画面放出来啊!

我保证不抄!

而随着王衡开始敲动键盘,直播间中的弹幕也是渐渐稀少了起来。

显示屏中,一行行代码飞速在编辑器内刷动。

而这一写就是整整两个星期。

“呼...”“

“三重封锁,防火墙,模块嵌入,终极代码...”

“差不多应该够了吧...”

看着屏幕已经渐渐成型的智能核心。

王衡一边嘟囔着,一边写着程序。

为了保证安全,王衡在私下里查阅吸收了大量的资料。

对于人工智能的研究,倒也算是有了一套较为成熟的想法。

所谓集百家之长。

高阶文明的编程方式他暂时无法使用。

那就只能把低端文明中那些成功的按理给整合起来。

通过学习他们的思路来加强人工智能的安全性。

经过反复研究。

王衡最终决定给人工智能设定四道防御。

首先就是三把锁!

直接在核心系统内将三道原则永远的封锁在里面。

第一为利他主义!

这个原则意味着,人工智能的唯一目标就是最大化地实现人类的目标与价值。

第二为谦逊原则。

意思为,人工智能对人类应该保持敬畏之心。

在这一原则的指导下,人工智能要承认不足,并清楚的认识到他并非无所不能。

这也就是说,人工智能需要知道将人类的需求最大化,但它也要清楚它并不能完全理解价值的含义。

因此为了对人类有用,它就得通过观察人类做的选择,根据人类给予它的信息去学习、掌握人类的需求。

人工智能需要承认,人类才是需求的主宰!

而第三原则是基于人类的行为,给机器设定偏好并提供依据。

设置这一条原则的原因是,最早阶段的人工智能往往无法准确理解如何实现人类的价值。

但是没关系,人类可以辅助人工智能来实现。

因此必须要增加人机互动的环节。

在王衡的设想中,人工智能的出现并不是只为了满足一个人或者一个用户,而是要去尊重人们都认可的道德价值观。

比如,人类可能会做错事,产生违背道德准则的行为。但王衡并不希望人工智能去复制这些行为。

反之王衡希望人工智能可以去尝试理解人类做事的动机,学习人类共通的道德观。

而且在合适的情况下制止人类去做那些不该做的事。

这三条看着宽松但其实十分严谨的原则,不光会限制住人工智能自我成长的潜力。

也会在一些适当宽松的地方,留给人工智能完善自我逻辑闭环的空间。

避免因为一些定的太过极端的原则,导致人工智能出现逻辑悖论从而引发BUG。

这三条原则会直接焊死在核心代码里面,永远无法更改。

“三条原则过后,就是防火墙和模块接入...”

“如果能保证原则不出问题,那剩下的就得保证病毒无法入侵了。”

王衡摸着鼻子,眼神也是犀利了许多。

在那些机械文明中,有的是因为编写时出现的BUG最后导致人工智能失控,也有的是因为人祸导致。

所以,王衡在吸收了大量资料后,决定将核心代码纯净化!

五一看书乐翻天!充100赠500VIP点券!

(活动时间:4月29日到5月3日)

$(\".noveContent\").last().addClass(\"halfHidden\");setTimeout(function(){$(\".tips\").last().before(\"点击继续阅读本更多精彩内容,接着读

本章已完 m.3qdu.com