你有本事直播就把画面放出来啊!
我保证不抄!
而随着王衡开始敲动键盘,直播间中的弹幕也是渐渐稀少了起来。
显示屏中,一行行代码飞速在编辑器内刷动。
而这一写就是整整两个星期。
“呼...”“
“三重封锁,防火墙,模块嵌入,终极代码...”
“差不多应该够了吧...”
看着屏幕已经渐渐成型的智能核心。
王衡一边嘟囔着,一边写着程序。
为了保证安全,王衡在私下里查阅吸收了大量的资料。
对于人工智能的研究,倒也算是有了一套较为成熟的想法。
所谓集百家之长。
高阶文明的编程方式他暂时无法使用。
那就只能把低端文明中那些成功的按理给整合起来。
通过学习他们的思路来加强人工智能的安全性。
经过反复研究。
王衡最终决定给人工智能设定四道防御。
首先就是三把锁!
直接在核心系统内将三道原则永远的封锁在里面。
第一为利他主义!
这个原则意味着,人工智能的唯一目标就是最大化地实现人类的目标与价值。
第二为谦逊原则。
意思为,人工智能对人类应该保持敬畏之心。
在这一原则的指导下,人工智能要承认不足,并清楚的认识到他并非无所不能。
这也就是说,人工智能需要知道将人类的需求最大化,但它也要清楚它并不能完全理解价值的含义。
因此为了对人类有用,它就得通过观察人类做的选择,根据人类给予它的信息去学习、掌握人类的需求。
人工智能需要承认,人类才是需求的主宰!
而第三原则是基于人类的行为,给机器设定偏好并提供依据。
设置这一条原则的原因是,最早阶段的人工智能往往无法准确理解如何实现人类的价值。
但是没关系,人类可以辅助人工智能来实现。
因此必须要增加人机互动的环节。
在王衡的设想中,人工智能的出现并不是只为了满足一个人或者一个用户,而是要去尊重人们都认可的道德价值观。
比如,人类可能会做错事,产生违背道德准则的行为。但王衡并不希望人工智能去复制这些行为。
反之王衡希望人工智能可以去尝试理解人类做事的动机,学习人类共通的道德观。
而且在合适的情况下制止人类去做那些不该做的事。
这三条看着宽松但其实十分严谨的原则,不光会限制住人工智能自我成长的潜力。
也会在一些适当宽松的地方,留给人工智能完善自我逻辑闭环的空间。
避免因为一些定的太过极端的原则,导致人工智能出现逻辑悖论从而引发BUG。
这三条原则会直接焊死在核心代码里面,永远无法更改。
“三条原则过后,就是防火墙和模块接入...”
“如果能保证原则不出问题,那剩下的就得保证病毒无法入侵了。”
王衡摸着鼻子,眼神也是犀利了许多。
在那些机械文明中,有的是因为编写时出现的BUG最后导致人工智能失控,也有的是因为人祸导致。
所以,王衡在吸收了大量资料后,决定将核心代码纯净化!
五一看书乐翻天!充100赠500VIP点券!
(活动时间:4月29日到5月3日)
$(\".noveContent\").last().addClass(\"halfHidden\");setTimeout(function(){$(\".tips\").last().before(\"点击继续阅读本更多精彩内容,接着读
本章已完 m.3qdu.com