从陈远志背后响起,然后陈远志再次看到这家伙头顶的显示器露出了它那双超大的动画眼睛,转了两圈后,又开始发出声音:“我是开玩笑的啦,我的粉丝都是好人啦!”
但他只有他能看清的显示器上却闪过一段话:“上门拜访携带礼物是人类社交的基本礼仪哦。”
“咳咳,陈校长,见笑了。乔哥设计的豆豆就喜欢搞怪。”
“没事,没事,我先告辞了。这个豆豆,很有趣。”
“豆豆罚你去充电!”
“哦……那豆豆去充电了哦。”
……
陈远志走了,豆豆被勒令去充电了。
苏沐橙便坐到了乔泽的身边,说道:“乔哥,你不要总是凶豆豆嘛……它毕竟还是个孩子嘛。嗯……好吧,就算它不是真的孩子,但它刚有了身体,兴奋了一点也是正常的。谁会跟机器人计较呀。”
好吧,这是真代入到母亲的角色了。
乔泽有些无奈。
设计拟人情绪模块的时候,他还真没考虑到这种情况。
刚才的思考已经让乔泽大概想清楚问题出在哪里了。
当时为了让群智框架能比gpt看起来更为贴近人类的思维模式,在设计自主学习奖励函数的时候,引导智能体学习的函数对于各种类人情绪化模拟有着给与了更高的自由度。
给有为的商用版本,处于对各种法规的限制,在这块进行了削弱。
但豆豆这个版本,他直接调用了原始的版本,没有做任何修改,所以豆豆的性格可以说受网络各种言论的影响会比较大。基本上只要在最核心以及最高权限的安全协议允许范围之内,豆豆对于人类个性的模拟会直接受大数据的影响。
并以此为指向,来贴近人类行为。
比如它的数据库内容告知人类是喜欢收到礼物的,那么它就会热衷于要礼物。
即便人类的礼物,对它来说大概率没有任何价值。
但如果从人类的角度来说,昂贵的礼物,会让它表现得开心,如果价值低廉,也可能让它嫌弃。
是的,理论上说,这玩意儿还能表现出嫌贫爱富那一套……
偏偏这些都已经嵌入到豆豆的底层逻辑线里。
改是不可能改的了,但是可以重写。
“如果把豆豆优化一下,你能接受吗?可能需要重写底层的代码。”
“不要,那豆豆就不是豆豆了!”
“嗯……它只是机器人。”
“不行,它都叫我们爸爸妈妈了,机器人的代码就是它的灵魂啊。重写的话,那它就不是豆豆了,而是另一个机器人了。”苏沐橙认真的否决了乔泽的提议。
“哦。”乔泽点了点头。
算了,反正安全协议的权限是最高的。
这东西就算嫌贫爱富,也不会嫌到他跟苏沐橙身上,随它吧。
“不过你再写一个,用在下个机器人身上给豆豆当弟弟?”
这是代入感得太狠想要二胎了?
不过乔泽却开始认真思考这个可行性。
大号废了,换个小号重练的确是解决问题的办法这一。
不过两个人工智能经常接触,他需要考虑的问题更多。理论上来说两个遵守不同底层逻辑的人工智能,在每天的交互中,会受设计、目标和环境的影响产生一些化学反应。
如果目标是合作跟共享,那么两个人工智能就能共用一个数据库,通过交换数据和经验来提高性能,也许能更有效的执行任务,但也许会相互影响。
当然也可以设计成竞争与对抗。不共享数据库,设计奖励函数的时候让下一个人工智能突出优势,以想办法超越豆豆作为目标。