「经常有痴呆的入住老人说:『我要回家,送我回去』,诗音也会拒绝那种要求吧?」
「是的。另外,万一有人恶意下令伤害需要看护者,诗音也不会执行,她会以需要看护者的安全为第一优先考量,此外,也不会接受毫无意义地破坏什么的命令。即使说『你从窗户跳下去』,她也会拒绝,因为那样会破坏她自己。在不和那些限制产生矛盾的范围内,她也会接受需要看护者的命令。难以判断的情况下,她会向职员请求指示。」
原来如此,不亏是花了十几年的时间开发的成果,看来厂商假设了所有可能发生的状况。
「紧急的情况下呢?像是老人家突然昏倒之类的。」
「那种情况下,诗音会不等待命令,以自己的判断行动。」
「判断的正确率多高呢?」
「这是个难以回答的问题。训练中故意引发意外的情况下,诗音以相当高的机率采取了适当的行动。不过,还是有许多无法预测的意外。我不能保证遇上资料库中没有的情况时,她采取正确行动的机率是百分之几。不过,无论任何情况下,诗音都不会当机。因为我们克服了框架问题——噢,所谓的框架问题是指……」
我还没发问,鹰见先生就开始解释了。
「比方说,假设命令机器人:『我现在要外出,保护我的安全!』机器人会和我一起步行,随时观察周围,注意是否有危险。可是,『危险』是指什么呢?汽车从对面靠过来,那辆车有可能切错方向盘而撞过来。前方有落石,我说不定会被石头绊倒受伤。或者,从对面靠过来的路人其实是恐怖份子,身上藏着炸弹,说不定现在正想自爆。经过的人家有可能引发瓦斯爆炸、有可能发生大地震、有可能坠机,这些意外都有可能发生。
「如果要考虑到所有的可能性,机器人什么事也不能做。光是认识自己周围的所有事物,搜寻、处理与其相关的所有资讯,电脑就会当机,结果连『保护安全』这个命令都无法执行。这就叫做框架问题。」
「可是,忽略掉发生可能性低的事情不就好了吗?」
「你说得没错。但是,很难让机器人做到这一点。即使说是『发生的可能性低』,也无法一一计算机率。石头绊倒的机率无法计算吧?再说,人类并不会依照机率判断是否该忽视风险。
「举日常生活中的例子来说,每次发生孩童被变态杀害的事件,大人经常就会采取警戒那种事情再发生的行动。可是,孩童死于车祸的机率,却远高于被变态杀害的机率。既然这样,明明应该进一步加强指导交通安全,却很少人会认为车比变态更危险。除此之外,因为家中意外死亡的人多于一年总计的车祸死者,但也没有人会认为家中比马路更危险。担心手机的电磁波和极微量的食品添加物会危害身体的人,若无其事地喝酒,而酒精对身体的危害远大于前两者。也很少人会在佛灭(※意指大凶之日,
为优化阅读体验,本站内容均采用分页显示,请点击下一页继续阅读! 第6页 / 共38页