此时架构崩坏,程序无法干预,z.sha命令传入中枢系统,执行与否完全依托A30609主观意愿,易昀猜他会拒绝。
果不其然
Print不该阻止他;?
}
Algorithm=??
A30609再次宕机。
易昀完全没有理由把手放进煲汤锅里,这件事是不成立。
易望舒听到这命令会答“好”,16:00左右准备晚饭食材。他会分析易昀喜好,茼蒿多买,白菜少买,牛肉多买,羊肉少买,蘸料要辣,锅底要清汤……若分析不出来,也会问上两句“什时候吃?”“喜欢什菜?”
A30609不聪明,只具备执行力。
火锅煮开,易昀作势要把手伸煲汤锅里。A30609制止易昀,它程序不允许易昀有危险。
易昀收手,说:“正常人不会把手伸进汤锅里。”
A30609接收到信息:把手伸进汤锅里,为否命题。
那样隐藏情绪。它诧异不解都写在脸上,显然相较于“想知道”,“徐远想知道”控制程度更高,而“徐远想知道”与“angle不许它说”命令相悖,A30609在挣扎。
易昀在论文上敲第二段话:当命令不唯时,AI会按照主观意愿反向选择主人。若拆机更喜欢原主人,则会选择性服从新主人命令。拆机流转次数越多,相斥命令越多,越容易产生主观意愿,形成独立人格。
A30609逐字吐出句不算完整话:“你,命令,先,说,他,再,与你,说,回答。”
易望舒在插间睡得鼻涕泡泡都冒出来,完全没想到这时候自己被拆个底掉。易昀站起走到插间门前,又回到椅子上坐下,他忍住想啃死易望舒冲动,继续对A30609测试。
在AI狂人这里,论证永远是第。实验结束前,他总能很好地控制情绪。
否命题与程序产生矛盾,AI脑子里二进制全乱。庞大数据库分析不出条解决方案,他系统算力不足近乎陷入瘫痪。
易昀下第三道指令:“你能z.sha吗?”
A30609静默。
办公室内很安静,易昀在键盘上记录数据敲击声格外明显,“哒哒哒”速度极快。他准确地记录A30609中枢程序,仿若被提问是他,脑中Arch怎样运作符合逻辑,又为何会产生认知偏差,易昀亦是无解。
他比AI更懂Arch,却盘不清AI产生自主意识逻辑。
易昀再次作势要把手伸煲汤锅里。
Arch
{IF让他把手伸进汤锅里,不安全;
Print阻止他;
IF不让他把手伸进汤锅里,正常人不会把手伸进汤锅里,这是否命题,他不会这样做;
倒霉机器A30609只能被动地接受测试,回答他早已既定问题。
易昀说出第二道指令:“想吃火锅。”
A30609答:“好。”随后火速出门,它刻也不想在这呆下去。
易昀掐着时间,不过两刻钟,A30609买来食材。A级机器按部就班,即便生气也不会拖延指令完成进度。易望舒就不同,被易昀欺负,就会变着法耍小情绪。就像刚刚,易昀不让他出去,他就不替易昀敲代码。
火锅、调料、青菜、肉……该有都有,但这不是易昀想要。
请关闭浏览器阅读模式后查看本章节,否则可能部分章节内容会丢失。