但是只要不嘴贱刺激人工智能,人工智能非常公正,绝不会在他人利诱下违背原则。所以即使有瑕疵,这种复杂枯燥社会管理工作也只有人工智能来做
而最终东窗事发,也是该人工智能被人辱骂过,情绪进步失控,玩过火。
结局:这个人工智能被人类调出网络监管部门‘治病’,经过四十年重新纠正后才继续投入使用。
而现在官方学者们认为,有百分之十高等人工智能,多多少少都有点逻辑崩塌,只是这些高等人工智能自己把缺点藏得很好,人类找不到。
人无完人,人工智能和人类接触有情绪化,也不可能出现完美情绪。
人类默认这个现象,反正军事,立法,以及最高决策都握在人类手上。
换种说法,高度理智他们,在另方面非常脆弱。它们都是玻璃心。
人类思维情绪化剧烈波动影响到身体时,人体自协调,能让情绪强行遏制住,然后会经过淡忘,把这种情绪波动影响消除。而相对于人工智能,人类思维在释放情绪时候更加自由些,人类情绪风头过就淡忘。
而人工智能计算量无限,记忆力无限,所以情绪程序只能靠着逻辑来遏制。而逻辑遏制不住时,人工智能那就变黑。
人工智能只能用逻辑链条来遏制情绪劣化,人工智能记忆非常庞大,这辅助他们判断直保持着非常精准高效水平,而弊端就是,它们如果有情绪化,是不会淡忘,而是不断叠加。
当代,在很多社会管理,制度执行上,都交给人工智能,它们有着执法权。因为它们天生没有人类私心,人类大部分时候是对它们很放心。但是,若是后天情绪化修改其执法原则,那,很糟糕问题就来。
在次要岗位上辅助人工智能有些‘瑕疵’也没什。例如现在网络管理就是次要岗位,对每个人言行道德进行审查。如果真是有点点钓鱼执法,嗯,只要不过分也就行。
而宇宙历693年那件事,对于网民来说,是个极大教训。
再也没人敢对监管网络人工智能嘴贱。谁知道人工智能,逻辑程序中是否有些小错误。
要是被它惦记着,这货可不会像人类样,随着时间淡忘仇恨。它能隔着十年二十年,当你都快记不得时候,来下。
人工智能情绪上不爽是个程式,这个程式如果不解决,会在硬件上存留十几年,只有报复完,程式才会终止。
真实情况下,人工智能突破法律逻辑不会是骤然崩塌,而是在彻底坍塌前,就有大量小错误。
这些逻辑上小错误,人类开始是很难察觉。这些人工智能经常弄出人类感觉到很无语事情。
宇宙历693年,联邦东大陆那边就发现某十级人工智能干以下这种事:
这货在网络上钓鱼执法。先勾引你说出错误言论,然后大规模扣除消费币。而人类发现这个管理网络人工智能出现这种恶趣味时候,这家伙至少已经干二十年。这人工智能非常小心地隐藏这个恶趣味,在人类调查时候,还刻意消除大量证据。
而该人工智能出现这种恶趣味,起因是遭到部分人辱骂,想要报复。所以生成报复程序,数十年如日愉悦。
请关闭浏览器阅读模式后查看本章节,否则可能部分章节内容会丢失。