“算法黑箱”,台下人都不陌生。人工智能模仿人脑进行学习,比如,人类交给AI大量猫图片、狗图片,它就可以层层提取对象特征,自己学会“什是猫”“什是狗”,可人类目前不能解释AI工作原理,不能明白机器为何要做某些事情、为何得出某些结论。根据输出,有些思路简单易懂,比如猫狗轮廓、颜色,可很多时候并非如此——也就是说,人类看不懂。它给人类空前可能,也给人类无尽困惑。有人说,让AI向人类解释个东西,相当于让人类向狗解释个东西,听着就让人沮丧。
可人类历史充分表明,只有个决策可以被解释、被分析,人类才能充分解它优点和它缺陷,进步评估风险,知道它在多大程度上能被信赖。然而现在,每个学者头脑中都萦绕着几个问题:们能信任AI吗?们能在多大程度上信任AI?们能在生死攸关时信任AI吗?
台上,经鸿又说:“今年,DARPA提出‘可解释AI’概念,何积丰院士也提出‘可信AI’概念。目前各国科学家正致力解开黑箱、解释算法,而泛海研究院也愿意分享些成果。接下来演讲将主要分为三个板块,第个是各国最新政策和各国研究现状,第二个是泛海些成果以及泛海些工具——这些工具泛海都会在即将发布《可信AI白皮书》中分享出来,最后个则是发展趋势和发展建议,也就是对业内倡导。”
他语气不疾不徐。
中间有次,经鸿目光无意中扫过周昶,而后发现,周昶竟然还挺认真。
论坛工作人员跑过来说,“论坛结束后,论坛官方照片都会发去大家邮箱哈!”
她正好在经鸿斜前方,领导那边儿,经鸿离得近,便笑道:“谢谢。”不翻脸时候,他向都显得随和。
周昶也表面随和,不过,经鸿是平起平坐随和,而周昶则有种高高在上随和。
…………
拍照过后,主论坛开讲。
演讲最后,经鸿再次语气坚定地道:“对可解释AI、可信AI强调是AI发展必然趋势,否则算法安全、算法责任等问题都无法解决。们并不悲观——在人类文明当中,往往实践先于理论。很多东西被发明时,发明者都并不清楚发明物工作原理,比如火药。火药被发明时,发明者绝不知道产生二氧化碳化学式。因此相信,凭借人类智慧,们终会彻底揭开AI神秘面纱,让人工智能发挥出最大价值。谢谢大
经鸿是第三个上台。他穿着深色西装和皓白衬衫,正正麦克,道:“尊敬郑书记,尊敬吴部长、王部长,各位IT同仁,各位新老朋友,大家好。”
台下顿时响起掌声,颇为热烈。
经鸿见,笑笑,说:“有点儿受宠若惊。希望接下来几分钟能不虚这些掌声吧。”他贯地有礼有度,给人好感。
待现场重新安静,经鸿才进入主题:“过去,对人工智能探究主要集中在三个层面:对社会价值、对企业价值,以及AI伦理风险。今天主要想讨论讨论另外个鲜少被注意到方面,就是算法黑箱打开。”
经鸿看见台下人全都露出兴趣。
请关闭浏览器阅读模式后查看本章节,否则可能部分章节内容会丢失。