天才一秒记住【爱看书】地址:https://www.aksss.org
经鸿两手握在身前,露出最合适的笑容,稳重又温和。
闪光灯闪烁不断,最后,合影终于结束了。
因为挨得太近,经鸿的手拿开来时,一不小心,右手手背刮到了周昶的手指。
周昶本能地望过来,经鸿眼睛向那只手瞥了瞥:“……抱歉。”
周昶望了经鸿几秒,回他:“没事儿。”
“好了好了。”
论坛的工作人员跑过来说,“论坛结束后,论坛的官方照片都会发去大家邮箱的哈!”
她正好在经鸿斜前方,领导那边儿,经鸿离得近,便笑道:“谢谢。”
不翻脸的时候,他一向都显得随和。
周昶也表面随和,不过,经鸿是平起平坐的随和,而周昶则有种高高在上的随和。
…………
拍照过后,主论坛开讲。
经鸿是第三个上台的。
他穿着深色的西装和皓白的衬衫,正了正麦克,道:“尊敬的郑书记,尊敬的吴部长、王部长,各位IT的同仁,各位新老朋友,大家好。”
台下顿时响起掌声,颇为热烈。
经鸿见了,笑笑,说:“有点儿受宠若惊。
希望我接下来的几分钟能不虚这些掌声吧。”
他一贯地有礼有度,给人好感。
待现场重新安静,经鸿才进入了主题:“过去,对人工智能的探究主要集中在三个层面:对社会的价值、对企业的价值,以及AI的伦理风险。
今天我主要想讨论讨论另外一个鲜少被注意到的方面,就是算法黑箱的打开。”
经鸿看见台下的人全都露出了兴趣。
“算法黑箱”
,台下的人都不陌生。
人工智能模仿人脑进行学习,比如,人类交给AI大量猫的图片、狗的图片,它就可以层层提取对象特征,自己学会“什么是猫”
“什么是狗”
,可人类目前不能解释AI的工作原理,不能明白机器为何要做某些事情、为何得出某些结论。
根据输出,有些思路简单易懂,比如猫狗的轮廓、颜色,可很多时候并非如此——也就是说,人类看不懂。
它给了人类空前的可能,也给了人类无尽的困惑。
有人说,让AI向人类解释一个东西,相当于让人类向狗解释一个东西,听着就让人沮丧。
可人类历史充分表明,只有一个决策可以被解释、被分析,人类才能充分了解它的优点和它的缺陷,进一步评估风险,知道它在多大程度上能被信赖。
然而现在,每个学者的头脑中都萦绕着几个问题:我们能信任AI吗?我们能在多大程度上信任AI?我们能在生死攸关时信任AI吗?
台上,经鸿又说:“今年,DARPA提出了‘可解释AI’的概念,何积丰院士也提出了‘可信AI’的概念。
目前各国科学家正致力解开黑箱、解释算法,而泛海的研究院也愿意分享一些成果。
我接下来的演讲将主要分为三个板块,第一个是各国的最新政策和各国的研究现状,第二个是泛海的一些成果以及泛海的一些工具——这些工具泛海都会在即将发布的《可信AI白皮书》中分享出来,最后一个则是发展趋势和发展建议,也就是对业内的倡导。”
他的语气不疾不徐。
中间有次,经鸿目光无意中扫过周昶,而后发现,周昶竟然还挺认真的。
演讲的最后,经鸿再次语气坚定地道:“对可解释AI、可信AI的强调是AI发展的必然趋势,否则算法安全、算法责任等问题都无法解决。
我们并不悲观——在人类的文明当中,往往实践先于理论。
很多东西被发明时,发明者都并不清楚发明物的工作原理,比如火药。
本章未完,请点击下一章继续阅读!若浏览器显示没有新章节了,请尝试点击右上角↗️或右下角↘️的菜单,退出阅读模式即可,谢谢!