倪光南:AI发展应吸取教训 核心技术不能靠买靠换
“过去这些年,我们在信息技术领域最大的一个经验教训,就是关键核心技术必须靠自己自主创新来解决,不能靠买、靠换。”计算机专家倪光南院士近日在2019世界人工智能大会上接受澎湃新闻专访时表示。
尽管在应用、芯片等角度上发力,也会令AI产生更多价值,但他认为,国内必须在算法突破上投入更多的力气。
这位1939年出生的中国工程院院士曾参与研制中国自行设计的第一台电子管计算机(119机),在上世纪六、七十年代开展汉字处理和字符识别研究,首创在汉字输入中应用联想功能。
从1995年至今,倪光南就不遗余力地呼吁中国发展IT核心技术,特别是自主操作系统和国产CPU。如今,“技工贸”和“贸工技”之争,历史似乎已经给出了答案。他相信,中国如今会在人工智能领域吸取历史教训,下更大的决心实现突破。
人工智能安全超越软硬件问题
在此次大会上,倪光南参与了世界人工智能安全高端对话。在他看来,自主可控是网络安全的关键,必须在质量测评、安全测评的基础上增加自主可控测评。
这一套标准,可能也同样适用于人工智能时代的安全问题,即通过建立一些要素准则,评估人工智能相关产品、服务、技术、系统的安全可控。
“这样有个好处,是在网络安全的基础上再上一个台阶,不是另起炉灶,从零开始。”他说道。
那么,在继承网络安全的基础上,AI时代的安全问题表现出哪些新的特征?倪光南从演化的角度看待这个话题。
传统安全考虑的是人和物之间的关系,网络安全则涉及到人和人之间的攻防关系。“所以我们在网络安全上要强调自主可控,假如你无法自主可控,对方就可以利用漏洞从后门攻击,这是在传统安全上更进了一步。”
进入到人工智能时代,我们还需要面对人和人工智能的关系。AI的安全可控由此也超越了单纯的技术问题。例如,用交互过程训练聊天机器人时,一些机器人会出现“学坏”、“骂人”的情况,甚至变成一个“种族主义者”。
“这些机器人在软件和硬件上都不应该有问题,但在学习过程之中出现了更复杂的情况。”倪光南说道。这是过去从未考虑过的问题,需要各方面的深入研究。
此外,深度学习还有透明性问题。“人工智能识别图片可能比人更准确,但我们不知道为什么这么好;人类棋手下每步棋都有解释,但AI就做不出解释。”无法解释为什么好,就无法避免不好的情况。针对一些人脸识别系统,黑客画上一条简单的线就能迷惑AI,利用很小的干扰造成AI的失误。
倪光南总结道,人工智能带来了一种全新的安全类型,可能在制度设计和方法论上都需要有个说法。
关于AI安全,另一个广为关注的话题是AI是否会造成大规模失业。倪光南认为,机器相对于人类有两个最大的优势。其一是在某些特定领域上打败人类会成为常态。其二就是机器的智能很容易叠加和扩大,而100个人的智慧加起来就未必比一个人更强。
但他相信,在大量简单劳动被人工智能取代之后,依然需要一大批工程师去使用和维护这些机器,人类从而能在新增的工作岗位上发挥更高价值的作用。
历史教训赋予更大的决心
那么,中国的人工智能研究与产业未来要实现安全、健康的发展,最重要的发力点在哪里?倪光南认为算法仍是一个核心问题。
眼下这一波人工智能的新热潮,有三个公认的因素发挥了主要作用:数据、算力和算法。倪光南认为,其中最关键的是深度学习的出现在算法上实现了突破,将人工智能一下子提升到新的阶段。
下一篇:山东将奖励调峰调频火电机组