第20章 演讲(1/2)
2012年10月29日,傍晚。
义大利,佛罗伦斯。
古老的文艺復兵之城在夕阳下泛著金色的光芒。
阿诺河静静流淌,远处圣母百花大教堂的穹顶在晚霞中显得格外壮丽。
陈阳站在酒店房间的窗前,看著窗外的风景。
这是他第一次来欧洲,第一次参加国际学术会议。
身后,传来敲门声。
“陈阳,准备好了吗?晚上的欢迎晚宴快开始了。“
开口的是朱军教授,水木大学计算机系的教授,这次也来参加eccv会议。
得知陈阳要来做演讲,朱军主动提出带他一起来,一路上照应这个第一次出国的大一学生。
“好了,朱老师。“陈阳拿起西装外套穿上。
镜子里的少年,穿著得体的深蓝色西装,头髮梳得整齐,眼神中带著超越年龄的沉稳。
“走吧。“
朱军笑著说,“今晚来的都是计算机视觉领域的顶尖人物,好好认识一下。“
会议酒店的宴会厅里,水晶吊灯发出柔和的光芒。
身著正装的学者们三三两两地聚在一起,端著红酒交谈著。
空气里瀰漫著香檳和烤牛排的味道,还有各种语言交织的低语声。
陈阳跟著朱军走进大厅,立刻感受到了几道目光落在自己身上。
“朱,好久不见!“
记住我们101看书网
一个满头银髮的老者走过来,用略带口音的英语打招呼。
“安德鲁!“
朱军热情地握手,“你也来了!“
安德鲁·齐瑟曼,牛津大学的教授,计算机视觉领域的传奇人物之一。
“这位是?“齐瑟曼的目光落在陈阳身上。
“我的学生,陈阳。“
朱军介绍道,然后压低声音补充,“star city data的那个。“
齐瑟曼的眼睛瞬间亮了。
“你就是陈阳?“
他用力握住陈阳的手,“天啊,我还以为你至少是个博士后!“
“您好,齐瑟曼教授。“
陈阳用流利的英语回应,“很荣幸见到您。“
“荣幸的是我!“
齐瑟曼激动地说,“6.5%!你知道吗,当我看到那个数字的时候,我以为是系统出错了!“
周围几个学者听到这边的动静,也围了过来。
“你就是star city data的作者?“
“天啊,这么年轻?“
“你真的只是大一学生?“
陈阳被围在中间,礼貌地点头回应。
“各位,“
朱军笑著帮他解围,“陈阳刚下飞机,让他先喘口气吧。明天的演讲,他会详细介绍技术细节的。“
“对对对,明天!“
齐瑟曼拍了拍陈阳的肩膀,“小伙子,我会坐在第一排听你的演讲。“
人群渐渐散开,但不时还有人投来好奇的目光。
“习惯就好。“
朱军低声对陈阳说,“从今天开始,你就是这个圈子的焦点了。“
陈阳端起一杯果汁,看著大厅里那些学术界的传奇人物。
他们中有的写出了开创性的论文,有的培养了无数顶尖人才,有的创办了改变世界的公司。
而现在,他们都在谈论著同一个话题——那个来自中国的6.5%。
宴会厅的另一端,几个年轻人也在討论著。
“听说了吗?今年的冠军是个中国大一学生。“
“6.5%的错误率,简直不可思议。“
“明天一定要去听他的演讲。“
10月30日,下午两点。
eccv 2012闭幕式。
会议主厅里座无虚席,走廊上都站满了人。
讲台上,李飞飞正在做开场介绍。
“今年的imagenet挑战赛,出现了一个令人震惊的成绩。“
大屏幕上显示出排行榜前三名:
**rank 3: oxford vgg | 26.5%**
**rank 2: supervision (toronto)| 16.4%**
**rank 1: star city data (china)| 6.5%**
台下响起一阵惊嘆声。
“第二名团队的成绩已经是巨大的突破,將错误率从26%降到了16%。“
李飞飞说,“但第一名的成绩,则完全超出了我们的想像。“
她顿了顿,目光扫过台下:
“6.5%的top-5错误率,这意味著什么?意味著我们距离人类的识別水平,已经非常接近了。“
“接下来,让我们有请star city data团队的代表,来自清华大学的陈阳,为我们带来今天的闭幕演讲——《deep residual learning for image recognition》。“
掌声响起。
陈阳从第一排站起身,走上讲台。
聚光灯打在他身上,台下数百双眼睛盯著他。
他深吸一口气,接过话筒。
“各位下午好,我是陈阳。“
他的声音平静而清晰,英语发音標准。
“在开始之前,我想先问一个问题:为什么深度神经网络不能无限加深?“
大屏幕上出现了一张图表,显示著网络层数和准確率的关係。
“传统观点认为,网络越深,表达能力越强。但事实上,当网络超过一定深度后,准確率反而会下降。“
陈阳点击翻页。
“这就是所谓的退化问题。很多人认为这是过擬合导致的,但实际上,即使在训练集上,深层网络的表现也不如浅层网络。“
台下的学者们点头,这確实是困扰业界多年的难题。
“那么,问题出在哪里?“
陈阳的语气突然变得锐利:
“问题在於,我们让网络学习的东西太难了。“
他点击下一页,屏幕上出现了一个简单的示意图。
左边是传统网络:输入x经过两层网络,输出h(x)。
右边是残差网络:输入x经过两层网络得到f(x),然后加上原始输入x,输出h(x)= f(x)+ x。
“这就是残差学习的核心思想。“
陈阳的声音在寂静的会场里迴荡:
“与其让网络直接学习h(x),不如让它学习残差f(x)= h(x)- x。“
“为什么这样更简单?因为在很多情况下,最优映射接近於恆等映射。也就是说,f(x)接近於0,比直接学习h(x)要容易得多。“
台下开始有窃窃私语声。
“太简单了……“
“为什么我们之前没想到?“
“等等,这真的有效吗?“
陈阳似乎听到了这些质疑,他点击下一页。
本章未完,点击下一页继续阅读。