首页>>论文写作 >> 在十年来最难一届世界顶级会议上,华中科技大学6篇论文入选,拿下2项冠军!

在十年来最难一届世界顶级会议上,华中科技大学6篇论文入选,拿下2项冠军!

时间:2024-03-26 18:42:56 undefined 点击:927

6月14-19日,2020年国际计算机视觉与模式识别学术会议(IEEE/CVF Conference on Computer Vision and Pattern Recognition,CVPR)首次采用线上形式成功举行。作为世界顶级的计算机视觉领域学术会议,2020CVPR大会号称十年来最难的一届,论文录用率仅为22%,为十年来最低。华中科技大学人工智能与自动化学院在这届大会收获颇丰,共有6篇论文入选,其中1篇获选大会Oral论文,同时在大会竞赛中斩获2项冠军。

硕士研究生綦浩喆、冯晨等在曹治国教授、肖阳副教授指导下的研究成果"P2B:Point-to-Box Network for 3D Object Tracking in Point Clouds"被选为大会Oral论文。该论文着眼于在点云中进行3D目标跟踪,其创新点在于提出了一种新型的端到端的由点到盒的网络(P2B,Point to Box),它以点为核心基元,从模板点云和搜索区域点云中分别采集种子点,通过一种置换不变的手段将模板中的目标信息嵌入到搜索区域,使得搜索种子点都拥有目标特定特征,再通过霍夫投票回归潜在的目标中心,进行由点驱动的一体化的3D目标候选框的查找和验证。论文方法在KITTI跟踪数据集上取得了当前最好的效果,并可以在单个NVIDIA 1080Ti GPU上以40FPS的速度运行。

博士研究生鲜可在导师曹治国教授,以及Adobe Research公司的Jianming Zhang博士、Oliver Wang博士、Long Mai博士、Zhe Lin博士的共同指导下,在大会发表论文"Structure-guided Ranking Loss for Single Image Depth Prediction"。该论文的研究工作得到国家自然科学基金面上项目和Adobe Gift的资助,针对现有单张图像深度估计模型无法预测出物体一致性好、边缘准确的深度图,提出了一种结构化引导的排序损失函数,结合底层边缘引导和高层实例引导的在线采样,来引导模型专注于深度重建中最难、最重要的部分--深度不连续性。

硕士研究生王焱乘在肖阳副教授、曹治国教授指导下,与美国纽约州立大学布法罗分校的袁浚崧教授和新加坡高科技研究局A*STAR的周天异研究员合作,发表了"3DV:3D Dynamic Voxel for Action Recognition in Depth Video"论文。该论文提出了一种新的三维动态体素(3DV)表示方法,来进行3D人体行为识别。

博士研究生余昌黔在桑农教授、高常鑫副教授和澳大利亚阿德莱德大学的沈春华教授的指导下,在大会发表了"Context Prior for Scene Segmentation"论文。该论文的研究工作在国家自然科学基金重点项目的资助下,针对场景分割问题,提出了一种上下文先验用于显式聚合类内上下文和类间上下文信息。

博士后邵远杰、博士生李乐仁瀚等同学在桑农教授、高常鑫副教授指导下,发表了"Domain Adaptation for Image Dehazing"论文,该论文的研究工作在国家自然科学基金重点项目的资助下,针对传统的图像去雾模型仅在合成雾天图像上训练,在真实雾天图像上泛化性不足的问题,提出一种基于域自适应的图像去雾框架,包含一个图像转换模块和两个图像去雾模块。

硕士生密振兴和罗一鸣同学在陶文兵教授指导下以共同第一作者在CVPR2020发表论文一篇,论文"Zhenxing Mi#, Yiming Luo#, Wenbing Tao*, SSRNet: Scalable 3D Surface Reconstruction Network. CVPR2020"首次解决了采用深度学习进行大规模点云(千万级以上)的表面重建问题,在表面重建性能、效率和可扩展性方面均优于现有的几何的或是基于学习的表面重建算法,且算法具有较好的泛化性能,在少数几个点云数据上进行训练后便可广泛应用到各种大规模点云数据的表面重建。

在大会竞赛中,华中科技大学人工智能与自动化学院桑农教授、高常鑫副教授指导硕士生卿志武、马百腾,以及本科生王翔等参加了大会组织的国际大规模动作识别ActivityNet竞赛,并夺得ActivityNet时序行为定位(Temporal Action Localization (ActivityNet))和HACS有监督时序行为定位(HACS Temporal Action Localization Challenge 2020:Supervised Learning Track)2个赛道的冠军。

时序行为定位是目前视频理解方向的研究热点。国际大规模动作识别竞赛ActivityNet是视频动作识别与时序行为检测领域的重要竞赛。作为视频理解的基础技术之一,时序行为检测具有广泛的应用前景,相关技术在智能生产、视频智能剪辑、智能监控、视频内容检索、视频分析、活体检测等多项实际应用中具有重要价值。在ActivityNet时序行为定位比赛中,团队提出了一种名为CBR-Net的深度学习网络。CBR-Net网络融合了视频中的时序依赖信息,并同时对得到的定位结果进行微调,产生边界精度更高的定位结果。最终,凭借CBR-Net网络,以42.788mAP夺得冠军。

HACS(Human Action Clips and Segments)是2019年由麻省理工学院(MIT)提出的用于行为识别和时序行为检测的大规模数据集。该数据集不仅包含的视频数量远超之前的所有的时序行为检测数据集,而且单个视频的时序行为标注更加复杂,更加接近现实应用。在HACS有监督时序行为定位比赛中,团队提出了更加高效的视频级别分类方法,利用多模型的互补性极大提高了分类性能。在时序提议生成中,针对现有方法中在HACS数据集的不足,提出融合时序上的高阶特征的方法,有效提高了时序提议的质量。最终在测试集上mAP达到40.53%夺得冠军,比第二名39.33%高出1.2%mAP。

目前,华中科技大学是全国3所拥有"人工智能"从本科,硕士到博士完整人才培养体系的高校之一,学校人工智能与自动化学院具有深厚的人工智能研究和研究生培养基础。1978年教育部和航天部共同批准在华中科技大学设立图像识别与人工智能研究所,是国内最早进行模式识别与人工智能研究的科研机构之一。学院在1998年获得"控制科学与工程"一级学科博士学位授予权,2007年控制科学与工程被评为国家重点一级学科,模式识别与智能系统被评为国家重点二级学科。近五年来,学院承担国家重大专项、国基金重点项目等国家级重大项目165项,各类预研、省部级科研和横向课题200余项,科研经费2.6亿元。发表SCI论文近600篇,获批专利110余项。学院获得省部级科技一等奖9项,参与获得国家科技二等奖2项。

未来,华中科技大学人工智能与自动化学院将还抓住机遇,以培养掌握人工智能理论与工程技术的专门人才为目标,深化人工智能内涵,构建基础理论人才与"人工智能+X"复合型人才并重的培养体系,通过科教融合、学科交叉,进一步提升学校人工智能科技创新能力和人才培养能力,为我国抢占世界科技前沿,实现引领性原创成果的重大突破,提供更加充分的人才支撑。

关注"华中科技大学本科招生"头条号,获取更多精彩资讯

文章素材来源:华中科技大学人工智能与自动化学院官网、官微

《在十年来最难一届世界顶级会议上,华中科技大学6篇论文入选,拿下2项冠军!》
将本文的Word文档下载到电脑,方便收藏和打印
推荐度:
下载文档

文档为doc格式

最新文章

猜你喜欢