教育经历:
2020.10-2024.03 京都大学 智能科学与技术 信息学博士
2016.09-2019.02 国防科技大学 信息与通信工程 工学硕士
2012.09-2016.06 武汉理工大学 通信工程 工学学士
工作经历:
主要研究领域:
表示学习与模式识别
学术成就:
本人长期从事计算机视觉、模式识别及神经表示学习领域研究,主要探究方向/课题包括(1)神经特征激活原理及应用建模;(2)度量学习与神经特征筛选。基于以上研究课题,本人以独立作者、第一/共一作者身份在人工智能领域主流会议及期刊上发表论文7篇(包括ICCV/CVPR/TIP等)。
本人专长的神经激活分析与建模方向是当前人工智能及表示学习领域的基础和重难点方向之一,在此方向上已以独立作者身份发表数篇CCF-A类重要成果,独立提出的决策过程启发的“神经激活的多指标决策诠释模型”是首个且现存唯一针对神经激活原理的归纳性解释模型。
同时,本人在其他重要模式识别问题中也取得了关键成果:(1)在跨视角图定位问题上,其提出了首个基于改造熵权法的在线困难样例(图像)挖掘学习算法(HER)以及新一代改进算法SEH,在多个主流数据集上实现了对现有方法的重要提升。现该成果在谷歌学术引用数超过142次,为目前跨视角图定位研究上引用最多的工作之一,且被人工智能其他相关领域工作所引用、借鉴。(2)首次提出并探究了面向RGB图像的道路场景材质分割任务及首个标准数据集(KITTI-Materials)和针对性算法(RMSNet),为机器场景理解提供了新的重要途径。
代表性成果:
[1] Sudong Cai. IIEU: Rethinking Neural Feature Activation from Decision-Making. In Proc. IEEE/CVF International Conference on Computer Vision (ICCV), pp. 5796-5806, 2023. (独立作者;CCF-A类)
[2] Sudong Cai. AdaShift: Learning Discriminative Self-Gated Neural Feature Activation With an Adaptive Shift Factor. In Proc. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), pp. 5947-5956, 2024. (独立作者;CCF-A类)
[3] Sudong Cai, Yulan Guo, Salman Khan, Jiwei Hu, Gongjian Wen. Ground-to-aerial image geo-localization with a hard exemplar reweighting triplet loss. In Proc. IEEE/CVF International Conference on Computer Vision (ICCV), pp. 8391-8400, 2019. (第一作者;CCF-A类)
[4] Yulan Guo, Sudong Cai (Michael Choi), Kunhong Li, Farid Boussaid, Mohammed Bennamoun. Soft Exemplar Highlighting for Cross-View Image-Based Geo-Localization. IEEE Transactions on Image Processing (TIP), pp. 2094 -2105, 2022. (学生第一/共一作者;CCF-A类;IF: 11.04)
[5] Chunting Liu, Sudong Cai*, Tong Pan, Hiroyuki Ogata, Jiangning Song, Tatsuya Akutsu. SFM-Net: Selective fusion of multi-way protein feature network for predicting binding affinity changes upon mutations. Journal of Chemical Information and Modeling (JCIM), ACS Publications, 2025. (共通第一;IF: 5.6)
[6] Sudong Cai, Ryosuke Wakaki, Shohei Nobuhara, Ko Nishino. RGB Road Scene Material Segmentation. Image and Vision Computing (IMAVIS), Elsevier, pp. 1-19, 2024. (一作兼通讯;IF: 4.7)