​知识产权大数据重点实验室周例会会议纪要
作者: 时间:2023-05-20 点击数:

知识产权大数据重点实验室周例会会议纪要

时间:2023年5月19日

地点:工业中心101会议室

参会人员:雷方元、蒋健健、知识产权大数据重点实验室研究生

本次会议在工业中心101会议室召开,主要围绕21级研究生近期研究进展,由实验室21级研究生周厚棉、罗翔敏、许龙、陈紫威进行汇报。

本次汇报周厚棉同学汇报了一篇论文《TOPOLOGICAL SIGNAL PROCESSING OVER WEIGHTED SIMPLICIAL COMPLEXES》,该论文的创新点在于提出了加权单纯复形信号,对原拉普拉斯矩阵进行加权改造,原本SAN里面的注意力机制,其实是加权单纯复形信号的一种隐式表达方法,但相比注意力机制需要计算较多的注意力系数,加权单纯复形的核心在于计算出对角阵上的正系数,相比注意力机制可以大大节省计算的时间。此外,汇报了关于改进模型的实验结果。最后,汇报了下周的工作计划和安排。

罗翔敏同学汇报主要内容为关于时间序列的论文《FEDformer: Frequency Enhanced Decomposed Transformer for Long-term Series Forecasting》,其中提出了一种众所周知的表示方法,傅里叶与小波变换的方法,开发出了关于频率增强的Transformer 模型。将Transformer与周期趋势分解方法相结合,其中周期趋势分解方法捕获时间序列的全局轮廓,而Transformer捕获更详细的结构。在Transformer结构中提出了傅立叶增强块和小波增强块,能够通过频域映射来捕获时间序列中的重要结构。在多个领域(能源、交通、经济、天气和疾病)的6个基准数据集上进行了广泛的实验。研究表明,所提出的模型在多变量和单变量预测方面分别提高了14.8%和22.6%的先进方法的性能。随后研究也将在时序预测和时序异常检测中进行展开。

许龙同学汇报了论文ICLR2023的一篇论文《Error Sensitivity Modulation based Experience Replay: Mitigating Abrupt Representation Drift in Continual Learning》,该论文的主要思想在于采用一种原理机制来调节双记忆排练系统中的误差灵敏度,并采用错误敏感储集层采样的方法来选择低损失样本作为排练缓存区的候选样本,借鉴论文中的双存储系统对所提出模型进行改进。

陈紫威同学汇报了论文《Hypergraph Neural Networks》和《HGNN+: General Hypergraph Neural Networks》进行了讲解和学习。首先简要介绍了Hypergraph Neural Networks(超图神经网络)的基本概念和背景,解释了论文中提出的两种超图神经网络模型的架构和关键特征。并详细讲解了两篇文献的创新点和改进点。

最后参会人员就汇报论文的主要观点、模型设计、实验结果等方面进行了积极的讨论和交流。老师对汇报人员的近期研究内容、以及后续研究方向提出了详细的指导意见和建议。


上一条:知识产权大数据重点实验室组织预答辩
下一条:实验室召开“五一”安全主题班会