现在时间:

加入收藏|设为首页



新闻动态

第三届自然语言处理前沿论坛顺利举办

发布日期:2025-07-07 16:51:10信息来源:山东省计算中心浏览次数:

6月20日,第三届自然语言处理前沿论坛在齐鲁工业大学(山东省科学院)国家超级计算济南中心圆满举行。论坛邀请中国中文信息学会资深学者重点围绕自然语言处理领域前沿热点问题,聚焦大模型安全性、检索增强技术、大模型幻觉检测与治理、大模型情绪理解与情绪支持、语言推理到多模态推理、大模型深度推理技术等学术话题,展开了精彩报告与热烈讨论。中国科学院自动化研究所研究员宗成庆、清华大学教授黄民烈、厦门大学教授苏劲松、哈尔滨工业大学(深圳)教授徐睿峰、北京大学教授万小军、中国科学院自动化研究所研究员张家俊、中国人民大学教授赵鑫出席论坛。本次论坛汇聚了来自齐鲁工业大学(山东省科学院)及山东省内多所高校的百余名师生,共同参与交流与研讨。论坛开幕式由齐鲁工业大学(山东省科学院)计算学部教授鹿文鹏主持。

活动伊始,国家超级计算济南中心副主任郭莹研究员和中国科学院自动化研究所研究员宗成庆致开幕辞。郭莹对各位与会专家的莅临指导表示热烈欢迎与感谢,同时围绕计算学部的发展历程与整体建设情况作了简要介绍。宗成庆感谢各位专家接受邀请参加前沿论坛活动,期待大家能够深入交流,加强合作,共同发展。

与会专家根据自身研究实践,围绕自然语言处理领域的前沿课题分享了最新成果与深入见解,带来了一系列丰富精彩的学术报告。

清华大学计算机科学与技术系黄民烈教授报告题目:大语言模型的安全问题

黄民烈指出,随着ChatGPT、GPT-4等大语言模型智能水平的不断提升,通用人工智能正逐步从理论走向现实。然而,“越智能越危险”,大语言模型的安全性问题也日益凸显。在报告中,黄民烈首先系统地阐述了大语言模型安全问题的研究背景及其重要意义。而后,他从智能体安全、长上下文建模安全、可迁移性越狱攻击、数据窃取与后门植入、遗忘学习等多个关键维度,深入剖析了当前大模型面临的主要安全威胁及其应对方案。最后,黄民烈对现有的推理大模型指出了多个新安全风险,并为未来构建可信、安全的推理大模型技术体系,提出了创新性的解决思路与发展路径。

厦门大学信息学院苏劲松教授报告题目:检索增强大模型关键技术:动态压缩、知识整合与图检索评估

苏劲松指出,当前RAG技术在应对高压缩率、知识冲突和复杂推理任务时仍面临显著瓶颈。面对RAG技术在知识密集型任务中的挑战,苏劲松提出了多项创新解决方案。首先,他介绍了查询引导的上下文压缩器,通过动态压缩策略缓解性能损失。其次,介绍了FaithfulRAG框架在生成过程中引入显式冲突建模与自我反思机制,显著提升生成内容的准确性与忠实性。此外,还介绍了GraphRAG Bench评估体系,通过多层级任务设置和双维度知识库,系统评估GraphRAG方法在多跳推理与知识整合场景中的表现。最后,苏劲松强调未来研究应关注知识结构优化与推理路径透明化,为RAG技术发展指明了方向。 

哈尔滨工业大学(深圳)智能学部徐睿峰教授报告题目:大模型时代的情绪理解与情绪支持

徐睿峰指出,情绪理解与情绪支持在个体心理健康和社会互动中扮演着至关重要的角色。随着大语言模型等人工智能技术的迅猛发展,情绪相关研究正逐步迈向更高的智能水平,涌现出一系列创新性成果。大模型不仅显著提升了情绪识别和建模的精度与泛化能力,也为复杂对话场景下的情绪推理与支持提供了新的解决路径。徐睿峰系统介绍了当前该领域的整体发展趋势,并结合团队近年来在情绪识别、对话情绪识别、对话情绪溯因、情绪支持对话等方面的研究进展,深度分享了在模型设计、数据构建、评估指标等方面的实践经验与思考,强调该方向在心理健康服务与社会情感计算中的广阔应用前景。

北京大学王选计算机研究所万小军教授报告题目:大语言模型的幻觉检测与治理

万小军首先从语言模型原理与幻觉问题入手,介绍了大语言模型的生成机制及幻觉现象的定义与分类。在幻觉减少与治理方面,他介绍了多种方法,如通过提供更多背景信息、改进训练策略、引入可控解码与重排序以及后处理纠错模块来减少幻觉的产生。在幻觉检测方面,他系统介绍了幻觉检测技术,包括依赖外部知识的事实验证方法,以及零资源的内部状态检测、词汇分布分析、行为反馈等。最后,万小军展示了中文幻觉检测数据集C-Faith的相关工作,并探讨了跨模态幻觉和若干开放性问题,强调幻觉问题需要辩证看待与持续探索。

中国科学院自动化研究所张家俊研究员报告题目从语言推理到多模态推理

张家俊指出,随着OpenAI o1和DeepSeek R1等模型的开源发布,大语言模型正加速迈入“推理时代”。报告围绕推理算法优化、能力评测与多模态能力构建三个方面展开。在算法优化方面,张家俊指出主流强化学习方法常忽略序列中各Token的差异性,介绍了一种基于Token级优势计算的新型算法,有效提升推理表现。在能力评测方面,张家俊指出现有任务集中于数学、代码等狭窄领域,系统介绍了长链反思推理基准LR2Bench,揭示当前模型在复杂推理任务上的不足,强调多模态推理能力的紧迫性。最后,在推理能力构建方面,张家俊介绍了一种高效构建多模态大模型推理能力的路径与方法,并强调大模型有望在更广泛的应用场景中展现强大的推理能力,为人工智能的发展带来更多的可能性和机遇。

中国人民大学高瓴人工智能学院赵鑫教授报告题目深度推理模型技术探讨

赵鑫指出,深度推理能力作为大语言模型实现高阶智能的核心要素,正在推动人工智能向更具逻辑性的方向发展。他首先介绍了深度推理能力的基本概念,并通过OpenAI o1、DeepSeek R1等“长思维链”模型实例,阐释了结构化“思考-解答”链条对提升模型逻辑推理能力的关键作用。随后,他从强化学习训练方法、长度可控推理机制、工具增强模型等多个维度,对深度推理技术的最新进展展开系统解析。最后,赵鑫展望了深度推理技术的未来发展方向,强调“长度自适应推理”与“工具协同增强”将成为推动大模型推理能力突破的重要路径,并指出该领域在复杂问题求解与智能决策支持等方面的广阔应用前景。

交流环节中,同学们纷纷对专家们的精彩分享与悉心指导表达了诚挚谢意,并结合自身研究中的困惑积极提问,现场讨论氛围热烈而富有深度。通过与领域专家的深入互动,与会师生进一步厘清了在大模型迅猛发展的背景下推进科研工作的可行方向与路径。面对当前技术演进中的核心挑战,专家们从理论与实践双重维度剖析关键问题,并提出了具有前瞻性和指导意义的意见建议。此次论坛不仅有效激发了师生的科研热情,也为大家带来了全新的研究视角与方法启示。

齐鲁工业大学(山东省科学院)计算学部教授鹿文鹏为本届自然语言处理前沿论坛致闭幕辞,对各位专家学者的到来以及精彩分享表达了诚挚谢意,并表示希望各位专家能够进一步加强与计算学部、国家超级计算济南中心的合作与交流。

在论坛举行期间,与会专家走进国家超级计算济南中心展厅,深入了解了国家超级计算济南中心的发展历程及其在科研与应用方面所取得的重要成果。



中心概况 中心简介 领导关怀 更多 责任分工

新闻动态 中心要闻 党建文化 媒体聚焦 通知公告

科研创新 科研概况 研究方向 学术报告

公益服务 数据灾备平台 信息化服务

人才队伍 博士生导师 研究生导师

联系我们 联系我们



Copyright 2010 scsc.cn,All rights reserved  山东省计算中心  版权所有  鲁ICP备05015575号
技术支持:山东亿云信息技术有限公司