2025年01月17日:Ontology Matching with Large Language Models and Prioritized Depth-First Search
- 主页 /
- 通知公告 /
- 通知公告
2025年01月17日:Ontology Matching with Large Language Models and Prioritized Depth-First Search
【报告内容】
汇报人:何世祺
汇报单位:太原理工大学
主题:《Ontology Matching with Large Language Models and Prioritized Depth-First Search》
1、Introduction
2、Method
3、Experiment
4、Conclusion
【报告总结】
1.待解决的问题描述
文章主要致力于解决本体匹配领域的诸多问题,一方面是现有方法存在局限,传统方法难以区分语义相似与共现实体且可扩展性差,基于 LLM 的系统在复杂任务性能和计算开销上有不足;另一方面是要提升本体匹配的性能与效率,包括提高准确性和召回率、减少对 LLM 的请求次数及运行时间,同时减少对大量训练数据的依赖,并增强处理复杂本体结构和关系的能力,为此提出了 MILA 框架等创新方法以推动该领域发展。
2.相关创新方案
(1)提出MILA(在本体映射中减小LLM提示),以尽量减少LLM提示,只留下难以确定或模糊的映射关系给LLM进行处理
(2)将检索识别提示方法嵌入优先级深度优先搜索(PDFS)策略。
(3)MILA在任务独立性、高性能和减少计算开销方面优于最先进的系统。
3.实验总结
MILA通过结合RAG和搜索策略来提高生物医学等关键领域的计算开销和性能,为基于LLM的OM系统的挑战提供了一种有效的解决方案。MILA还通过在不需要训练数据的情况下展示独立于任务的性能,为一般OM挑战提供了一种有效的解决方案,使其成为基于LLM的OM应用的一种有前景的方法。
4.未来工作
(1)模型优化方面:一是改进搜索策略,探索结合本体结构信息的启发式搜索方法,替代现有的贪婪搜索策略,提升搜索效率与匹配精度;二是优化提示生成技术,融入更多上下文信息和示例,增强大语言模型在本体匹配中的能力发挥。
(2)应用拓展方面:一方面开展并行化优化工作,整合相关框架提升处理大规模本体的效率;另一方面积极拓展应用领域和任务类型,在更多领域测试并完善 MILA,使其能处理如预测包含关系等复杂任务,增强其通用性。
报告时间:2025年01月17日19:30
腾讯会议:311-5999-8176
点我下载本讨论课相关文献或PPT吧~(提取码:iipr)