大型语言模型驱动下的社交媒体灾害事件地理信息提取方法研究
编号:134
访问权限:仅限参会人
更新:2025-09-10 15:13:49 浏览:3次
口头报告
摘要
社交媒体已成为公众发布和获取灾害信息的重要平台,这为灾害应急响应提供了宝贵的众包数据源。然而,这些发表在社交媒体平台上的文本信息往往具有较强的非结构化特性,并包含大量口语化表达、情感色彩与冗余信息,给快速、准确地提取关键灾害要素带来了巨大挑战。在过去的研究中,学者们主要使用基于规则和关键词匹配、机器学习乃至以BiLSTM和BERT为代表的深度学习方法提取灾害事件的地理位置信息,判别灾情主题信息,但这些方法在遇到复杂语义文本时仍然会出现错漏。大型语言模型经过海量文本数据的训练,能够充分理解人类语言尤其是中文语义的复杂性、不同用词的细微差别和上下文联系,在经过针对性训练后能够在特定领域表现出优异性能。
本研究探索了一种由大型语言模型驱动的从微博文本中提取灾害事件地理信息的方法。研究构建了一个包含1274个真实样本和4726个大模型生成拓展样本的台风灾害的社交媒体文本语料库,并人工标记出样本中所包含的灾害事件内容、类别和省-市-区县-详细地址结构化位置信息;随后根据住房与人居环境受灾、农业渔业受灾、基础设施受灾等不同灾害事件主题的文本复杂性和表述多样性,为六类灾害信息提取器训练特定的轻量化模型,以增强大语言模型对混淆文本的信息提取性能。初步实验结果表明:(1)该方法充分利用了大型语言模型强大的文本理解和信息抽取能力,与之前的关键词匹配算法相比,提取与灾害相关的核心要素,特别是灾害发生的具体位置和事件信息的总体精度提高了21%;(2)借助大型语言模型的上下文联系能力,在单文本包含多个事件情境下事件-位置匹配精度上相较于基于规则的分段方式提升了32%(3)相较于BERT方法,大型语言模型能够实现零样本或少样本推理,在零样本的提示词工程下达到55%的地理位置提取精度;同时,轻量化模型在六千条的中等样本量训练下具有优秀的精度收益,并能够实现在24G显存和8G显存的硬件环境中进行训练和推理。
初步评估认为,该方法能提高计算性能以满足应急响应需要。研究成果有望为灾害管理和应急响应部门提供更及时、精准的信息支持,从而提升灾害应对的响应和决策效率。
稿件作者
陈莹捷
福建师范大学
林广发
福建师范大学
张明锋
福建师范大学
发表评论