一种基于大语言模型范式的建筑多边形化简模型
编号:138
访问权限:仅限参会人
更新:2025-09-10 15:14:32 浏览:1次
口头报告
摘要
针对传统建筑多边形化简方法依赖人工规则、自动化程度低且难以适应复杂形态的问题,本研究引入大语言模型(LLM)的序列生成范式,提出基于Transformer架构的从网格化编码到化简序列的端到端建筑多边形化简模型。该模型通过多边形词元化(Tokenization)机制将连续坐标离散化:先将建筑映射至标准化空间,采用0.2mm、0.3mm和0.5mm网格尺寸进行编码并构建词汇表。模型采用解码器式Transformer框架,利用掩码自注意力学习序列依赖关系,实现化简多边形的逐顶点生成。训练中设计结构化样本格式,并通过交叉熵损失函数结合忽略索引优化序列生成质量。在北京与纽约建筑数据集上,针对1:5K和1:10K比例尺的系统实验表明:0.2mm网格尺寸在几何保真度上表现最优,验证集一致率达90.5%以上。关键性对比实验证实:相同0.2mm网格数据下,参数量0.28B的LSTM模型收敛后损失值高达3.4且输出无效,而本文Transformer模型以损失趋近于零实现性能突破,凸显Transformer生成式序列建模的显著优势。本研究不仅验证了LLM处理空间几何序列的可行性,更为智能地图综合提供了兼具理论创新性与工程实用性的新范式。
关键词
建筑多边形化简;大语言模型;Tokenization;Transformer;地图综合
发表评论