【原创文章】谈谈AI大模型在智慧城市领域的一些经验
从2015年第一次正式参与智慧城市亿级项目到现在马上过去10年了,这10年内,中国的智慧城市技术不断在发展,从传统软件技术到移动互联网再到大数据、人工智能,智慧城市也不断更新迭代,今天就跟大家分享下这几年比较火热的大模型。
大模型在智慧城市这种项目里面场景比较多,基本每一个板块都有相应的场景,比如在应急指挥调度、灾情溯源分析、风险预警等等,我们实施过的城市运行指挥中心基本都涉及到了安全、交通、文旅、民生(教育和医疗为主)、城市治理、生态环保等板块,每一个板块都有很多业务场景,我就其中一个重点说说我们在环保方面AI大模型的业务场景。
场景故事1:秋冬季大气污染扩散溯源结合大气实时(小时)监测数据,分析城市周边区域污染情况,使用动态热力渲染效果模拟周边区域污染扩散动态,针对大范围重污染以上外来输入污染进行监控,就当前污染扩散条件,预计污染到达区域的时间,提前做好污染防治预案,备战大气攻坚;针对已发生重污染事件,启动污染溯源计算模型,触发后台高速度运算,在计算历史记录中查阅污染溯源分析结果,辨识外来污染扩散可能路径及其概率情况,污染溯源计算模型支持一天污染溯源模型,同样可以对较长时间范围,比如秋冬季不利大气扩散条件天气时期,进行污染溯源计算。
场景故事2:突发大气污染事件模拟针对于涉气重点排污单位较长时间的超标排放情况,按照稳定源强,结合当前气象数据、城市地形结构和烟囱高度等信息,使用高斯模型对气团烟雨进行扩散分析,模拟一段时间内大气污染扩散路径及污染物相对浓度,并排查污染物扩散影响区域,主要是医院、居民区、学校、政府机关等敏感源,特别是有突发有毒有害气体泄漏等大气污染突发事件来临时,辅助决策机构制定应急预案,快速响应,减少人身和财产损失。
场景故事3:遥感结果辅助大气网格化监管我们使用的事卫星遥感数据,弥补地面站点监测点位个数少,分布稀疏的问题,使用遥感数据对颗粒物的反演分析,获取区域面状污染分布情况,并对区域进行3KM×3KM的网格划分,统计每一网格内污染物浓度情况,统计出每一天污染物浓度明显偏高的网格区域,为环境执法或者污染精准溯源提供方向指引,缩小排查范围,用户也还可以通过热点网格获取这些区域的三维地图,分析区域内可能的重点污染排放源。
再说下交通AI大模型的关键业务场景:比如高速并道、道路拥堵以及复杂路况的出入等等,这些场景非常常见,传统的技术都是用规则或者预先定义的方式仿真,这种是没办法把很多复杂的情况去组合的,有些关键的场景也就很难挖掘到。我们在做这类项目的就很好的利用了AI以及大模型的技术,深度学习,还有大量的训练模型,以视频数据、标注数据、轨迹信息、路网信息作为原始数据,通过挖掘算法(专家规则、标准场景、自定义算子、机器学习模型和算法)最后输入到场景库(关键场景、语义场景、泛华参数、场景标签索引)
场景一:关键场景的逻辑处理和语义解析一些简单行为,如前车急刹、前车起步后急刹、切入切出、高速接近前方静止车辆、对向车辆借道超车等.一些复杂行为,如无信号路口与对手车轨迹相交、行人自行车穿行路口、轨迹相交、前方车并排行驶。我们不但关注简单,还要关注组合,通过层次化的场景逻辑引擎去挖掘场景,当然中间需要大量的驾驶数据和自动化脚本自动取分析当时的地形、加速度、天气、信号灯、车道线等等,这样不断学习行程场景模型
场景二:边缘场景有一些场景是没有分类的,比较分散,也没有办法用参数去描述,但实际从统计学的角度而言非常有益,比如有些场景下的拥堵情况、车与车的距离非常的近,但是两个车又没有跨越道路标识线,这种没有特别具体的描述和分类的场景对于训练非常有意义,我们也加入了AI大模型训练库,毕竟现实会存在这样的情况。当然不同的板块还有不同的业务场景,这里就主要讲了下生态环保和交通,也是城市指挥中心中非常重点的两个典型。
关于大模型目前的现状,在这里不得不提到与大模型有关系的芯片,中国芯片与国外相比还有一些差距,我们还在起步阶段,无论实在算法还是操作系统,比如大家都非常清楚安卓系统、苹果系统还有电脑上用的windows操作系统,所以,我觉得不应该通过大量的通过增加服务器去解决数据汇聚以及分析的能力,而是从芯片上加强。这一点可能国内还有一段路要走。所以芯片结合大模型目前应该是可以改进和优化的地方。第二点要说的是大模型的解析能力还不是很标准和准确,大家肯定都用过很多大公司的大模型产品,基本都是说的概念性的废话,对于问题的回复我认为深度和不是很够。第三点我认为大模型需要的大量训练样本其实有很多事公网上的,这些数据相对公开,但同样,有一些数据是企业不愿意公开的,恰恰这类数据及其保密和重要,但企业肯定是不愿意将这些数据放在公网或者公有云上,这样就导致没有办法将这些数据加入到大模型的训练库,导致大模型没有办法去懂企业、懂知识。第三点我认为大模型还存在数据隐患,我们自己就遇到过,公司也有大模型的团队在研发,团队写完代码,我们自己也购买了chatGPT的账号,但后来发现有个别员工把自己活着团队写完的代码跟chatGPT去做测试,上传上去了,倒不是说有什么坏心眼,也许只是想看看有什么bug或者漏洞,但恰恰暴露了安全隐患。第四点我想说的是知识也是有幻觉的,假如你生病了,利用大模型给你开个方子,也许大模型输入了有权威的著作,比如本草纲目、黄帝内经或者其他经典的医学类著作,再或者是大医院的历史药方,但即便如此,给你开个方子去抓药用药,你敢吗?所以我觉得这也是一个大问题,知识的模式输出造成的幻觉第五点不得不说到算力和以,以及大模型的训练都需要很多成本,一般企业不一定能负担的起。第六点我认为也非常非常重要,国家现在都在搞数据要素的确权,大模型也一样,也是有所有权的额,比如你拿到了兴业银行的数据做了大模型,你拿去个民生银行取服务,你拿到了积水潭医院的病例数据做好了大模型给协和医院去用肯定不行。涉及到确权的问题。所以我建议大模型还是要守住安全底线,找到小的切入口,垂直的大模型其实反倒比泛泛的有更低的出错概率。小的场景也容易成功,比如知识问答在旅游行业,从前段时间的淄博烧烤到最近的火爆的哈尔滨,其实可以用大模型做这种小的场景更容易实现也更容易成功,让大家知道淄博不仅仅有烧烤还有其他,哈尔滨也不止有冰雪还有其他,大模型不是万能,本质都是知识搜索,所以建议深度垂直并且在重度上也垂直,选择好顶尖有实力的行业和有数据积淀很深的公司互相结合,我认为是大模型会走的比较坚实的解决之道。
大家来聊几句~
学习了,祖国越来越强大
感谢分享
感谢分享
感谢分享