一种基于大型语言模型的水文管理协作系统

    专利查询2025-02-26  13


    本发明涉及人工智能,具体而言,涉及一种基于大型语言模型的水文管理协作系统。


    背景技术:

    1、洞庭湖区的水文环境是一个相对开放的复杂系统环境,在非线性、涌现性、开放性、自适应性和不确定性等方面,表现出复杂系统的基本特征,特别是在构成水文环境的各个要素之间、要素与系统之间,呈现既相互制约,又相互依存的多尺度、多样化的非线性关系。这种要素之间耦合的、非线性的关系是风险事件的主要载体,这种基于系统复杂性的视角对水文数据进行分析建模,给传统的水文预测、预警、预演以及预案提供了新的视角,特别是随着基于海量数据打造的预训练大模型(如chatgpt等)的技术突破,“涌现”出了原有算法模型不具备的优秀的上下文学习、复杂推理能力,显著增强了人工智能的通用性、泛化性,也为全面贯彻节水优先、空间均衡、系统治理、两手发力的水文环境治理提供新的保障和途径。

    2、可以说,以大模型为代表的技术突破,显著降低了人工智能赋能千行百业的门槛,预示着人工智能技术将广泛地应用于各个领域,推动产业升级和变革。基于此,面向洞庭湖区复杂的水文环境系统,如何把预训练大模型(如chatgpt等)的技术突破深入应用到洞庭湖区水文预测、预警、预演以及预案等方面,为管理者提供可视化的、精准的决策参考,开发一套基于洞庭湖区多源水文数据的大型语言模型协作系统是急需解决的关键问题。

    3、现今大模型技术的积累和发展,已经为复杂环境下基于多源水文数据的预测、预警、预演和预案提供了基本保障,但值得注意的是,现有的人工智能模型虽然可以用于不同的领域和模态,但还无法处理复杂的人工智能任务,比如说,受限于文本生成的输入和输出形式,当前的llm缺乏处理视觉和语音等复杂信息的能力。在现实世界的场景中,一些复杂的任务通常由多个子任务组成,因此需要多个模型的调度和协作。对于一些具有挑战性的任务,llm仍然比一些专家模型(例如,微调模型)弱。因此,解决不同领域和多模态的复杂人工智能任务是迈向人工通用智能(agi)的关键步骤。


    技术实现思路

    1、鉴于此,本发明提出了一种基于大型语言模型的水文管理协作系统,以解决上述现有技术存在的问题。

    2、为实现上述目的,本发明提出了一种基于大型语言模型的水文管理协作系统,包括互相连接的控制器以及协作执行器;

    3、所述控制器采用大型语言模型将用户请求分解为若干个子任务,规划任务顺序和任务之间的依赖关系,并根据分配策略将若干个子任务分配至所述协作执行器;

    4、所述协作执行器采用若干个专家模型对应执行若干个子任务,获取若干个执行结果,并将所述执行结果反馈至所述控制器中进行总结,生成决策参考。

    5、进一步地,所述系统在提示设计中采用基于规范的指令任务规范提供统一模板,并使所述大型语言模型通过槽位归档方式进行任务解析。

    6、进一步地,所述系统还包括四个任务解析接口,分别为任务类型、任务id、任务相关性和任务参数;

    7、所述任务类型包括语言、视觉、视频、音频的任务类型;所述任务id用于为任务规划提供唯一的标识符;所述任务相关性用于定义执行任务所需的先决条件任务;所述任务参数包括执行任务所需的参数列表,所述参数列表包括根据任务类型填充的文本、图像和音频资源。

    8、进一步地,所述系统将用户任务作为高级指令提供至所述大型语言模型,并基于上下文学习方法,通过在提示中注入demo以促进所述大型语言模型理解任务之间的逻辑关系,并确定执行顺序和资源依赖关系。

    9、进一步地,所述demo包括关于任务规划的输入和输处用户请求以及要解析的预期任务序列,由任务之间的依赖关系组成。

    10、进一步地,所述分配策略包括:将任务和模型的分配视为单选问题,获取所述专家模型的模型描述,将所述模型描述与子任务类型匹配的模型作为潜在模型,将所述潜在模型作为给定上下文中的选项呈现,根据用户请求对所述潜在模型选取最合适的专家模型。

    11、进一步地,所述系统在任务执行过程中,基于混合推理端点运行所述专家模型,通过将任务参数作为输入,专家模型计算推理结果,然后将所述推理结果发送回所述大型语言模型,同时对不具有资源依赖性的模型进行并行化。

    12、进一步地,所述混合推理端点包括本地端点与外部端点,所述本地端点用于运行常见或耗时的专家模型;所述外部端点用于访问外部专家模型;所述本地端点的优先级高于所述外部端点,当专家模型未在本地端点内部署时,则在所述外部端点内运行。

    13、进一步地,所述系统将先决任务生成的资源作为第一标识资源,所述第一标识资源中包括所述先决任务的id;

    14、在任务规划阶段,若存在依赖于所述第一标识资源的第一任务,则将所述第一任务的参数中相应的资源子字段设置为所述先决任务的id;在任务执行阶段,将所述先决任务的id动态替换为第一标识资源。

    15、进一步地,在对所述执行结果进行总结的过程中,所述系统将任务规划、模型选择和任务执行阶段的所有信息集成于一个摘要中,将专家模型的推理结果以结构化格式呈现,并使所述大型语言模型将所述推理结果作为输入,并将具有置信度的最终响应进行汇总,生成所述决策参考。

    16、与现有技术相比,本发明的有益效果在于:

    17、本发明通过设计相关机制协议,搭建大型语言模型(llm)与水文预测、预警、预演和预案专家模型的语言接口,将llm作为控制器来管理现有的人工智能模型,以解决复杂繁重的水文监测等综合管理问题,能极大的提升管理效率,为管理者提供多模式、可靠的决策参考服务。

    18、本发明为了补充大型语言模型和水文监测等专家模型的优势,提出了模型之间交互的协议机制。大型语言模型(llm)充当整体规划和管理决策的大脑,水文监测等专家模型充当每个特定任务的执行者,这为设计水文管理通用人工智能模型提供了新的方法。



    技术特征:

    1.一种基于大型语言模型的水文管理协作系统,其特征在于,包括互相连接的控制器以及协作执行器;

    2.根据权利要求1所述的基于大型语言模型的水文管理协作系统,其特征在于,所述系统在提示设计中采用基于规范的指令任务规范提供统一模板,并使所述大型语言模型通过槽位归档方式进行任务解析。

    3.根据权利要求1所述的基于大型语言模型的水文管理协作系统,其特征在于,所述系统还包括四个任务解析接口,分别为任务类型、任务id、任务相关性和任务参数;

    4.根据权利要求1所述的基于大型语言模型的水文管理协作系统,其特征在于,所述系统将用户任务作为高级指令提供至所述大型语言模型,并基于上下文学习方法,通过在提示中注入demo以促进所述大型语言模型理解任务之间的逻辑关系,并确定执行顺序和资源依赖关系。

    5.根据权利要求4所述的基于大型语言模型的水文管理协作系统,其特征在于,所述demo包括关于任务规划的输入和输出用户请求以及要解析的预期任务序列,由任务之间的依赖关系组成。

    6.根据权利要求1所述的基于大型语言模型的水文管理协作系统,其特征在于,所述分配策略包括:将任务和模型的分配视为单选问题,获取所述专家模型的模型描述,将所述模型描述与子任务类型匹配的模型作为潜在模型,将所述潜在模型作为给定上下文中的选项呈现,根据用户请求对所述潜在模型选取最合适的专家模型。

    7.根据权利要求1所述的基于大型语言模型的水文管理协作系统,其特征在于,所述系统在任务执行过程中,基于混合推理端点运行所述专家模型,通过将任务参数作为输入,专家模型计算推理结果,然后将所述推理结果发送回所述大型语言模型,同时对不具有资源依赖性的模型进行并行化。

    8.根据权利要求7所述的基于大型语言模型的水文管理协作系统,其特征在于,所述混合推理端点包括本地端点与外部端点,所述本地端点用于运行常见或耗时的专家模型;所述外部端点用于访问外部专家模型;所述本地端点的优先级高于所述外部端点,当专家模型未在本地端点内部署时,则在所述外部端点内运行。

    9.根据权利要求7所述的基于大型语言模型的水文管理协作系统,其特征在于,所述系统将先决任务生成的资源作为第一标识资源,所述第一标识资源中包括所述先决任务的id;

    10.根据权利要求1所述的基于大型语言模型的水文管理协作系统,其特征在于,在对所述执行结果进行总结的过程中,所述系统将任务规划、模型选择和任务执行阶段的所有信息集成于一个摘要中,将专家模型的推理结果以结构化格式呈现,并使所述大型语言模型将所述推理结果作为输入,并将具有置信度的最终响应进行汇总,生成所述决策参考。


    技术总结
    本发明涉及人工智能技术领域,具体提供了一种基于大型语言模型的水文管理协作系统,包括互相连接的控制器以及协作执行器;所述控制器采用大型语言模型将用户请求分解为若干个子任务,规划任务顺序和任务之间的依赖关系,并根据分配策略将若干个子任务分配至协作执行器;所述协作执行器采用若干个专家模型对应执行若干个子任务,获取若干个执行结果,并将执行结果反馈至控制器中进行总结,生成决策参考。本发明通过设计相关机制协议,搭建大型语言模型(LLM)与水文预测、预警、预演和预案专家模型的语言接口,将LLM作为控制器来管理现有的人工智能模型,以解决复杂繁重的水文监测等综合管理问题,极大的提升了管理效率。

    技术研发人员:熊寿遥,杨柳,郑丹琼,周涛,杨晶晶,张婷,谢倩,柯礼敏,余承键,王艳艳,蒋爱雯,谷沂鑫
    受保护的技术使用者:长沙理工大学
    技术研发日:
    技术公布日:2024/11/26
    转载请注明原文地址:https://tc.8miu.com/read-26088.html

    最新回复(0)