智能工作流:Spring AI高效批量化提示访问方案

news/2024/9/28 3:24:39

基于SpringAI搭建系统,依靠线程池\负载均衡等技术进行请求优化,用于解决科研&开发过程中对GPT接口进行批量化接口请求中出现的问题。

github地址:https://github.com/linkcao/springai-wave

大语言模型接口以OpenAI的GPT 3.5为例,JDK版本为17,其他依赖版本可见仓库pom.xml

拟解决的问题

在处理大量提示文本时,存在以下挑战:

  1. API密钥请求限制: 大部分AI服务提供商对API密钥的请求次数有限制,单个密钥每分钟只能发送有限数量的请求。
  2. 处理速度慢: 大量的提示文本需要逐条发送请求,处理速度较慢,影响效率。
  3. 结果保存和分析困难: 处理完成的结果需要保存到本地数据库中,并进行后续的数据分析,但这一过程相对复杂。

解决方案

为了解决上述问题,本文提出了一种基于Spring框架的批量化提示访问方案,如下图所示:

image-20240511160521257

其中具体包括以下步骤:

  1. 多线程处理提示文本: 将每个提示文本看作一个独立的任务,采用线程池的方式进行多线程处理,提高处理效率。
  2. 动态分配API密钥: 在线程池初始化时,通过读取本地数据库中存储的API密钥信息,动态分配每个线程单元所携带的密钥,实现负载均衡。
  3. 结果保存和管理: 在请求完成后,将每个请求的问题和回答保存到本地数据库中,以便后续的数据分析和管理。
  4. 状态实时更新: 将整个批量请求任务区分为进行中、失败和完成状态,并通过数据库保存状态码实时更新任务状态,方便监控和管理。

关键代码示例

  1. 多线程异步请求提示信息(所在包: ChatService)
    // 线程池初始化private static final ExecutorService executor = Executors.newFixedThreadPool(10);/*** 多线程请求提示* @param prompts* @param user* @param task* @return*/@Asyncpublic CompletableFuture<Void> processPrompts(List<String> prompts, Users user, Task task) {for (int i = 0; i < prompts.size();i++) {int finalI = i;// 提交任务executor.submit(() -> processPrompt(prompts.get(finalI), user, finalI));}// 设置批量任务状态task.setStatus(TaskStatus.COMPLETED);taskService.setTask(task);return CompletableFuture.completedFuture(null);}
  • 如上所示,利用了Spring框架的@Async注解和线程池的功能,实现了多线程异步处理提示信息。

  • 首先,使用了ExecutorService创建了一个固定大小的线程池,以便同时处理多个提示文本。

  • 然后,通过CompletableFuture来实现异步任务的管理。

  • 在处理每个提示文本时,通过executor.submit()方法提交一个任务给线程池,让线程池来处理。

  • 处理完成后,将批量任务的状态设置为已完成,并更新任务状态。

  • 一个线程任务需要绑定请求的用户以及所在的批量任务,当前任务所分配的key由任务所在队列的下标决定。

  1. 处理单条提示信息(所在包: ChatService)
    /*** 处理单条提示文本* @param prompt 提示文本* @param user 用户* @param index 所在队列下标*/public void processPrompt(String prompt, Users user, int index) {// 获取Api KeyOpenAiApi openAiApi = getApiByIndex(user, index);assert openAiApi != null;ChatClient client = new OpenAiChatClient(openAiApi);// 提示文本请求String response = client.call(prompt);// 日志记录log.info("提示信息" + prompt );log.info("输出" + response );// 回答保存数据库saveQuestionAndAnswer(user, prompt, response);}
  • 首先根据任务队列的下标获取对应的API密钥
  • 然后利用该密钥创建一个与AI服务进行通信的客户端。
  • 接着,使用客户端发送提示文本请求,并获取AI模型的回答。
  • 最后,将问题和回答保存到本地数据库和日志中,以便后续的数据分析和管理。
  1. Api Key 负载均衡(所在包: ChatService)
    /*** 采用任务下标分配key的方式进行负载均衡* @param index 任务下标* @return OpenAiApi*/private OpenAiApi getApiByIndex(int index){List<KeyInfo> keyInfoList = keyRepository.findAll();if (keyInfoList.isEmpty()) {return null;}// 根据任务队列下标分配 KeyKeyInfo keyInfo = keyInfoList.get(index % keyInfoList.size());return new OpenAiApi(keyInfo.getApi(),keyInfo.getKeyValue());}
  • 首先从本地数据库中获取所有可用的API密钥信息
  • 然后根据任务队列的下标来动态分配API密钥。
  • 确保每个线程单元都携带了不同的API密钥,避免了因为某个密钥请求次数达到限制而导致的请求失败问题。
  1. 依靠线程池批量请求GPT整体方法(所在包: ChatController)
/*** 依靠线程池批量请求GPT* @param promptFile 传入的批量提示文件,每一行为一个提示语句* @param username 调用的用户* @return 处理状态*/@PostMapping("/batch")public String batchPrompt(MultipartFile promptFile, String username){if (promptFile.isEmpty()) {return "上传的文件为空";}// 批量请求任务Task task = new Task();try {BufferedReader reader = new BufferedReader(new InputStreamReader(promptFile.getInputStream()));List<String> prompts = new ArrayList<>();String line;while ((line = reader.readLine()) != null) {prompts.add(line);}// 用户信息请求Users user = userService.findByUsername(username);// 任务状态设置task.setFileName(promptFile.getName());task.setStartTime(LocalDateTime.now());task.setUserId(user.getUserId());task.setStatus(TaskStatus.PROCESSING);// 线程池处理chatService.processPrompts(prompts, user, task);return "文件上传成功,已开始批量处理提示";} catch ( IOException e) {// 处理失败e.printStackTrace();task.setStatus(TaskStatus.FAILED);return "上传文件时出错:" + e.getMessage();} finally {// 任务状态保存taskService.setTask(task);}}
  • 首先,接收用户上传的批量提示文件和用户名信息。
  • 然后,读取文件中的每一行提示文本,并将它们存储在一个列表中。
  • 接着,根据用户名信息找到对应的用户,并创建一个任务对象来跟踪批量处理的状态。
  • 最后,调用ChatService中的processPrompts()方法来处理提示文本,并返回处理状态给用户。

数据库ER图

所有信息都与用户ID强绑定,便于管理和查询,ER图如下所示:

image-20240511165330676

演示示例

  1. 通过postman携带批量请求文件username信息进行Post请求访问localhost:8080/batch接口:

image-20240511165636797

  1. 在实际应用中,可以根据具体需求对提示文本进行定制和扩展,以满足不同场景下的需求,演示所携带的请求文件内容如下:
请回答1+2=?
请回答8*12=?
请回答12*9=?
请回答321-12=?
请回答12/4=?
请回答32%2=?
  1. 最终返回的数据库结果,左为问题库,右为回答库:

image-20240511165910247

  • 问题库和答案库通过question_iduser_id进行绑定,由于一个问题可以让GPT回答多次,因此两者的关系为多对一,将问题和答案分在两个独立的表中也便于后续的垂域定制和扩展。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.ryyt.cn/news/30360.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈,一经查实,立即删除!

相关文章

Windows 下 PyTorch 入门深度学习环境安装(CPU版本)

Windows 下 PyTorch 入门深度学习环境安装(CPU版本) 一、安装Anaconda 二、虚拟环境配置 2.1 基础命令 列出虚拟环境 conda env list创建虚拟环境 https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main conda create -n 虚拟环境名字 python=版本 -c镜像地址激活环境 co…

PyTorch深度学习快速入门教程

PyTorch深度学习快速入门教程 一、基础知识 1.1 Python学习中的两大法宝1.2 pycharm以及jupyter使用及对比将环境写入Notebook的kernel中: python -m ipykernel install --user --name 环境名称 --display-name "Python (环境名称)" 打开Jupyter notebook,新建Pyth…

wps的VLOOKUP函数只显示公式不显示结果,在公式中已经出现结果了,但在表格中不显示结果

在公式中已经有结果了,但是表格中只显示公式1、 在公式那里点击“显示公式”就可以 2、选中公式列后更改格式

GETbmpinfo

/************************************************* /*** @file name: GETbmpinfo* @brief 实现对BMP图片位图信息的获取* @author 15070884254@163.com* @date 2024/05/11* @version 1.0 :在下坂本,有何贵干 * @property :none* @note none* CopyRight (c) 2023-2024…

小小Redis数据类型,拿捏

面试遇到过的Redis问题Redis的数据类型怎么利用Redis解决超卖问题1. 什么是Redis Redis就是一个非关系型数据库(NoSQL),我们知道关系型数据库MySQL,在MySQL里我们对于数据的增删改查需要SQL语句(select * from...),麻不麻烦——麻烦,慢不慢——当然是慢的,因为数据是存…

一种利用光电容积描记(PPG)信号和深度学习模型对高血压分类的新方法

具体的软硬件实现点击 http://mcu-ai.com/ MCU-AI技术网页_MCU-AI 据世界心脏联合会统计,截至 2022 年,全球有 13 亿人被诊断患有高血压,每年约有 1000 万人死于高血压。一个人有必要拥有有益于心脏健康的生活方式,以防止被诊断出患有心血管疾病(CVD)和动脉疾病等致命疾病…

BMP图片内部结构

BMP图片内部结构 ​ BMP文件的数据按照从文件头开始的先后顺序分为四个部分:分别是位图文件头、位图信息头、调色板(24bit位图是没有的)、位图数据(RGB)。 (1)位图文件头(Bitmap-File Header)包含了图像类型、图像大小、两个保留字以及位图数据存放地址。(2)位图信息…

使用 Redisson 框架基于 Redis 实现分布式锁

分布式锁可以采用数据库、zookeeper、redis 三种方式实现。 采用数据库实现方式,主要采用表字段的唯一索引特性。数据库是非常昂贵的资源,非常不推荐,最致命就是性能,不要去增加不必要的负担。 采用 zookeeper 的实现方式,主要使用其为客户端创建临时有序节点的特性,在我…