From d0db96798d2842622f48b1170ac701acc113a703 Mon Sep 17 00:00:00 2001 From: zhangxinhui02 Date: Tue, 23 Sep 2025 00:19:51 +0800 Subject: [PATCH] =?UTF-8?q?=E6=9B=B4=E6=96=B0values=E4=B8=AD=E7=9A=84?= =?UTF-8?q?=E9=85=8D=E7=BD=AE=E6=A8=A1=E6=9D=BF?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- helm-chart/values.yaml | 228 ++++++++++++++++------------------------- 1 file changed, 88 insertions(+), 140 deletions(-) diff --git a/helm-chart/values.yaml b/helm-chart/values.yaml index 463c6f02..617e8ada 100644 --- a/helm-chart/values.yaml +++ b/helm-chart/values.yaml @@ -193,13 +193,14 @@ config: # adapter的config.toml adapter_config: | [inner] - version = "0.1.1" # 版本号 + version = "0.1.2" # 版本号 # 请勿修改版本号,除非你知道自己在做什么 [nickname] # 现在没用 nickname = "" [napcat_server] # Napcat连接的ws服务设置 + token = "" # Napcat设定的访问令牌,若无则留空 heartbeat_interval = 30 # 与Napcat设置的心跳相同(按秒计) [chat] # 黑白名单功能 @@ -224,27 +225,27 @@ config: # core的model_config.toml core_model_config: | [inner] - version = "1.3.0" + version = "1.7.0" # 配置文件版本号迭代规则同bot_config.toml [[api_providers]] # API服务提供商(可以配置多个) name = "DeepSeek" # API服务商名称(可随意命名,在models的api-provider中需使用这个命名) - base_url = "https://api.deepseek.cn/v1" # API服务商的BaseURL + base_url = "https://api.deepseek.com/v1" # API服务商的BaseURL api_key = "your-api-key-here" # API密钥(请替换为实际的API密钥) client_type = "openai" # 请求客户端(可选,默认值为"openai",使用gimini等Google系模型时请配置为"gemini") max_retry = 2 # 最大重试次数(单个模型API调用失败,最多重试的次数) timeout = 30 # API请求超时时间(单位:秒) retry_interval = 10 # 重试间隔时间(单位:秒) - [[api_providers]] # SiliconFlow的API服务商配置 - name = "SiliconFlow" - base_url = "https://api.siliconflow.cn/v1" - api_key = "your-siliconflow-api-key" + [[api_providers]] # 阿里 百炼 API服务商配置 + name = "BaiLian" + base_url = "https://dashscope.aliyuncs.com/compatible-mode/v1" + api_key = "your-bailian-key" client_type = "openai" max_retry = 2 - timeout = 30 - retry_interval = 10 + timeout = 15 + retry_interval = 5 [[api_providers]] # 特殊:Google的Gimini使用特殊API,与OpenAI格式不兼容,需要配置client为"gemini" name = "Google" @@ -255,6 +256,15 @@ config: timeout = 30 retry_interval = 10 + [[api_providers]] # SiliconFlow的API服务商配置 + name = "SiliconFlow" + base_url = "https://api.siliconflow.cn/v1" + api_key = "your-siliconflow-api-key" + client_type = "openai" + max_retry = 2 + timeout = 60 + retry_interval = 10 + [[models]] # 模型(可以配置多个) model_identifier = "deepseek-chat" # 模型标识符(API服务商提供的模型标识符) @@ -265,19 +275,12 @@ config: #force_stream_mode = true # 强制流式输出模式(若模型不支持非流式输出,请取消该注释,启用强制流式输出,若无该字段,默认值为false) [[models]] - model_identifier = "Pro/deepseek-ai/DeepSeek-V3" + model_identifier = "deepseek-ai/DeepSeek-V3" name = "siliconflow-deepseek-v3" api_provider = "SiliconFlow" price_in = 2.0 price_out = 8.0 - [[models]] - model_identifier = "Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-32B" - name = "deepseek-r1-distill-qwen-32b" - api_provider = "SiliconFlow" - price_in = 4.0 - price_out = 16.0 - [[models]] model_identifier = "Qwen/Qwen3-8B" name = "qwen3-8b" @@ -288,22 +291,11 @@ config: enable_thinking = false # 不启用思考 [[models]] - model_identifier = "Qwen/Qwen3-14B" - name = "qwen3-14b" - api_provider = "SiliconFlow" - price_in = 0.5 - price_out = 2.0 - [models.extra_params] # 可选的额外参数配置 - enable_thinking = false # 不启用思考 - - [[models]] - model_identifier = "Qwen/Qwen3-30B-A3B" + model_identifier = "Qwen/Qwen3-30B-A3B-Instruct-2507" name = "qwen3-30b" api_provider = "SiliconFlow" price_in = 0.7 price_out = 2.8 - [models.extra_params] # 可选的额外参数配置 - enable_thinking = false # 不启用思考 [[models]] model_identifier = "Qwen/Qwen2.5-VL-72B-Instruct" @@ -327,27 +319,27 @@ config: price_out = 0 - [model_task_config.utils] # 在麦麦的一些组件中使用的模型,例如表情包模块,取名模块,关系模块,是麦麦必须的模型 - model_list = ["siliconflow-deepseek-v3"] # 使用的模型列表,每个子项对应上面的模型名称(name) + [model_task_config.utils] # 在麦麦的一些组件中使用的模型,例如表情包模块,取名模块,关系模块,麦麦的情绪变化等,是麦麦必须的模型 + model_list = ["siliconflow-deepseek-v3","qwen3-30b"] # 使用的模型列表,每个子项对应上面的模型名称(name) temperature = 0.2 # 模型温度,新V3建议0.1-0.3 max_tokens = 800 # 最大输出token数 [model_task_config.utils_small] # 在麦麦的一些组件中使用的小模型,消耗量较大,建议使用速度较快的小模型 - model_list = ["qwen3-8b"] + model_list = ["qwen3-8b","qwen3-30b"] + temperature = 0.7 + max_tokens = 800 + + [model_task_config.tool_use] #工具调用模型,需要使用支持工具调用的模型 + model_list = ["qwen3-30b"] temperature = 0.7 max_tokens = 800 [model_task_config.replyer] # 首要回复模型,还用于表达器和表达方式学习 model_list = ["siliconflow-deepseek-v3"] - temperature = 0.2 # 模型温度,新V3建议0.1-0.3 + temperature = 0.3 # 模型温度,新V3建议0.1-0.3 max_tokens = 800 - [model_task_config.planner] #决策:负责决定麦麦该做什么的模型 - model_list = ["siliconflow-deepseek-v3"] - temperature = 0.3 - max_tokens = 800 - - [model_task_config.emotion] #负责麦麦的情绪变化 + [model_task_config.planner] #决策:负责决定麦麦该什么时候回复的模型 model_list = ["siliconflow-deepseek-v3"] temperature = 0.3 max_tokens = 800 @@ -359,11 +351,6 @@ config: [model_task_config.voice] # 语音识别模型 model_list = ["sensevoice-small"] - [model_task_config.tool_use] #工具调用模型,需要使用支持工具调用的模型 - model_list = ["qwen3-14b"] - temperature = 0.7 - max_tokens = 800 - #嵌入模型 [model_task_config.embedding] model_list = ["bge-m3"] @@ -381,14 +368,14 @@ config: max_tokens = 800 [model_task_config.lpmm_qa] # 问答模型 - model_list = ["deepseek-r1-distill-qwen-32b"] + model_list = ["qwen3-30b"] temperature = 0.7 max_tokens = 800 # core的bot_config.toml core_bot_config: | [inner] - version = "6.4.6" + version = "6.14.3" #----以下是给开发人员阅读的,如果你只是部署了麦麦,不需要阅读---- #如果你想要修改配置文件,请递增version的值 @@ -401,25 +388,39 @@ config: #----以上是给开发人员阅读的,如果你只是部署了麦麦,不需要阅读---- [bot] - platform = "qq" - qq_account = 1145141919810 # 麦麦的QQ账号 + platform = "qq" + qq_account = "1145141919810" # 麦麦的QQ账号 nickname = "麦麦" # 麦麦的昵称 alias_names = ["麦叠", "牢麦"] # 麦麦的别名 [personality] - # 建议50字以内,描述人格的核心特质 - personality_core = "是一个女孩子" - # 人格的细节,描述人格的一些侧面 - personality_side = "有时候说话不过脑子,喜欢开玩笑, 有时候会表现得无语,有时候会喜欢说一些奇怪的话" + # 建议120字以内,描述人格特质 和 身份特征 + personality = "是一个女大学生,现在在读大二,会刷贴吧。" #アイデンティティがない 生まれないらららら - # 可以描述外貌,性别,身高,职业,属性等等描述 - identity = "年龄为19岁,是女孩子,身高为160cm,有黑色的短发" - # 描述麦麦说话的表达风格,表达习惯,如要修改,可以酌情新增内容 - reply_style = "回复可以简短一些。可以参考贴吧,知乎和微博的回复风格,回复不要浮夸,不要用夸张修辞,平淡一些。不要浮夸,不要夸张修辞。" + reply_style = "请回复的平淡一些,简短一些,说中文,不要刻意突出自身学科背景。可以参考贴吧,知乎和微博的回复风格。" + # 情感特征,影响情绪的变化情况 + emotion_style = "情绪较为稳定,但遭遇特定事件的时候起伏较大" + # 麦麦的兴趣,会影响麦麦对什么话题进行回复 + interest = "对技术相关话题,游戏和动漫相关话题感兴趣,也对日常话题感兴趣,不喜欢太过沉重严肃的话题" - compress_personality = false # 是否压缩人格,压缩后会精简人格信息,节省token消耗并提高回复性能,但是会丢失一些信息,如果人设不长,可以关闭 - compress_identity = true # 是否压缩身份,压缩后会精简身份信息,节省token消耗并提高回复性能,但是会丢失一些信息,如果不长,可以关闭 + # 麦麦的说话规则,行为风格: + plan_style = """请你根据聊天内容,用户的最新消息和以下标准选择合适的动作: + 1.思考**所有**的可用的action中的**每个动作**是否符合当下条件,如果动作使用条件符合聊天内容就使用 + 2.如果相同的内容已经被执行,请不要重复执行 + 3.请控制你的发言频率,不要太过频繁的发言 + 4.如果有人对你感到厌烦,请减少回复 + 5.如果有人对你进行攻击,或者情绪激动,请你以合适的方法应对""" + + # 麦麦识图规则,不建议修改 + visual_style = "请用中文描述这张图片的内容。如果有文字,请把文字描述概括出来,请留意其主题,直观感受,输出为一段平文本,最多30字,请注意不要分点,就输出一段文本" + + + # 麦麦私聊的说话规则,行为风格: + private_plan_style = """请你根据聊天内容,用户的最新消息和以下标准选择合适的动作: + 1.思考**所有**的可用的action中的**每个动作**是否符合当下条件,如果动作使用条件符合聊天内容就使用 + 2.如果相同的内容已经被执行,请不要重复执行 + 3.某句话如果已经被回复过,不要重复回复""" [expression] # 表达学习配置 @@ -430,63 +431,47 @@ config: # 格式说明: # 第一位: chat_stream_id,空字符串表示全局配置 # 第二位: 是否使用学到的表达 ("enable"/"disable") - # 第三位: 是否学习表达 ("enable"/"disable") + # 第三位: 是否学习表达 ("enable"/"disable") # 第四位: 学习强度(浮点数),影响学习频率,最短学习时间间隔 = 300/学习强度(秒) # 学习强度越高,学习越频繁;学习强度越低,学习越少 ] expression_groups = [ - ["qq:1919810:private","qq:114514:private","qq:1111111:group"], # 在这里设置互通组,相同组的chat_id会共享学习到的表达方式 - # 格式:["qq:123456:private","qq:654321:group"] + # ["*"], # 全局共享组:所有chat_id共享学习到的表达方式(取消注释以启用全局共享) + ["qq:1919810:private","qq:114514:private","qq:1111111:group"], # 特定互通组,相同组的chat_id会共享学习到的表达方式 + # 格式说明: + # ["*"] - 启用全局共享,所有聊天流共享表达方式 + # ["qq:123456:private","qq:654321:group"] - 特定互通组,组内chat_id共享表达方式 # 注意:如果为群聊,则需要设置为group,如果设置为私聊,则需要设置为private ] [chat] #麦麦的聊天设置 - talk_frequency = 0.5 - # 麦麦活跃度,越高,麦麦回复越多,范围0-1 - focus_value = 0.5 - # 麦麦的专注度,越高越容易持续连续对话,可能消耗更多token, 范围0-1 - + talk_value = 1 + mentioned_bot_reply = true # 是否启用提及必回复 max_context_size = 20 # 上下文长度 - mentioned_bot_inevitable_reply = true # 提及 bot 大概率回复 - at_bot_inevitable_reply = true # @bot 或 提及bot 大概率回复 - - focus_value_adjust = [ - ["", "8:00,1", "12:00,0.8", "18:00,1", "01:00,0.3"], - ["qq:114514:group", "12:20,0.6", "16:10,0.5", "20:10,0.8", "00:10,0.3"], - ["qq:1919810:private", "8:20,0.5", "12:10,0.8", "20:10,1", "00:10,0.2"] - ] - - talk_frequency_adjust = [ - ["", "8:00,0.5", "12:00,0.6", "18:00,0.8", "01:00,0.3"], - ["qq:114514:group", "12:20,0.3", "16:10,0.5", "20:10,0.4", "00:10,0.1"], - ["qq:1919810:private", "8:20,0.3", "12:10,0.4", "20:10,0.5", "00:10,0.1"] - ] - # 基于聊天流的个性化活跃度和专注度配置 - # 格式:[["platform:chat_id:type", "HH:MM,frequency", "HH:MM,frequency", ...], ...] - - # 全局配置示例: - # [["", "8:00,1", "12:00,2", "18:00,1.5", "00:00,0.5"]] - - # 特定聊天流配置示例: - # [ - # ["", "8:00,1", "12:00,1.2", "18:00,1.5", "01:00,0.6"], # 全局默认配置 - # ["qq:1026294844:group", "12:20,1", "16:10,2", "20:10,1", "00:10,0.3"], # 特定群聊配置 - # ["qq:729957033:private", "8:20,1", "12:10,2", "20:10,1.5", "00:10,0.2"] # 特定私聊配置 - # ] - - # 说明: - # - 当第一个元素为空字符串""时,表示全局默认配置 - # - 当第一个元素为"platform:id:type"格式时,表示特定聊天流配置 - # - 后续元素是"时间,频率"格式,表示从该时间开始使用该活跃度,直到下一个时间点 - # - 优先级:特定聊天流配置 > 全局配置 > 默认 talk_frequency - - [relationship] enable_relationship = true # 是否启用关系系统 - relation_frequency = 1 # 关系频率,麦麦构建关系的频率 + + [tool] + enable_tool = true # 是否启用回复工具 + + [mood] + enable_mood = true # 是否启用情绪系统 + mood_update_threshold = 1 # 情绪更新阈值,越高,更新越慢 + + [emoji] + emoji_chance = 0.6 # 麦麦激活表情包动作的概率 + max_reg_num = 100 # 表情包最大注册数量 + do_replace = true # 开启则在达到最大数量时删除(替换)表情包,关闭则达到最大数量时不会继续收集表情包 + check_interval = 10 # 检查表情包(注册,破损,删除)的时间间隔(分钟) + steal_emoji = true # 是否偷取表情包,让麦麦可以将一些表情包据为己有 + content_filtration = false # 是否启用表情包过滤,只有符合该要求的表情包才会被保存 + filtration_prompt = "符合公序良俗" # 表情包过滤要求,只有符合该要求的表情包才会被保存 + + [voice] + enable_asr = false # 是否启用语音识别,启用后麦麦可以识别语音消息,启用该功能需要配置语音识别模型[model_task_config.voice] [message_receive] # 以下是消息过滤,可以根据规则过滤特定消息,将不会读取这些消息 @@ -500,39 +485,6 @@ config: #"\\d{4}-\\d{2}-\\d{2}", # 匹配日期 ] - [tool] - enable_tool = false # 是否在普通聊天中启用工具 - - [mood] - enable_mood = true # 是否启用情绪系统 - mood_update_threshold = 1 # 情绪更新阈值,越高,更新越慢 - - [emoji] - emoji_chance = 0.6 # 麦麦激活表情包动作的概率 - - max_reg_num = 60 # 表情包最大注册数量 - do_replace = true # 开启则在达到最大数量时删除(替换)表情包,关闭则达到最大数量时不会继续收集表情包 - check_interval = 10 # 检查表情包(注册,破损,删除)的时间间隔(分钟) - steal_emoji = true # 是否偷取表情包,让麦麦可以将一些表情包据为己有 - content_filtration = false # 是否启用表情包过滤,只有符合该要求的表情包才会被保存 - filtration_prompt = "符合公序良俗" # 表情包过滤要求,只有符合该要求的表情包才会被保存 - - [memory] - enable_memory = true # 是否启用记忆系统 - memory_build_frequency = 1 # 记忆构建频率 越高,麦麦学习越多 - memory_compress_rate = 0.1 # 记忆压缩率 控制记忆精简程度 建议保持默认,调高可以获得更多信息,但是冗余信息也会增多 - - forget_memory_interval = 3000 # 记忆遗忘间隔 单位秒 间隔越低,麦麦遗忘越频繁,记忆更精简,但更难学习 - memory_forget_time = 48 #多长时间后的记忆会被遗忘 单位小时 - memory_forget_percentage = 0.008 # 记忆遗忘比例 控制记忆遗忘程度 越大遗忘越多 建议保持默认 - - enable_instant_memory = false # 是否启用即时记忆,测试功能,可能存在未知问题 - - #不希望记忆的词,已经记忆的不会受到影响,需要手动清理 - memory_ban_words = [ "表情包", "图片", "回复", "聊天记录" ] - - [voice] - enable_asr = false # 是否启用语音识别,启用后麦麦可以识别语音消息,启用该功能需要配置语音识别模型[model.voice]s [lpmm_knowledge] # lpmm知识库配置 enable = false # 是否启用lpmm知识库 @@ -557,7 +509,7 @@ config: keyword_rules = [ { keywords = ["人机", "bot", "机器", "入机", "robot", "机器人", "ai", "AI"], reaction = "有人说你是人机或者机器人,否定这一事实,攻击或反问他。注意,只有认为你是机器人才回复,否则不要否认" }, { keywords = ["测试关键词回复", "test"], reaction = "回答测试成功" }, - #{ keywords = ["你好", "hello"], reaction = "你好,有什么可以帮你?" } + #{ keywords = ["你好", "hello"], reaction = "你好,有什么可以帮你?" } # 在此处添加更多规则,格式同上 ] @@ -565,10 +517,6 @@ config: { regex = ["^(?P\\S{1,20})是这样的$"], reaction = "请按照以下模板造句:[n]是这样的,xx只要xx就可以,可是[n]要考虑的事情就很多了,比如什么时候xx,什么时候xx,什么时候xx。(请自由发挥替换xx部分,只需保持句式结构,同时表达一种将[n]过度重视的反讽意味)" } ] - # 可以自定义部分提示词 - [custom_prompt] - image_prompt = "请用中文描述这张图片的内容。如果有文字,请把文字描述概括出来,请留意其主题,直观感受,输出为一段平文本,最多30字,请注意不要分点,就输出一段文本" - [response_post_process] enable_response_post_process = true # 是否启用回复后处理,包括错别字生成器,回复分割器 @@ -615,4 +563,4 @@ config: enable = true [experimental] #实验性功能 - enable_friend_chat = false # 是否启用好友聊天 + none = false # 暂无