diff --git a/template/bot_config_template.toml b/template/bot_config_template.toml index ef54a20b..8ff865c4 100644 --- a/template/bot_config_template.toml +++ b/template/bot_config_template.toml @@ -194,17 +194,17 @@ enable_kaomoji_protection = false # 是否启用颜文字保护 model_max_output_length = 256 # 模型单次返回的最大token数 [remote] #发送统计信息,主要是看全球有多少只麦麦 -enable = true +enable = false [experimental] #实验性功能 -enable_friend_chat = false # 是否启用好友聊天 +enable_friend_chat = true # 是否启用好友聊天 enable_friend_whitelist = true # 是否启用好友聊天白名单 talk_allowed_private = [] # 可以回复消息的QQ号 -api_polling_max_retries = 3 +api_polling_max_retries = 3 # 神秘小功能 rename_person = true # 是否启用改名工具,可以让麦麦对唯一名进行更改,可能可以更拟人地称呼他人,但是也可能导致记忆混淆的问题 [pfc] -pfc_chatting = false # 是否启用PFC聊天,该功能仅作用于私聊,与回复模式独立 +pfc_chatting = true # 是否启用PFC聊天,该功能仅作用于私聊,与回复模式独立 pfc_message_buffer_size = 2 # PFC 聊天消息缓冲数量,有利于使聊天节奏更加紧凑流畅,请根据实际 LLM 响应速度进行调整,默认2条 pfc_recent_history_display_count = 20 # PFC 对话最大可见上下文 @@ -229,10 +229,8 @@ pfc_relationship_final_max_change = 50.0 # 会话结束时,关系值最大可 [[pfc.fallback]] pfc_historical_fallback_exclude_seconds = 7200 # pfc 翻看聊天记录排除最近时长 - - [[pfc.idle_chat]] -enable_idle_chat = false # 是否启用 pfc 主动发言 +enable_idle_chat = true # 是否启用 pfc 主动发言 idle_check_interval = 10 # 检查间隔,10分钟检查一次 min_cooldown = 7200 # 最短冷却时间,2小时 (7200秒) max_cooldown = 18000 # 最长冷却时间,5小时 (18000秒) @@ -332,14 +330,6 @@ temp = 0.3 pri_in = 2 pri_out = 8 -# PFC 关系评估LLM -[model.llm_PFC_relationship_eval] -name = "Pro/deepseek-ai/DeepSeek-V3" # 或者其他你认为适合判断任务的模型 -provider = "SILICONFLOW" -temp = 0.4 -pri_in = 2 -pri_out = 8 - #绰号映射生成模型 [model.llm_nickname_mapping] name = "Qwen/Qwen2.5-32B-Instruct" @@ -364,6 +354,16 @@ temp = 0.3 pri_in = 2 pri_out = 8 +# PFC 关系评估LLM +[model.llm_PFC_relationship_eval] +name = "deepseek-ai/DeepSeek-V3" +provider = "SILICONFLOW" +temp = 0.4 +max_tokens = 512 +pri_in = 2 +pri_out = 8 + + #以下模型暂时没有使用!! #以下模型暂时没有使用!! #以下模型暂时没有使用!!