diff --git a/src/plugins/chat/llm_generator.py b/src/plugins/chat/llm_generator.py index 46dc34e9..0e7992f0 100644 --- a/src/plugins/chat/llm_generator.py +++ b/src/plugins/chat/llm_generator.py @@ -21,7 +21,7 @@ class ResponseGenerator: def __init__(self): self.model_r1 = LLM_request( model=global_config.llm_reasoning, - temperature=0.7, + temperature=0.6, max_tokens=1000, stream=True, ) diff --git a/src/plugins/chat/topic_identifier.py b/src/plugins/chat/topic_identifier.py index a0c5bae3..bf55430c 100644 --- a/src/plugins/chat/topic_identifier.py +++ b/src/plugins/chat/topic_identifier.py @@ -20,7 +20,7 @@ class TopicIdentifier: prompt = f"""判断这条消息的主题,如果没有明显主题请回复"无主题",要求: 1. 主题通常2-4个字,必须简短,要求精准概括,不要太具体。 2. 建议给出多个主题,之间用英文逗号分割。只输出主题本身就好,不要有前后缀。 - +请注意:如果没有明显主题请只回复"无主题" 消息内容:{text}""" # 使用 LLM_request 类进行请求