|
@@ -36,7 +36,7 @@ class Chat:
|
|
|
"content": result
|
|
|
})
|
|
|
# 随着对话的进行,模型每次需要传入的 token 都会线性增加,只保留特定几轮对话
|
|
|
- if self.save_first_len + self.save_last_len > len(self.history):
|
|
|
+ if self.save_first_len + self.save_last_len < len(self.history):
|
|
|
self.history = self.history[0:self.save_first_len] + self.history[len(self.history) - self.save_last_len:]
|
|
|
|
|
|
return result
|