mirror of
https://github.com/SillyTavern/SillyTavern.git
synced 2025-06-05 21:59:27 +02:00
Add error handing to OpenAI bias calculation
This commit is contained in:
24
server.js
24
server.js
@@ -2963,10 +2963,14 @@ app.post("/openai_bias", jsonParser, async function (request, response) {
|
|||||||
continue;
|
continue;
|
||||||
}
|
}
|
||||||
|
|
||||||
const tokens = tokenizer.encode(entry.text);
|
try {
|
||||||
|
const tokens = tokenizer.encode(entry.text);
|
||||||
|
|
||||||
for (const token of tokens) {
|
for (const token of tokens) {
|
||||||
result[token] = entry.value;
|
result[token] = entry.value;
|
||||||
|
}
|
||||||
|
} catch {
|
||||||
|
console.warn('Tokenizer failed to encode:', entry.text);
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
@@ -3348,12 +3352,16 @@ app.post("/tokenize_openai", jsonParser, function (request, response_tokenize_op
|
|||||||
const tokenizer = getTiktokenTokenizer(model);
|
const tokenizer = getTiktokenTokenizer(model);
|
||||||
|
|
||||||
for (const msg of request.body) {
|
for (const msg of request.body) {
|
||||||
num_tokens += tokensPerMessage;
|
try {
|
||||||
for (const [key, value] of Object.entries(msg)) {
|
num_tokens += tokensPerMessage;
|
||||||
num_tokens += tokenizer.encode(value).length;
|
for (const [key, value] of Object.entries(msg)) {
|
||||||
if (key == "name") {
|
num_tokens += tokenizer.encode(value).length;
|
||||||
num_tokens += tokensPerName;
|
if (key == "name") {
|
||||||
|
num_tokens += tokensPerName;
|
||||||
|
}
|
||||||
}
|
}
|
||||||
|
} catch {
|
||||||
|
console.warn("Error tokenizing message:", msg);
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
num_tokens += tokensPadding;
|
num_tokens += tokensPadding;
|
||||||
|
Reference in New Issue
Block a user