From 85df989193201cf9dd2829f04ddad92047d12924 Mon Sep 17 00:00:00 2001 From: SolidSnacke Date: Mon, 12 Feb 2024 02:28:42 +0300 Subject: [PATCH 1/3] Translating to Russian language. (third addition) I finished the translation into Russian a little more as best I could. --- public/i18n.json | 107 +++++++++++++++++++++++++++++++-------- public/index.html | 125 +++++++++++++++++++++++----------------------- 2 files changed, 149 insertions(+), 83 deletions(-) diff --git a/public/i18n.json b/public/i18n.json index b8e2d8ae4..685938871 100644 --- a/public/i18n.json +++ b/public/i18n.json @@ -1681,6 +1681,7 @@ "unlocked": "Неограниченный", "Only select models support context sizes greater than 4096 tokens. Increase only if you know what you're doing.": "Только отдельные модели поддерживают контекст, превышающий 4096 токенов. Используйте только если понимаете, что делаете.", "rep.pen": "Rep. Pen.", + "WI Entry Status:🔵 Constant🟢 Normal❌ Disabled": "Статус входа WI:\n 🔵 Константа\n 🟢 Cтандартный\n ❌ Отключен", "rep.pen range": "Диапазон Rep. Pen.", "temperature": "Температура", "Encoder Rep. Pen.": "Расшифровщик Rep. Pen.", @@ -1796,11 +1797,18 @@ "Novel AI Model": "Модель NovelAI", "If you are using:": "Если вы используете:", "oobabooga/text-generation-webui": "", - "Make sure you run it with": "Убедитесь, что при запуске указали аргумент --extensions openai", + "Make sure you run it with": "Убедитесь, что вы запустили его с", + "flag": "флажком", + "API key (optional)": "Ключ API (опционально)", + "Server url": "URL-адрес сервера", + "Custom model (optional)": "Пользовательская модель (опционально)", + "Bypass API status check": "Обход проверки статуса API", "Mancer AI": "", "Use API key (Only required for Mancer)": "Нажмите на ячейку (и добавьте свой API ключ!):", "Blocking API url": "Блокирующий API url", - "Example: http://127.0.0.1:5000/api": "Пример: http://127.0.0.1:5000/api", + "Example: 127.0.0.1:5000": "Пример: http://127.0.0.1:5000", + "Legacy API (pre-OAI, no streaming)": "Устаревший API (до OAI, без потоковой передачи)", + "Bypass status check": "Обход проверки статуса", "Streaming API url": "Потоковый API URL", "Example: ws://127.0.0.1:5005/api/v1/stream": "Пример: ws://127.0.0.1:5005/api/v1/stream", "Mancer API key": "Mancer API ключ", @@ -1858,11 +1866,21 @@ "System Sequence Suffix": "Суффикс системной последовательности", "Stop Sequence": "Последовательность остановки", "Context Formatting": "Форматирование контекста", + "(Saved to Context Template)": "(Сохраняется в шаблоне контекста)", "Tokenizer": "Токенайзер", "None / Estimated": "Отсутствует/Приблизительно", "Sentencepiece (LLaMA)": "Sentencepiece (LLaMA)", "Token Padding": "Заполнение токенов", + "Save preset as": "Сохранить предустановку как", "Always add character's name to prompt": "Всегда добавлять имя персонажа в инструкции", + "Use as Stop Strings": "Использование в качестве стоп-строк", + "Bind to Context": "Привязка к контексту", + "Generate only one line per request": "Генерировать только одну строку для каждого запроса", + "Misc. Settings": "Доп. настройки", + "Auto-Continue": "Авто продолжение", + "Collapse Consecutive Newlines": "Свернуть последовательные новые строки", + "Allow for Chat Completion APIs": "Разрешить API завершения чата", + "Target length (tokens)": "Целевая длина (токены)", "Keep Example Messages in Prompt": "Сохранять примеры сообщений в инструкции", "Remove Empty New Lines from Output": "Удалять пустые строчки из вывода", "Disabled for all models": "Выключено для всех моделей", @@ -1875,6 +1893,11 @@ "Style Anchor": "Стиль Anchors", "World Info": "Информация о мире", "Scan Depth": "Глубина сканирования", + "Case-Sensitive": "С учетом регистра", + "Match Whole Words": "Сопоставить целые слова", + "Use global setting": "Использовать глобальную настройку", + "Yes": "Да", + "No": "Нет", "Context %": "Процент контекста", "Budget Cap": "Бюджетный лимит", "(0 = disabled)": "(0 = отключено)", @@ -2056,14 +2079,32 @@ "Separator": "Разделитель", "Start Reply With": "Начинать ответ с", "Show reply prefix in chat": "Показывать префиксы ответов в чате", - "Worlds/Lorebooks": "Миры/Сведения", + "Worlds/Lorebooks": "Миры/Lorebook-ки", "Active World(s)": "Активные миры", + "Activation Settings": "Настройки активации", "Character Lore Insertion Strategy": "Порядок включения сведений", "Sorted Evenly": "Равномерная сортировка", "Active World(s) for all chats": "Активные миры для всех чатов", "-- World Info not found --": "-- Информация о мире не найдена --", - "--- Pick to Edit ---": "Редактировать", + "--- Pick to Edit ---": "--- Редактировать ---", "or": "или", + "New": "Новый", + "Priority": "Приритет", + "Custom": "Пользовательский", + "Title A-Z": "Название от A до Z", + "Title Z-A": "Название от Z до A", + "Tokens ↗": "Токены ↗", + "Tokens ↘": "Токены ↘", + "Depth ↗": "Глубина ↗", + "Depth ↘": "Глубина ↘", + "Order ↗": "Порядок ↗", + "Order ↘": "Порядок ↘", + "UID ↗": "Уник. ID ↗", + "UID ↘": "Уник. ID ↘", + "Trigger% ↗": "Триггер% ↗", + "Trigger% ↘": "Триггер% ↘", + "Order:": "Порядок:", + "Depth:": "Глубина:", "Character Lore First": "Сначала сведения о персонаже", "Global Lore First": "Сначала общие сведения", "Recursive Scan": "Рекурсивное сканирование", @@ -2075,13 +2116,19 @@ "Comma seperated (ignored if empty)": "Разделение запятыми (не используется, если оставлено пустым)", "Use Probability": "Использовать вероятность", "Exclude from recursion": "Исключить из рекурсии", + "Entry Title/Memo": "Вставьте Название/Заметку", "Position:": "Положение:", - "Before Char Defs": "Перед определением Персонажа", - "After Char Defs": "После определения Персонажа", - "Before AN": "Перед AN", - "After AN": "После AN", - "Order:": "Порядок:", + "T_Position": "↑Char: Перед определениями Персонажа\n↓Char: После определений Персонажа\n↑AN: Перед Авторскими заметками\n↓AN: После Авторских заметок\n@D: На глубине", + "Before Char Defs": "↑Перс.", + "After Char Defs": "↓Перс.", + "Before AN": "↑АЗ", + "After AN": "↓АЗ", + "at Depth": "@Г", + "Order": "Порядок:", "Probability:": "Вероятность:", + "Update a theme file": "Обновить файл темы", + "Save as a new theme": "Сохранить как новую тему", + "Minimum number of blacklisted words detected to trigger an auto-swipe": "Минимальное количество обнаруженных слов в черном списке для запуска авто-свайпа.", "Delete Entry": "Удалить запись:", "User Message Blur Tint": "Сообщение пользователя", "AI Message Blur Tint": "Сообщение ИИ", @@ -2165,7 +2212,7 @@ "Requests logprobs from the API for the Token Probabilities feature": "Запросить логпробы из API для функции Token Probabilities.", "Automatically reject and re-generate AI message based on configurable criteria": "Автоматическое отклонение и повторная генерация сообщений AI на основе настраиваемых критериев.", "Enable the auto-swipe function. Settings in this section only have an effect when auto-swipe is enabled": "Включить функцию автоматического пролистывания. Настройки в этом разделе действуют только при включенном автопролистывании.", - "If the generated message is shorter than this, trigger an auto-swipe": "Если сгенерированное сообщение короче этого значения, срабатывает автопролистывание.", + "If the generated message is shorter than this, trigger an auto-swipe": "Если сгенерированное сообщение короче этого значения, срабатывает авто-свайп.", "Reload and redraw the currently open chat": "Перезагрузить и перерисовать открытый в данный момент чат.", "Auto-Expand Message Actions": "Развернуть контекстные элементы", "Not Connected": "Не подключено", @@ -2215,7 +2262,7 @@ "Rep. Pen. Freq.": "Частота наказания за повторы", "Rep. Pen. Presence": "Наличие наказания за повторы", "Enter it in the box below:": "Введите в поле ниже:", - "separate with commas w/o space between": "разделять запятыми без пробелов между:", + "separate with commas w/o space between": "разделять запятыми без пробела", "Document": "Документ", "Suggest replies": "Предлагать ответы", "Show suggested replies. Not all bots support this.": "Показывать предлагаемые ответы. Не все боты поддерживают это.", @@ -2250,9 +2297,14 @@ "Injection text (supports parameters)": "Текст включения (Поддерживает параметры)", "Injection depth": "Глубина включения", "Type here...": "Пишите здесь...", - "Comma separated (required)": "Разделено запятыми (Обязательно)", - "Comma separated (ignored if empty)": "Разделено запятыми (Игнорируется если пусто)", - "What this keyword should mean to the AI, sent verbatim": "Значение этого ключевого слова, отправляется ИИ дословно", + "Comma separated (required)": "Разделять через запятую (Обязательное)", + "Comma separated (ignored if empty)": "Разделять через запятую (Игнорируется если пусто)", + "What this keyword should mean to the AI, sent verbatim": "Что это ключевое слово должно означать для ИИ, отправляется дословно", + "Filter to Character(s)": "Фильтр к персонажу(ам)", + "Character Exclusion": "Исключение персонажей", + "Inclusion Group": "Инклюзивная группа", + "Only one entry with the same label will be activated": "Будет актив. только одна запись с одинаковой меткой", + "-- Characters not found --": "-- Персонаж не найден --", "Not sent to the AI": "Не отправляется ИИ", "(This will be the first message from the character that starts every chat)": "(Это будет первое сообщение от персонажа, когда вы начинаете новый чат)", "Not connected to API!": "Нет подключения к API", @@ -2260,9 +2312,11 @@ "AI Configuration panel will stay open": "Панель Настройки ИИ останется открытой", "Update current preset": "Обновить текущую настройку", "Create new preset": "Создать новую настройку", - "Import preset": "Внести настройку", - "Export preset": "Скачать настройку", - "Delete the preset": "Удалить настройку", + "Import preset": "Импорт предустановки", + "Export preset": "Экспорт предустановки", + "Delete the preset": "Удалить предустановку", + "Auto-select this preset for Instruct Mode": "Автоматический выбор этой предустановки для режима 'Инструктаж'.", + "Auto-select this preset on API connection": "Автоматический выбор этой предустановки при подключении к API.", "NSFW block goes first in the resulting prompt": "НСФВ блокировка идет первой при отправки Промта", "Enables OpenAI completion streaming": "Включить процесс генерации OpenAI", "Wrap user messages in quotes before sending": "Заключить ответ Пользователя в кавычки", @@ -2287,10 +2341,21 @@ "Open all Entries": "Открыть все Записи", "Close all Entries": "Закрыть все Записи", "Create": "Создать", - "Import World Info": "Внести Информацию Мира", - "Export World Info": "Скачать Информацию Мира", - "Delete World Info": "Удалить Информацию Мира", - "Rename World Info": "Переименовать Информацию Мира", + "Import World Info": "Импортировать Мир", + "Export World Info": "Экспортировать Мир", + "Delete World Info": "Удалить Мир", + "Duplicate World Info": "Дублировать Мир", + "Rename World Info": "Переименовать Мир", + "Refresh": "Обновить", + "Primary Keywords": "Основные ключевые слова", + "Logic": "Логика", + "AND ANY": "И ЛЮБОЙ", + "AND ALL": "И ВСЕ", + "NOT ALL": "НЕ ВСЕ", + "NOT ANY": "НЕ ЛЮБОЙ", + "Optional Filter": "Дополнительный фильтр", + "New Entry": "Новая Запись", + "Fill empty Memo/Titles with Keywords": "Заполните пустые Заметки/Названия ключевыми словами", "Save changes to a new theme file": "Сохранить изменения в новой теме", "removes blur and uses alternative background color for divs": "убирает размытие и использует альтернативный фон для разделов", "AI Response Formatting": "Формат ответа ИИ", diff --git a/public/index.html b/public/index.html index 60f5fd44c..59a23c924 100644 --- a/public/index.html +++ b/public/index.html @@ -1912,9 +1912,12 @@ oobabooga/text-generation-webui - - Make sure you run it with --api flag - + +

API key (optional)

@@ -1927,10 +1930,10 @@

Server URL

- Example: http://127.0.0.1:5000 + Example: http://127.0.0.1:5000
- +
@@ -2469,7 +2472,7 @@ - +
@@ -2505,7 +2508,7 @@
- + @@ -2600,7 +2603,7 @@
- + @@ -2727,7 +2730,7 @@

Context Formatting

- +  (Saved to Context Template)
@@ -2755,7 +2758,7 @@ Include Newline
-

+

Misc. Settings

@@ -3044,7 +3045,7 @@ New or - @@ -3057,21 +3058,21 @@ - + + + + + + + + + + + + + +
@@ -3553,9 +3554,9 @@
Blacklisted words
- +
Blacklisted word count to swipe
- +
@@ -4424,21 +4425,21 @@ - + + +
- + + + + +
@@ -4450,13 +4451,13 @@
- +
- +
@@ -4467,16 +4468,16 @@ Comma separated (required) - Primary Keywords + Primary Keywords
- Logic + Logic
@@ -4485,7 +4486,7 @@ (ignored if empty) - Optional Filter + Optional Filter
@@ -4493,23 +4494,23 @@
- Scan Depth - + Scan Depth +
- Case-Sensitive + Case-Sensitive
- Match Whole Words + Match Whole Words
@@ -4561,8 +4562,8 @@
From 90963f6437b7c1fdfdb7ab8dac7e2189c54de6e4 Mon Sep 17 00:00:00 2001 From: SolidSnacke Date: Mon, 12 Feb 2024 18:58:52 +0300 Subject: [PATCH 2/3] Addendum number four. I reached for everything that most often caught my eye. I also replaced widthNatural flex1 margin0 with widthNatural margin0. Now there should be no problem with fields taking up extra space. Although perhaps you asked me to return everything as it was. --- public/i18n.json | 129 +++++++++++++++++++++++-------- public/index.html | 188 ++++++++++++++++++++++++---------------------- 2 files changed, 195 insertions(+), 122 deletions(-) diff --git a/public/i18n.json b/public/i18n.json index 685938871..16c3fe96b 100644 --- a/public/i18n.json +++ b/public/i18n.json @@ -1680,12 +1680,45 @@ "context size(tokens)": "Размер контекста (в токенах)", "unlocked": "Неограниченный", "Only select models support context sizes greater than 4096 tokens. Increase only if you know what you're doing.": "Только отдельные модели поддерживают контекст, превышающий 4096 токенов. Используйте только если понимаете, что делаете.", - "rep.pen": "Rep. Pen.", + "rep.pen": "Штраф за повторение", "WI Entry Status:🔵 Constant🟢 Normal❌ Disabled": "Статус входа WI:\n 🔵 Константа\n 🟢 Cтандартный\n ❌ Отключен", - "rep.pen range": "Диапазон Rep. Pen.", - "temperature": "Температура", - "Encoder Rep. Pen.": "Расшифровщик Rep. Pen.", - "No Repeat Ngram Size": "No Repeat Ngram Size", + "rep.pen range": "Диапазон штрафов за повтор.", + "Temperature controls the randomness in token selection": "Temperature контролирует случайность выбора токенов:\n- низкая Temperature (<1.0) приводит к более предсказуемому тексту, отдавая предпочтение токенам с высокой вероятностью.\n- высокая Temperature (>1.0) повышает креативность и разнообразие вывода, давая токенам с низкой вероятностью больше шансов.\nУстановите значение 1.0 для исходных вероятностей.", + "temperature": "Temperature", + "Top K sets a maximum amount of top tokens that can be chosen from": "Top K задает максимальное количество токенов, которые могут быть выбраны.\nЕсли Top-K равен 20, это означает, что будут сохранены только 20 токенов с наивысшим рейтингом (независимо от того, что их вероятности разнообразны или ограничены)\nУстановите значение 0, чтобы отключить.", + "Top P (a.k.a. nucleus sampling)": "Top P (также известная как выборка ядра) складывает все верхние токены, необходимые для достижения целевого процента.\nТо есть, если 2 верхних токена составляют 25%, а Top-P равен 0.50, учитываются только эти 2 верхних токена.\nУстановите значение 1.0, чтобы отключить.", + "Typical P Sampling prioritizes tokens based on their deviation from the average entropy of the set": "Сэмплер Typical P определяет приоритет токенов на основе их отклонения от средней энтропии набора.\nОстаются токены, чья кумулятивная вероятность близка к заданному порогу (например, 0,5), выделяя те, которые имеют среднее информационное содержание.\nУстановите значение 1.0, чтобы отключить.", + "Min P sets a base minimum probability": "Min P устанавливает базовую минимальную вероятность. Она масштабируется в зависимости от вероятности верхнего токена.\nЕсли вероятность верхнего токена составляет 80%, а Min P - 0.1, будут рассматриваться только токены с вероятностью выше 8%.\nУстановите значение 0, чтобы отключить.", + "Top A sets a threshold for token selection based on the square of the highest token probability": "Top A устанавливает порог для отбора токенов на основе квадрата наибольшей вероятности токена.\nЕсли значение Top A равно 0.2, а вероятность верхнего токена равна 50%, то токены с вероятностью ниже 5% (0.2 * 0.5^2) будут исключены.\nУстановите значение 0, чтобы отключить.", + "Tail-Free Sampling (TFS)": "Tail-Free Sampling (TFS) ищет хвост маловероятных токнов в распределении,\n анализируя скорость изменения вероятностей токенов с помощью производных. Он сохраняет токены до порога (например, 0.3), основанного на нормированной второй производной.\nЧем ближе к 0, тем больше отброшенных токенов. Установите значение 1.0, чтобы отключить.", + "Epsilon cutoff sets a probability floor below which tokens are excluded from being sampled": "Epsilon cutoff устанавливает уровень вероятности, ниже которого токены исключаются из выборки.\nВ единицах 1e-4; разумное значение - 3.\nУстановите 0, чтобы отключить.", + "Scale Temperature dynamically per token, based on the variation of probabilities": "Динамическое масштабирование Temperature для каждого токена, основанное на изменении вероятностей.", + "Minimum Temp": "Минимальная Temp", + "Maximum Temp": "Максимальная Temp", + "Exponent": "Экспонента", + "Mirostat Mode": "Режим", + "Mirostat Tau": "Tau", + "Mirostat Eta": "Eta", + "Variability parameter for Mirostat outputs": "Параметр изменчивости для выходных данных Mirostat.", + "Learning rate of Mirostat": "Скорость обучения Mirostat.", + "Strength of the Contrastive Search regularization term. Set to 0 to disable CS": "Сила условия регуляризации контрастивного поиска. Установите значение 0, чтобы отключить CS.", + "Temperature Last": "Temperature Last", + "Use the temperature sampler last": "Использовать Temperature сэмплер в последнюю очередь. Это почти всегда разумно.\nПри включении: сначала выборка набора правдоподобных токенов, затем применение Temperature для корректировки их относительных вероятностей (технически, логитов).\nПри отключении: сначала применение Temperature для корректировки относительных вероятностей ВСЕХ токенов, затем выборка правдоподобных токенов из этого.\nОтключение Temperature Last увеличивает вероятности в хвосте распределения, что увеличивает шансы получить несогласованный ответ.", + "LLaMA / Mistral / Yi models only": "Только для моделей LLaMA / Mistral / Yi. Убедитесь, что сначала выбрали подходящий токенизатор.\nПоследовательности, которые вы не хотите видеть в выходных данных.\nОдна на строку. Текст или [идентификаторы токенов].\nМногие токены имеют пробел впереди. Используйте счетчик токенов, если не уверены.", + "Example: some text [42, 69, 1337]": "Пример:\nкакой-то текст\n[42, 69, 1337]", + "Classifier Free Guidance. More helpful tip coming soon": "Руководство без классификатора. Больше полезных советов в ближайшее время.", + "Scale": "Масштаб", + "GBNF Grammar": "Грамматика GBNF", + "Usage Stats": "Статистика исп.", + "Click for stats!": "Нажмите для получения статистики!", + "Backup": "Резер. копирование", + "Backup your personas to a file": "Резервное копирование персон в файл", + "Restore": "Восстановить", + "Restore your personas from a file": "Восстановление персон из файла", + "Type in the desired custom grammar": "Введите нужную пользовательскую грамматику", + "Encoder Rep. Pen.": "Штраф за кодирование", + "Smoothing Factor": "Коэффициент сглаживания", + "No Repeat Ngram Size": "Нет повторов размера Ngram", "Min Length": "Минимальная длина", "OpenAI Reverse Proxy": "Прокси с OpenAI", "Alternative server URL (leave empty to use the default value).": "Альтернативный URL сервера (оставьте пустым для стандартного значения)", @@ -1695,21 +1728,21 @@ "Enable this if the streaming doesn't work with your proxy": "Включите это, если потоковый вывод текста не работает с вашим прокси", "Context Size (tokens)": "Размер контекста (в токенах)", "Max Response Length (tokens)": "Максимальная длина ответа (в токенах)", - "Temperature": "Температура", + "Temperature": "Temperature", "Frequency Penalty": "Штраф за частоту", "Presence Penalty": "Штраф за присутствие", - "Top-p": "Top-p", + "Top-p": "Top P", "Display bot response text chunks as they are generated": "Отображать ответ ИИ по мере генерации текста", - "Top A": "Top-a", - "Typical Sampling": "Типичная выборка", - "Tail Free Sampling": "Бесхвостовая выборка", - "Rep. Pen. Slope": "Rep. Pen. Склон", + "Top A": "Top А", + "Typical Sampling": "Typical Sampling", + "Tail Free Sampling": "Tail Free Sampling", + "Rep. Pen. Slope": "Rep. Pen. Slope", "Single-line mode": "Режим одной строки", - "Top K": "Top-k", - "Top P": "Top-p", + "Top K": "Top K", + "Top P": "Top P", "Do Sample": "Сделать образец", "Add BOS Token": "Добавить BOS-токен", - "Add the bos_token to the beginning of prompts. Disabling this can make the replies more creative.": "Добавлять BOS-токен в начале инструкции. Выключение этого может сделать ответы более креативными. ", + "Add the bos_token to the beginning of prompts. Disabling this can make the replies more creative": "Добавлять BOS-токен в начале инструкции. Выключение этого может сделать ответы более креативными. ", "Ban EOS Token": "Заблокировать EOS-токен", "Ban the eos_token. This forces the model to never end the generation prematurely": "Блокировка EOS-токена вынудит модель никогда не завершать генерацию преждевременно", "Skip Special Tokens": "Пропускать специальные токены", @@ -1718,12 +1751,13 @@ "Length Penalty": "Штраф за длину", "Early Stopping": "Преждевременная остановка", "Contrastive search": "Контрастный поиск", - "Penalty Alpha": "Штраф Альфа", + "Penalty Alpha": "Penalty Alpha", "Seed": "Зерно", - "Epsilon Cutoff": "Отсечение эпсилона", - "Eta Cutoff": "Отсечка Eta", + "Epsilon Cutoff": "Epsilon Cutoff", + "Eta Cutoff": "Eta Cutoff", "Negative Prompt": "Отрицательная подсказка", - "Mirostat (mode=1 is only for llama.cpp)": "Mirostat (режим = 1 только для llama.cpp)", + "Mirostat (mode=1 is only for llama.cpp)": "Mirostat", + "Mirostat is a thermostat for output perplexity": "Mirostat - это термостат для недоумения на выходе.\nMirostat подгоняет недоумение на выходе к недоумению на входе, что позволяет избежать ловушки повторения.\n(когда по мере того, как авторегрессионный вывод производит текст, недоумение на выходе стремится к нулю)\n и ловушки путаницы (когда недоумение расходится)\nДля подробностей смотрите статью Mirostat: A Neural Text Decoding Algorithm that Directly Controls Perplexity by Basu et al. (2020).\nРежим выбирает версию Mirostat. 0=отключить, 1=Mirostat 1.0 (только llama.cpp), 2=Mirostat 2.0.", "Add text here that would make the AI generate things you don't want in your outputs.": "Добавьте сюда текст, который заставит ИИ генерировать то, что вы не хотите видеть в своих выводах", "Phrase Repetition Penalty": "Штраф за повторение фразы", "Preamble": "Преамбула", @@ -1740,8 +1774,14 @@ "NSFW Prioritized": "Предпочитать NSFW", "NSFW prompt text goes first in the prompt to emphasize its effect.": "Отправлять NSFW-инструкцию в начале для усиления его эффекта", "Streaming": "Потоковый вывод текста", - "Display the response bit by bit as it is generated.": "Отображать ответ по кускам в процессе генерации.", - "When this is off, responses will be displayed all at once when they are complete.": "Если данная функция отключена, ответ будет отображен полностью после генерации.", + "Dynamic Temperature": "Динамическая Temperature", + "Restore current preset": "Восстановить текущую предустановку", + "Neutralize Samplers": "Нейтрализовать сэмплеры", + "Text Completion presets": "Предустановки Text Completion", + "Documentation on sampling parameters": "Документация по параметрам сэмплеров", + "Set all samplers to their neutral/disabled state.": "Установить все сэмплеры в нейтральное/отключенное состояние.", + "Only enable this if your model supports context sizes greater than 4096 tokens": "Включите эту опцию, только если ваша модель поддерживает размер контекста более 4096 токенов.\nУвеличивайте только если вы знаете, что делаете.", + "Display the response bit by bit as it is generated": "Отображение ответа бит за битом по мере его генерации.\nКогда этот параметр выключен, ответы будут отображаться все сразу после их завершения.", "Generate only one line per request (KoboldAI only, ignored by KoboldCpp).": "Генерируйте только одну строку для каждого запроса (только KoboldAI, игнорируется KoboldCpp).", "Ban the End-of-Sequence (EOS) token (with KoboldCpp, and possibly also other tokens with KoboldAI).": "Запретите токен конца последовательности (EOS) (с помощью KoboldCpp и, возможно, также других токенов с помощью KoboldAI).", "Good for story writing, but should not be used for chat and instruct mode.": "Подходит для написания историй, но не должен использоваться в режиме чата и инструктирования.", @@ -1773,14 +1813,25 @@ "API": "API", "KoboldAI": "KoboldAI", "Use Horde": "Использовать Horde", - "API url": "API URL", + "API url": "URL-адрес API", + "PygmalionAI/aphrodite-engine": "PygmalionAI/aphrodite-engine (Режим обёртки API OpenAI)", "Register a Horde account for faster queue times": "Заведите учетную запись Horde для ускорения генерации", "Learn how to contribute your idle GPU cycles to the Hord": "Узнайте подробнее о том, как использовать время простоя GPU для Hord", "Adjust context size to worker capabilities": "Уточнить размер контекста в соответствии с возможностями рабочих машин", "Adjust response length to worker capabilities": "Уточнить длинну ответа в соответствии с возможностями рабочих машин", "API key": "API-ключ", + "Tabby API key": "Tabby API-ключ", "Get it here:": "Получить здесь:", "Register": "Регистрация", + "TogetherAI Model": "Модель TogetherAI", + "Example: 127.0.0.1:5001": "Пример: http://127.0.0.1:5001", + "ggerganov/llama.cpp": "ggerganov/llama.cpp (сервер вывода)", + "Example: 127.0.0.1:8080": "Пример: http://127.0.0.1:8080", + "Example: 127.0.0.1:11434": "Пример: http://127.0.0.1:11434", + "Ollama Model": "Модель Ollama", + "Download": "Скачать", + "TogetherAI API Key": "TogetherAI API-ключ", + "-- Connect to the API --": "-- Подключитесь к API --", "View my Kudos": "Посмотреть мой рейтинг(Kudos)", "Enter": "Вставьте", "to use anonymous mode.": "чтобы использовать анонимный режим.", @@ -1934,6 +1985,10 @@ "If set in the advanced character definitions, this field will be displayed in the characters list.": "Если это поле задано в расширенных параметрах персонажа, оно будет отображаться в списке персонажа.", "Relaxed API URLS": "Смягченные URL-адреса API", "Custom CSS": "Пользовательский CSS", + "Default (oobabooga)": "По умолчанию (oobabooga)", + "Mancer Model": "Модель Mancer", + "API Type": "Тип API", + "Aphrodite API key": "API-ключ Aphrodite", "Relax message trim in Groups": "Расслабленная отделка сообщений в Группах", "Characters Hotswap": "Смена персонажей на лету", "Request token probabilities": "Вероятность запроса токена", @@ -2246,7 +2301,7 @@ "Prompt Overrides (For OpenAI/Claude/Scale APIs, Window/OpenRouter, and Instruct mode)": "Замещение инструкций (Для OpenAI/Claude/Scale API, Window/OpenRouter, и Режима Instruct)", "Insert {{original}} into either box to include the respective default prompt from system settings.": "Внесите {{original}} в любое поле для внесения стандартных инструкций из системных настроек", "Main Prompt": "Главные инструкции", - "Jailbreak": "JailBreak", + "Jailbreak": "Jailbreak", "Creator's Metadata (Not sent with the AI prompt)": "Сведения о создателе (не отправляются ИИ с инструкциями)", "Everything here is optional": "Всё в данных полях опционально", "Created by": "Создано", @@ -2361,15 +2416,17 @@ "AI Response Formatting": "Формат ответа ИИ", "Change Background Image": "Изменить фон", "Extensions": "Расширения", - "Click to set a new User Name": "Нажмите что бы выбрать новое имя Личности", - "Click to lock your selected persona to the current chat. Click again to remove the lock.": "Нажмите что бы закрепить выьранную личность к текущему чату", - "Click to set user name for all messages": "Нажмите что бы закрепить Личность для всех сообщений", + "Click to set a new User Name": "Нажмите, чтобы задать новое имя пользователя.", + "Click to lock your selected persona to the current chat. Click again to remove the lock.": "Нажмите, чтобы закрепить выбранную персону за текущим чатом. Нажмите еще раз, чтобы снять блокировку.", + "Click to set user name for all messages": "Нажмите, чтобы задать имя пользователя для всех сообщений.", "Create a dummy persona": "Создать болванку", "Character Management": "Управление Персонажами", "Locked = Character Management panel will stay open": "Закреплено = Панель Управление Персонажами останется открытой ", "Select/Create Characters": "Выбрать/Создать персонажа", "Token counts may be inaccurate and provided just for reference.": "Счетчик токенов может быть неточным и используется только для примера", "Click to select a new avatar for this character": "Нажмите что бы выбрать новый аватар для этого персонажа", + "Example: [{{user}} is a 28-year-old Romanian cat girl.]": "Пример:\n [{{user}} is a 28-year-old Romanian cat girl.]", + "Toggle grid view": "Переключить вид сетки", "Add to Favorites": "Добавить в Любимые", "Advanced Definition": "Расширенные Определения", "Character Lore": "Сведения Персонажа", @@ -2427,14 +2484,22 @@ "Add to group": "Добавить в группу", "Add": "Добавить", "Abort request": "Прекратить генерацию", - "Send a message": "отправить сообщение", - "Ask AI to write your message for you": "ИИ напишет сообщение за вас", + "Send a message": "Отправить сообщение", + "Ask AI to write your message for you": "Попросить ИИ написать для вас сообщение.", "Continue the last message": "Продолжить текущее сообщение", - "Bind user name to that avatar": "Закрепить имя за этой личностью", - "Select this as default persona for the new chats.": "Выбрать эту как стартовую личность", - "Change persona image": "Сменить изображение личности", - "Delete persona": "Удалить личность", - "Reduced Motion": "Сокращение анимаций" + "Bind user name to that avatar": "Закрепить имя за этой Персоной", + "Select this as default persona for the new chats.": "Выберать эту Персону в качестве персоны по умолчанию для новых чатов.", + "Change persona image": "Сменить аватар Персоны.", + "Delete persona": "Удалить Персону.", + "Reduced Motion": "Сокращение анимаций", + "Auto-select": "Авто выбор", + "Automatically select a background based on the chat context": "Автоматический выбор фона в зависимости от контекста чата", + "Filter": "Фильтр", + "Exclude message from prompts": "Исключить сообщение из подсказок", + "Include message in prompts": "Включить сообщение в подсказки", + "Create checkpoint": "Создание контрольной точки", + "Create Branch": "Создать Ветку", + "Embed file or image": "Вставить файл или изображение" }, "it-it": { "clickslidertips": "consigli per gli slider", diff --git a/public/index.html b/public/index.html index 59a23c924..6f2baa812 100644 --- a/public/index.html +++ b/public/index.html @@ -124,7 +124,7 @@ Click slider numbers to input manually.
MAD LAB MODE ON
- +
@@ -235,16 +235,16 @@
@@ -259,7 +259,7 @@
@@ -773,7 +773,7 @@
Temperature -
+
@@ -1158,8 +1158,8 @@
- -
+ +
@@ -1170,7 +1170,7 @@
Temperature -
+
@@ -1178,7 +1178,7 @@
Top K -
+
@@ -1186,7 +1186,7 @@
Top P -
+
@@ -1194,7 +1194,7 @@
Typical P -
+
@@ -1202,7 +1202,7 @@
Min P -
+
@@ -1210,7 +1210,7 @@
Top A -
+
@@ -1218,7 +1218,7 @@
Tail Free Sampling -
+
@@ -1226,7 +1226,7 @@
Epsilon Cutoff -
+
@@ -1308,8 +1308,8 @@
- Dynamic Temperature -
+ Dynamic Temperature +
@@ -1331,8 +1331,9 @@
-

Mirostat -
+

+ +

@@ -1341,26 +1342,29 @@
- - Tau -
-
+
- - Eta -
-
+
-

Beam Search -
+

+

@@ -1386,10 +1390,10 @@
- - Penalty Alpha -
-
+
@@ -1402,33 +1406,34 @@ - -
@@ -1469,10 +1474,10 @@

CFG -
+

- Scale + Scale
@@ -1480,7 +1485,7 @@
Negative Prompt -
+
@@ -1490,14 +1495,17 @@

-

GBNF Grammar - - - - - +

+

- +

@@ -1851,9 +1859,9 @@

API URL

- Example: http://127.0.0.1:8080 + Example: http://127.0.0.1:8080
@@ -1976,7 +1984,7 @@

API URL

- Example: http://127.0.0.1:11434 + Example: http://127.0.0.1:11434
@@ -1985,7 +1993,7 @@ @@ -2012,7 +2020,7 @@

API URL

- Example: http://127.0.0.1:5000 + Example: http://127.0.0.1:5000
@@ -2024,7 +2032,7 @@

API URL

- Example: http://127.0.0.1:5001 + Example: http://127.0.0.1:5001
@@ -3045,7 +3053,7 @@ New
or - @@ -3058,7 +3066,7 @@ - @@ -3581,10 +3589,10 @@
- -

@@ -3675,15 +3683,15 @@

-