Fix other i18n entity changes.
This commit is contained in:
parent
b8e8e96f01
commit
813b9e6a4b
|
@ -868,7 +868,7 @@
|
|||
</small>
|
||||
</a>
|
||||
</h4>
|
||||
<textarea id="grammar" rows="4" class="text_pole textarea_compact monospace" placeholder="Type in the desired custom grammar"></textarea>
|
||||
<textarea id="grammar" rows="4" class="text_pole textarea_compact monospace" data-i18n="[placeholder]Type in the desired custom grammar" placeholder="Type in the desired custom grammar"></textarea>
|
||||
</div>
|
||||
<div data-newbie-hidden name="KoboldSamplerOrderBlock" class="range-block flexFlowColumn">
|
||||
<hr class="wide100p">
|
||||
|
@ -5595,7 +5595,7 @@
|
|||
<div id="completion_prompt_manager_forbid_overrides_block">
|
||||
<label class="checkbox_label" for="completion_prompt_manager_popup_entry_form_forbid_overrides" title="This prompt cannot be overridden by character cards, even if overrides are preferred." data-i18n="[title]This prompt cannot be overridden by character cards, even if overrides are preferred.">
|
||||
<input type="checkbox" id="completion_prompt_manager_popup_entry_form_forbid_overrides" name="forbid_overrides" />
|
||||
<span data-i18n="prompt_manager_forbid_overrides">
|
||||
<span data-i18n="prompt_manager_forbid_overrides">Forbid Overrides</span>
|
||||
</label>
|
||||
</div>
|
||||
</div>
|
||||
|
|
|
@ -15,12 +15,12 @@
|
|||
"rep.pen range": "نطاق عقوبة الاعادة.",
|
||||
"Temperature controls the randomness in token selection": "درجة الحرارة تتحكم في العشوائية في اختيار الحروف:\n- درجة حرارة منخفضة (<1.0) تؤدي إلى نص أكثر ذكاءا، مع إعطاء الأولوية(للعبارات والكلمات) للرموز ذات الاحتمالية العالية.\n- درجة حرارة مرتفعة (>1.0) تزيد من الإبداع وتنوع الإخراج، مع منح الرموز(العبارات والكلمات) ذات الاحتمالية المنخفضة فرصًا أكبر.\nقم بتعيين القيمة 1.0 للاحتماليات الأصلية.",
|
||||
"temperature": "درجة الحرارة",
|
||||
"Top K sets a maximum amount of top tokens that can be chosen from": "القيمة العليا K تحدد الحد الأقصى لعدد الرموز العلوية التي يمكن اختيارها.",
|
||||
"Top P (a.k.a. nucleus sampling)": "القيمة العلوية P (المعروفة أيضًا باسم عينة النواة) تجمع بين جميع الرموز العلوية اللازمة لتحقيق نسبة مئوية معينة.\nبمعنى آخر، إذا كانت الرموز العلوية 2 تمثل 25٪، وكانت Top-P تساوي 0.50، يُعتبر فقط هذان الرمزان العلويان.\nقم بتعيين القيمة 1.0 للتعطيل.",
|
||||
"Typical P Sampling prioritizes tokens based on their deviation from the average entropy of the set": "عينة القيمة النموذجية P تُعطي أولوية للرموز استنادًا إلى انحرافها عن الانحدار المتوسط للمجموعة.\nيتم الاحتفاظ بالرموز التي تكون احتماليتها التراكمية قريبة من العتبة المحددة (على سبيل المثال، 0.5)، مما يميز تلك التي تحتوي على متوسط معلوماتي.\nقم بتعيين القيمة 1.0 للتعطيل.",
|
||||
"Min P sets a base minimum probability": "القيمة الدنيا P تحدد الحد الأدنى الأساسي للإحتمال. يتم تحسينها استنادًا إلى إحتمالية الرمز العلوي.\nإذا كانت إحتمالية الرمز العلوي 80٪، وكانت القيمة الدنيا P - 0.1، فسيتم النظر في الرموز فقط بإحتمالية أعلى من 8٪.\nقم بتعيين القيمة 0 للتعطيل.",
|
||||
"Top A sets a threshold for token selection based on the square of the highest token probability": "القيمة العلوية A تحدد عتبة لاختيار الرموز استنادًا إلى مربع إحتمالية الرمز الأعلى.\nإذا كانت القيمة العلوية A تساوي 0.2، وكانت إحتمالية الرمز العلوي تساوي 50٪، فسيتم استبعاد الرموز بإحتمالية أقل من 5٪ (0.2 * 0.5^2).\nقم بتعيين القيمة 0 للتعطيل.",
|
||||
"Tail-Free Sampling (TFS)": "عينة خالية من الذيل (TFS) تبحث عن ذيل الرموز ذات الاحتمالية الصغيرة في التوزيع،\n من خلال تحليل معدل تغير إحتماليات الرموز باستخدام الإشتقاقات. يتم الاحتفاظ بالرموز حتى الحد (على سبيل المثال، 0.3)، استنادًا إلى المشتق الثاني الموحد.\nكلما اقترب من 0، زاد عدد الرموز المرفوضة. قم بتعيين القيمة 1.0 للتعطيل.",
|
||||
"Top_K_desc": "القيمة العليا K تحدد الحد الأقصى لعدد الرموز العلوية التي يمكن اختيارها.",
|
||||
"Top_P_desc": "القيمة العلوية P (المعروفة أيضًا باسم عينة النواة) تجمع بين جميع الرموز العلوية اللازمة لتحقيق نسبة مئوية معينة.\nبمعنى آخر، إذا كانت الرموز العلوية 2 تمثل 25٪، وكانت Top-P تساوي 0.50، يُعتبر فقط هذان الرمزان العلويان.\nقم بتعيين القيمة 1.0 للتعطيل.",
|
||||
"Typical_P_desc": "عينة القيمة النموذجية P تُعطي أولوية للرموز استنادًا إلى انحرافها عن الانحدار المتوسط للمجموعة.\nيتم الاحتفاظ بالرموز التي تكون احتماليتها التراكمية قريبة من العتبة المحددة (على سبيل المثال، 0.5)، مما يميز تلك التي تحتوي على متوسط معلوماتي.\nقم بتعيين القيمة 1.0 للتعطيل.",
|
||||
"Min_P_desc": "القيمة الدنيا P تحدد الحد الأدنى الأساسي للإحتمال. يتم تحسينها استنادًا إلى إحتمالية الرمز العلوي.\nإذا كانت إحتمالية الرمز العلوي 80٪، وكانت القيمة الدنيا P - 0.1، فسيتم النظر في الرموز فقط بإحتمالية أعلى من 8٪.\nقم بتعيين القيمة 0 للتعطيل.",
|
||||
"Top_A_desc": "القيمة العلوية A تحدد عتبة لاختيار الرموز استنادًا إلى مربع إحتمالية الرمز الأعلى.\nإذا كانت القيمة العلوية A تساوي 0.2، وكانت إحتمالية الرمز العلوي تساوي 50٪، فسيتم استبعاد الرموز بإحتمالية أقل من 5٪ (0.2 * 0.5^2).\nقم بتعيين القيمة 0 للتعطيل.",
|
||||
"Tail_Free_Sampling_desc": "عينة خالية من الذيل (TFS) تبحث عن ذيل الرموز ذات الاحتمالية الصغيرة في التوزيع،\n من خلال تحليل معدل تغير إحتماليات الرموز باستخدام الإشتقاقات. يتم الاحتفاظ بالرموز حتى الحد (على سبيل المثال، 0.3)، استنادًا إلى المشتق الثاني الموحد.\nكلما اقترب من 0، زاد عدد الرموز المرفوضة. قم بتعيين القيمة 1.0 للتعطيل.",
|
||||
"Epsilon cutoff sets a probability floor below which tokens are excluded from being sampled": "القيمة العلوية الإبسيلون تعيين الحد الأدنى للإحتمالية حيث تستبعد الرموز أدناه من العينة.\nبالوحدات 1e-4؛ القيمة المناسبة هي 3.\nقم بتعيين 0 للتعطيل.",
|
||||
"Scale Temperature dynamically per token, based on the variation of probabilities": "قيمة درجة الحرارة يتم تحديدها ديناميكيًا لكل رمز، استنادًا إلى التغيير في الإحتمالات.",
|
||||
"Minimum Temp": "أقل درجة حرارة",
|
||||
|
@ -33,7 +33,7 @@
|
|||
"Learning rate of Mirostat": "معدل التعلم لـ Mirostat.",
|
||||
"Strength of the Contrastive Search regularization term. Set to 0 to disable CS": "قوة شرط التنظيم للبحث التناقضي( بعد تعيين العينات المعززة بقوة إلى المجموعات من خلال تسمياتها الزائفة، يقوم التنظيم المتباين الخاص بنا بتحديث النموذج بحيث تقوم الميزات ذات التسميات الزائفة الواثقة بتجميع الميزات في نفس المجموعة، مع دفع الميزات في مجموعات مختلفة بعيدًا). قم بتعيين القيمة إلى 0 لتعطيل CS.",
|
||||
"Temperature Last": "درجة الحرارة الأخيرة",
|
||||
"Use the temperature sampler last": "استخدم مُخرج درجة الحرارة في النهاية. هذا عادة ما يكون منطقياً.\nعند التشغيل: يتم أولاً اختيار مجموعة من الرموز المحتملة، ثم يتم تطبيق درجة الحرارة لتصحيح احتمالياتها النسبية (تقنيًا، اللوجيتات).\nعند التعطيل: يتم تطبيق درجة الحرارة أولاً لتصحيح الاحتماليات النسبية لكل الرموز، ثم يتم اختيار مجموعة من الرموز المحتملة من بينها.\nتعطيل درجة الحرارة في النهاية يزيد من احتماليات الرموز في ذيل التوزيع، مما يزيد من فرص الحصول على إجابات غير متناسقة.",
|
||||
"Temperature_Last_desc": "استخدم مُخرج درجة الحرارة في النهاية. هذا عادة ما يكون منطقياً.\nعند التشغيل: يتم أولاً اختيار مجموعة من الرموز المحتملة، ثم يتم تطبيق درجة الحرارة لتصحيح احتمالياتها النسبية (تقنيًا، اللوجيتات).\nعند التعطيل: يتم تطبيق درجة الحرارة أولاً لتصحيح الاحتماليات النسبية لكل الرموز، ثم يتم اختيار مجموعة من الرموز المحتملة من بينها.\nتعطيل درجة الحرارة في النهاية يزيد من احتماليات الرموز في ذيل التوزيع، مما يزيد من فرص الحصول على إجابات غير متناسقة.",
|
||||
"LLaMA / Mistral / Yi models only": "فقط لنماذج LLaMA / Mistral / Yi. تأكد من تحديد المحلل المناسب أولاً.\nسلاسل تود أن لا تظهر في النتائج.\nسلسلة واحدة في كل سطر. نص أو [معرفات الحروف].\nالعديد من الرموز يبدأ بفراغ. استخدم عداد الرموز إذا كنت غير متأكد.",
|
||||
"Example: some text [42, 69, 1337]": "مثال:\nبعض النص\n[42، 69، 1337]",
|
||||
"Classifier Free Guidance. More helpful tip coming soon": "إرشادات خالية . نصائح أكثر فائدة قريباً.",
|
||||
|
@ -87,7 +87,7 @@
|
|||
"Eta Cutoff": "قطع إيتا",
|
||||
"Negative Prompt": "استفسار سلبي",
|
||||
"Mirostat (mode=1 is only for llama.cpp)": "(فقط عند استخدام llama.cpp)ميروستات",
|
||||
"Mirostat is a thermostat for output perplexity": "ميروستات هو جهاز ترموستات لصعوبة الإخراج. يعد ميروستات آلية لضبط صعوبة الإخراج لتحقيق الانسجام بين الإدخال والإخراج.",
|
||||
"Mirostat_desc": "ميروستات هو جهاز ترموستات لصعوبة الإخراج. يعد ميروستات آلية لضبط صعوبة الإخراج لتحقيق الانسجام بين الإدخال والإخراج.",
|
||||
"Add text here that would make the AI generate things you don't want in your outputs.": "أضف النص هنا الذي سيجعل الذكاء الصناعي يولد أشياء لا ترغب فيها في اخراجها.",
|
||||
"Phrase Repetition Penalty": "عقوبة تكرار العبارات",
|
||||
"Preamble": "مقدمة",
|
||||
|
@ -111,7 +111,7 @@
|
|||
"Documentation on sampling parameters": "وثائق حول معلمات العينات",
|
||||
"Set all samplers to their neutral/disabled state.": "ضبط جميع المحاكيات على حالتها الطبيعية/معطلة.",
|
||||
"Only enable this if your model supports context sizes greater than 4096 tokens": "قم بتمكين هذا فقط إذا كانت نموذجك يدعم مقاطع السياق بأحجام أكبر من 4096 رمزًا.",
|
||||
"Display the response bit by bit as it is generated": "عرض الاستجابة لحظيا كما يتم إنشاؤها.",
|
||||
"Streaming_desc": "عرض الاستجابة لحظيا كما يتم إنشاؤها.",
|
||||
"Generate only one line per request (KoboldAI only, ignored by KoboldCpp).": "توليد سطر واحد فقط لكل طلب (KoboldAI فقط، يتم تجاهله بواسطة KoboldCpp).",
|
||||
"Ban the End-of-Sequence (EOS) token (with KoboldCpp, and possibly also other tokens with KoboldAI).": "حظر رمز نهاية التسلسل (EOS) (مع KoboldCpp، وربما أيضًا الرموز الأخرى مع KoboldAI).",
|
||||
"Good for story writing, but should not be used for chat and instruct mode.": "جيد لكتابة القصص، ولكن يجب ألا يُستخدم للدردشة ووضع التعليمات.",
|
||||
|
@ -839,7 +839,7 @@
|
|||
"Extras API key (optional)": "مفتاح API الإضافي (اختياري)",
|
||||
"Notify on extension updates": "الإخطار بالتحديثات الإضافية",
|
||||
"Toggle character grid view": "تبديل طريقة عرض الى شبكة للشخصيات",
|
||||
"Bulk edit characters": "تحرير الشخصيات جميعها",
|
||||
"Bulk_edit_characters": "تحرير الشخصيات جميعها",
|
||||
"Bulk delete characters": "حذف الشخصيات جميعها",
|
||||
"Favorite characters to add them to HotSwaps": "اختر الشخصيات المفضلة لإضافتها إلى HotSwaps",
|
||||
"Underlined Text": "نص تحته خط",
|
||||
|
@ -908,7 +908,7 @@
|
|||
"Medium": "متوسط",
|
||||
"Aggressive": "عدواني",
|
||||
"Very aggressive": "عدواني للغاية",
|
||||
"Eta cutoff is the main parameter of the special Eta Sampling technique. In units of 1e-4; a reasonable value is 3. Set to 0 to disable. See the paper Truncation Sampling as Language Model Desmoothing by Hewitt et al. (2022) for details.": "قيمة القطع Eta هي المعلمة الرئيسية لتقنية عينة إيتا الخاصة. بوحدات 1e-4 ؛ القيمة المعقولة هي 3. قم بتعيينها على 0 لتعطيلها. انظر ورقة بحث عينة الانقطاع كما يمكن تسميتها باسم تلميع نموذج اللغة من قبل هيويت وآخرين (2022) للحصول على تفاصيل.",
|
||||
"Eta_Cutoff_desc": "قيمة القطع Eta هي المعلمة الرئيسية لتقنية عينة إيتا الخاصة. بوحدات 1e-4 ؛ القيمة المعقولة هي 3. قم بتعيينها على 0 لتعطيلها. انظر ورقة بحث عينة الانقطاع كما يمكن تسميتها باسم تلميع نموذج اللغة من قبل هيويت وآخرين (2022) للحصول على تفاصيل.",
|
||||
"Learn how to contribute your idle GPU cycles to the Horde": "تعلم كيفية المساهمة بدورات معالجة الرسومات الخاملة الخاصة بك في الهورد",
|
||||
"Use the appropriate tokenizer for Google models via their API. Slower prompt processing, but offers much more accurate token counting.": "استخدم المحلل النحوي المناسب لنماذج Google عبر واجهة برمجة التطبيقات الخاصة بهم. معالجة الإشارات الأولية بطيئة، ولكنها تقدم عداد رمز دقيق جدًا.",
|
||||
"Load koboldcpp order": "تحميل أمر koboldcpp",
|
||||
|
|
|
@ -15,12 +15,12 @@
|
|||
"rep.pen range": "Bereich der Wiederholungsstrafe",
|
||||
"Temperature controls the randomness in token selection": "Die Temperatur steuert die Zufälligkeit bei der Tokenauswahl:\n- Eine niedrige Temperatur (<1,0) führt zu intelligenterem Text, wobei häufig auftretende Tokens (Wörter oder Zeichen) priorisiert werden.\n- Eine hohe Temperatur (>1,0) erhöht die Kreativität und die Vielfalt der Ausgabe, wobei seltenere Tokens (Wörter oder Zeichen) eine größere Chance haben.\nStelle den Wert auf 1,0 für die Standardwahrscheinlichkeiten ein.",
|
||||
"temperature": "Temperatur",
|
||||
"Top K sets a maximum amount of top tokens that can be chosen from": "Top K legt ein Limit für die obersten Tokens fest, die ausgewählt werden können.",
|
||||
"Top P (a.k.a. nucleus sampling)": "Top P (auch bekannt als Kernsampling) kombiniert alle erforderlichen obersten Tokens, um einen bestimmten Prozentsatz zu erreichen.\nAnders ausgedrückt, wenn die obersten 2 Tokens 25% ausmachen und Top P 0,50 beträgt, werden nur diese beiden obersten Tokens berücksichtigt.\nStelle den Wert auf 1,0, um dies zu deaktivieren.",
|
||||
"Typical P Sampling prioritizes tokens based on their deviation from the average entropy of the set": "Bei der typischen P-Stichprobe werden Tokens priorisiert, basierend auf ihrer Abweichung von der durchschnittlichen Entropie des Satzes.\nTokens mit einer kumulierten Wahrscheinlichkeit nahe am definierten Schwellenwert (z. B. 0,5) werden beibehalten, was darauf hinweist, dass sie einen mittleren Informationsgehalt haben.\nStelle den Wert auf 1,0, um dies zu deaktivieren.",
|
||||
"Min P sets a base minimum probability": "Min P legt eine Basismindestwahrscheinlichkeit fest. Diese wird basierend auf der Wahrscheinlichkeit des obersten Tokens optimiert.\nWenn die Wahrscheinlichkeit des obersten Tokens 80% beträgt und Min P 0,1 beträgt, werden nur Tokens mit einer Wahrscheinlichkeit von mehr als 8% berücksichtigt.\nStelle den Wert auf 0,0, um dies zu deaktivieren.",
|
||||
"Top A sets a threshold for token selection based on the square of the highest token probability": "Top A legt einen Schwellenwert für die Tokenauswahl basierend auf dem Quadrat der höchsten Tokenwahrscheinlichkeit fest.\nWenn Top A 0,2 beträgt und die Wahrscheinlichkeit des obersten Tokens 50% beträgt, werden Tokens mit einer Wahrscheinlichkeit von weniger als 5% ausgeschlossen (0,2 * 0,5^2).\nStelle den Wert auf 0,0, um dies zu deaktivieren.",
|
||||
"Tail-Free Sampling (TFS)": "Schwanzfreie Stichprobe (TFS) sucht nach schwach wahrscheinlichen Tokens in der Verteilung,\n indem sie die Änderungsrate der Tokenwahrscheinlichkeiten mithilfe von Derivaten analysiert. Tokens werden bis zu einer bestimmten Schwelle (z. B. 0,3) beibehalten, basierend auf der zweiten einheitlichen Ableitung.\nJe näher 0, desto mehr Tokens werden abgelehnt. Stelle den Wert auf 1,0, um dies zu deaktivieren.",
|
||||
"Top_K_desc": "Top K legt ein Limit für die obersten Tokens fest, die ausgewählt werden können.",
|
||||
"Top_P_desc": "Top P (auch bekannt als Kernsampling) kombiniert alle erforderlichen obersten Tokens, um einen bestimmten Prozentsatz zu erreichen.\nAnders ausgedrückt, wenn die obersten 2 Tokens 25% ausmachen und Top P 0,50 beträgt, werden nur diese beiden obersten Tokens berücksichtigt.\nStelle den Wert auf 1,0, um dies zu deaktivieren.",
|
||||
"Typical_P_desc": "Bei der typischen P-Stichprobe werden Tokens priorisiert, basierend auf ihrer Abweichung von der durchschnittlichen Entropie des Satzes.\nTokens mit einer kumulierten Wahrscheinlichkeit nahe am definierten Schwellenwert (z. B. 0,5) werden beibehalten, was darauf hinweist, dass sie einen mittleren Informationsgehalt haben.\nStelle den Wert auf 1,0, um dies zu deaktivieren.",
|
||||
"Min_P_desc": "Min P legt eine Basismindestwahrscheinlichkeit fest. Diese wird basierend auf der Wahrscheinlichkeit des obersten Tokens optimiert.\nWenn die Wahrscheinlichkeit des obersten Tokens 80% beträgt und Min P 0,1 beträgt, werden nur Tokens mit einer Wahrscheinlichkeit von mehr als 8% berücksichtigt.\nStelle den Wert auf 0,0, um dies zu deaktivieren.",
|
||||
"Top_A_desc": "Top A legt einen Schwellenwert für die Tokenauswahl basierend auf dem Quadrat der höchsten Tokenwahrscheinlichkeit fest.\nWenn Top A 0,2 beträgt und die Wahrscheinlichkeit des obersten Tokens 50% beträgt, werden Tokens mit einer Wahrscheinlichkeit von weniger als 5% ausgeschlossen (0,2 * 0,5^2).\nStelle den Wert auf 0,0, um dies zu deaktivieren.",
|
||||
"Tail_Free_Sampling_desc": "Schwanzfreie Stichprobe (TFS) sucht nach schwach wahrscheinlichen Tokens in der Verteilung,\n indem sie die Änderungsrate der Tokenwahrscheinlichkeiten mithilfe von Derivaten analysiert. Tokens werden bis zu einer bestimmten Schwelle (z. B. 0,3) beibehalten, basierend auf der zweiten einheitlichen Ableitung.\nJe näher 0, desto mehr Tokens werden abgelehnt. Stelle den Wert auf 1,0, um dies zu deaktivieren.",
|
||||
"Epsilon cutoff sets a probability floor below which tokens are excluded from being sampled": "Epsilon-Cutoff legt einen Wahrscheinlichkeitsboden fest, unter dem Tokens vom Abtasten ausgeschlossen werden.\nIn Einheiten von 1e-4; der geeignete Wert ist 3.\nStelle 0,0 ein, um dies zu deaktivieren.",
|
||||
"Scale Temperature dynamically per token, based on the variation of probabilities": "Die Skalierung der Temperatur wird dynamisch pro Token festgelegt, basierend auf der Variation der Wahrscheinlichkeiten.",
|
||||
"Minimum Temp": "Minimale Temperatur",
|
||||
|
@ -33,7 +33,7 @@
|
|||
"Learning rate of Mirostat": "Lernrate von Mirostat.",
|
||||
"Strength of the Contrastive Search regularization term. Set to 0 to disable CS": "Stärke des Regularisierungsterms für den kontrastiven Suchvorgang. Setze ihn auf 0, um CS zu deaktivieren.",
|
||||
"Temperature Last": "Letzte Temperatur",
|
||||
"Use the temperature sampler last": "Benutz den Temperaturmuster zuletzt. Ist normalerweise sinnvoll.\nWenn aktiviert, werden zuerst eine Gruppe potenzieller Tokens ausgewählt und dann wird die Temperatur angewendet, um ihre relativen Wahrscheinlichkeiten (technisch: Logits) zu korrigieren.\nWenn deaktiviert, wird die Temperatur zuerst angewendet, um die relativen Wahrscheinlichkeiten für alle Tokens zu korrigieren, und dann wird eine Gruppe potenzieller Tokens daraus ausgewählt.\nDas Deaktivieren der Temperatur am Ende erhöht die Wahrscheinlichkeit von Tokens im Schwanz der Verteilung und erhöht die Wahrscheinlichkeit inkonsistenter Antworten.",
|
||||
"Temperature_Last_desc": "Benutz den Temperaturmuster zuletzt. Ist normalerweise sinnvoll.\nWenn aktiviert, werden zuerst eine Gruppe potenzieller Tokens ausgewählt und dann wird die Temperatur angewendet, um ihre relativen Wahrscheinlichkeiten (technisch: Logits) zu korrigieren.\nWenn deaktiviert, wird die Temperatur zuerst angewendet, um die relativen Wahrscheinlichkeiten für alle Tokens zu korrigieren, und dann wird eine Gruppe potenzieller Tokens daraus ausgewählt.\nDas Deaktivieren der Temperatur am Ende erhöht die Wahrscheinlichkeit von Tokens im Schwanz der Verteilung und erhöht die Wahrscheinlichkeit inkonsistenter Antworten.",
|
||||
"LLaMA / Mistral / Yi models only": "Nur für LLaMA / Mistral / Yi-Modelle. Stelle sicher, dass du zuerst den richtigen Analyzer auswählst.\nStrings sollten nicht in den Ergebnissen erscheinen.\nEine Zeichenfolge pro Zeile. Text oder [Zeichenkennungen].\nViele Zeichen beginnen mit einem Leerzeichen. Verwende den Zeichenzähler, wenn du unsicher bist.",
|
||||
"Example: some text [42, 69, 1337]": "Beispiel:\nEin bisschen Text\n[42, 69, 1337]",
|
||||
"Classifier Free Guidance. More helpful tip coming soon": "Anleitung ohne Klassifizierer. Bald kommen weitere hilfreiche Tipps.",
|
||||
|
@ -86,7 +86,7 @@
|
|||
"Eta Cutoff": "Eta-Abschaltung",
|
||||
"Negative Prompt": "Negatives Prompt",
|
||||
"Mirostat (mode=1 is only for llama.cpp)": "Mirostat (Modus=1 gilt nur für llama.cpp)",
|
||||
"Mirostat is a thermostat for output perplexity": "Mirostat ist ein Thermostat für die Ausgangsperplexität. Es ist ein Mechanismus zur Anpassung der Ausgangsschwierigkeit, um Konsistenz zwischen Eingabe und Ausgabe zu erreichen.",
|
||||
"Mirostat_desc": "Mirostat ist ein Thermostat für die Ausgangsperplexität. Es ist ein Mechanismus zur Anpassung der Ausgangsschwierigkeit, um Konsistenz zwischen Eingabe und Ausgabe zu erreichen.",
|
||||
"Add text here that would make the AI generate things you don't want in your outputs.": "Füge hier Text hinzu, der die KI dazu bringen würde, Dinge zu generieren, die du nicht in deinen Ausgaben haben möchtest.",
|
||||
"Phrase Repetition Penalty": "Strafe für wiederholte Phrasen",
|
||||
"Preamble": "Vorwort",
|
||||
|
@ -110,7 +110,7 @@
|
|||
"Documentation on sampling parameters": "Dokumentation zu Abtastparametern",
|
||||
"Set all samplers to their neutral/disabled state.": "Setze alle Sampler auf ihren neutralen/deaktivierten Zustand.",
|
||||
"Only enable this if your model supports context sizes greater than 4096 tokens": "Aktiviere dies nur, wenn dein Modell Kontextgrößen von mehr als 4096 Tokens unterstützt.",
|
||||
"Display the response bit by bit as it is generated": "Zeige die Antwort Stück für Stück an, während sie generiert wird.",
|
||||
"Streaming_desc": "Zeige die Antwort Stück für Stück an, während sie generiert wird.",
|
||||
"Generate only one line per request (KoboldAI only, ignored by KoboldCpp).": "Generiere pro Anfrage nur eine Zeile (nur KoboldAI, wird von KoboldCpp ignoriert).",
|
||||
"Ban the End-of-Sequence (EOS) token (with KoboldCpp, and possibly also other tokens with KoboldAI).": "Sperre das End-of-Sequence (EOS)-Token (mit KoboldCpp und möglicherweise auch andere Tokens mit KoboldAI).",
|
||||
"Good for story writing, but should not be used for chat and instruct mode.": "Gut für das Schreiben von Geschichten, sollte aber nicht für den Chat- und Anweisungsmodus verwendet werden.",
|
||||
|
@ -838,7 +838,7 @@
|
|||
"Extras API key (optional)": "Zusätzlicher API-Schlüssel (optional)",
|
||||
"Notify on extension updates": "Benachrichtigen bei Erweiterungsaktualisierungen",
|
||||
"Toggle character grid view": "Rasteransicht des Charakters umschalten",
|
||||
"Bulk edit characters": "Massenbearbeitung von Charakteren",
|
||||
"Bulk_edit_characters": "Massenbearbeitung von Charakteren",
|
||||
"Bulk delete characters": "Massenlöschung von Charakteren",
|
||||
"Favorite characters to add them to HotSwaps": "Favoritencharaktere hinzufügen, um sie zu HotSwaps hinzuzufügen",
|
||||
"Underlined Text": "Unterstrichener Text",
|
||||
|
@ -907,7 +907,7 @@
|
|||
"Medium": "Mittel",
|
||||
"Aggressive": "Aggressiv",
|
||||
"Very aggressive": "Sehr aggressiv",
|
||||
"Eta cutoff is the main parameter of the special Eta Sampling technique. In units of 1e-4; a reasonable value is 3. Set to 0 to disable. See the paper Truncation Sampling as Language Model Desmoothing by Hewitt et al. (2022) for details.": "Eta-Cutoff ist der Hauptparameter der speziellen Eta-Beprobungstechnik. In Einheiten von 1e-4; ein vernünftiger Wert ist 3. Auf 0 setzen, um zu deaktivieren. Siehe das Paper Truncation Sampling as Language Model Desmoothing von Hewitt et al. (2022) für Details.",
|
||||
"Eta_Cutoff_desc": "Eta-Cutoff ist der Hauptparameter der speziellen Eta-Beprobungstechnik. In Einheiten von 1e-4; ein vernünftiger Wert ist 3. Auf 0 setzen, um zu deaktivieren. Siehe das Paper Truncation Sampling as Language Model Desmoothing von Hewitt et al. (2022) für Details.",
|
||||
"Learn how to contribute your idle GPU cycles to the Horde": "Erfahren Sie, wie Sie Ihre ungenutzten GPU-Zyklen zum Horde beitragen können",
|
||||
"Use the appropriate tokenizer for Google models via their API. Slower prompt processing, but offers much more accurate token counting.": "Verwenden Sie den geeigneten Tokenizer für Google-Modelle über deren API. Langsamere Prompt-Verarbeitung, bietet jedoch eine viel genauere Token-Zählung.",
|
||||
"Load koboldcpp order": "Laden Sie die Reihenfolge von koboldcpp",
|
||||
|
|
|
@ -15,12 +15,12 @@
|
|||
"rep.pen range": "rango de penalización de repetición",
|
||||
"Temperature controls the randomness in token selection": "La temperatura controla la aleatoriedad en la selección de tokens",
|
||||
"temperature": "Temperatura",
|
||||
"Top K sets a maximum amount of top tokens that can be chosen from": "Top K establece una cantidad máxima de tokens principales que se pueden elegir",
|
||||
"Top P (a.k.a. nucleus sampling)": "Top P (también conocido como muestreo de núcleo)",
|
||||
"Typical P Sampling prioritizes tokens based on their deviation from the average entropy of the set": "El Muestreo P Típico prioriza tokens según su desviación de la entropía promedio del conjunto",
|
||||
"Min P sets a base minimum probability": "Min P establece una probabilidad mínima base",
|
||||
"Top A sets a threshold for token selection based on the square of the highest token probability": "Top A establece un umbral para la selección de tokens basado en el cuadrado de la probabilidad de token más alta",
|
||||
"Tail-Free Sampling (TFS)": "Muestreo sin cola (TFS)",
|
||||
"Top_K_desc": "Top K establece una cantidad máxima de tokens principales que se pueden elegir",
|
||||
"Top_P_desc": "Top P (también conocido como muestreo de núcleo)",
|
||||
"Typical_P_desc": "El Muestreo P Típico prioriza tokens según su desviación de la entropía promedio del conjunto",
|
||||
"Min_P_desc": "Min P establece una probabilidad mínima base",
|
||||
"Top_A_desc": "Top A establece un umbral para la selección de tokens basado en el cuadrado de la probabilidad de token más alta",
|
||||
"Tail_Free_Sampling_desc": "Muestreo sin cola (TFS)",
|
||||
"Epsilon cutoff sets a probability floor below which tokens are excluded from being sampled": "El corte Epsilon establece un límite de probabilidad por debajo del cual se excluyen los tokens de ser muestreados",
|
||||
"Scale Temperature dynamically per token, based on the variation of probabilities": "Escala la Temperatura dinámicamente por token, basado en la variación de probabilidades",
|
||||
"Minimum Temp": "Temperatura mínima",
|
||||
|
@ -33,7 +33,7 @@
|
|||
"Learning rate of Mirostat": "Tasa de aprendizaje de Mirostat",
|
||||
"Strength of the Contrastive Search regularization term. Set to 0 to disable CS": "Fuerza del término de regularización de la Búsqueda Contrastiva. Establece en 0 para deshabilitar CS.",
|
||||
"Temperature Last": "Temperatura de Último",
|
||||
"Use the temperature sampler last": "Usar el muestreador de temperatura al final",
|
||||
"Temperature_Last_desc": "Usar el muestreador de temperatura al final",
|
||||
"LLaMA / Mistral / Yi models only": "Solo modelos LLaMA / Mistral / Yi",
|
||||
"Example: some text [42, 69, 1337]": "Ejemplo: algún texto [42, 69, 1337]",
|
||||
"Classifier Free Guidance. More helpful tip coming soon": "Guía Libre de Clasificadores. Pronto llegará un consejo más útil",
|
||||
|
@ -86,7 +86,7 @@
|
|||
"Eta Cutoff": "Corte Eta",
|
||||
"Negative Prompt": "Indicaciónes negativas",
|
||||
"Mirostat (mode=1 is only for llama.cpp)": "Mirostat (modo=1 es solo para llama.cpp)",
|
||||
"Mirostat is a thermostat for output perplexity": "Mirostat es un termostato para la perplejidad de salida",
|
||||
"Mirostat_desc": "Mirostat es un termostato para la perplejidad de salida",
|
||||
"Add text here that would make the AI generate things you don't want in your outputs.": "Agrega aquí texto que haría que la IA genere cosas que no quieres en tus salidas.",
|
||||
"Phrase Repetition Penalty": "Penalización por repetición de frases",
|
||||
"Preamble": "Preambulo",
|
||||
|
@ -110,7 +110,7 @@
|
|||
"Documentation on sampling parameters": "Documentación sobre parámetros de muestreo",
|
||||
"Set all samplers to their neutral/disabled state.": "Establecer todos los muestreadores en su estado neutral/desactivado.",
|
||||
"Only enable this if your model supports context sizes greater than 4096 tokens": "Habilita esto solo si tu modelo admite tamaños de contexto mayores de 4096 tokens",
|
||||
"Display the response bit by bit as it is generated": "Mostrar la respuesta poco a poco según se genera",
|
||||
"Streaming_desc": "Mostrar la respuesta poco a poco según se genera",
|
||||
"Generate only one line per request (KoboldAI only, ignored by KoboldCpp).": "Generar solo una línea por solicitud (solo KoboldAI, ignorado por KoboldCpp).",
|
||||
"Ban the End-of-Sequence (EOS) token (with KoboldCpp, and possibly also other tokens with KoboldAI).": "Prohibir el token Fin-de-Secuencia (EOS) (con KoboldCpp, y posiblemente también otros tokens con KoboldAI).",
|
||||
"Good for story writing, but should not be used for chat and instruct mode.": "Bueno para escribir historias, pero no debería usarse para el modo de chat e instrucción.",
|
||||
|
@ -838,7 +838,7 @@
|
|||
"Extras API key (optional)": "Clave API de Extras (opcional)",
|
||||
"Notify on extension updates": "Notificar sobre actualizaciones de extensión",
|
||||
"Toggle character grid view": "Alternar vista de cuadrícula de personajes",
|
||||
"Bulk edit characters": "Editar personajes masivamente",
|
||||
"Bulk_edit_characters": "Editar personajes masivamente",
|
||||
"Bulk delete characters": "Eliminar personajes masivamente",
|
||||
"Favorite characters to add them to HotSwaps": "Marcar personajes como favoritos para añadirlos a HotSwaps",
|
||||
"Underlined Text": "Texto subrayado",
|
||||
|
@ -908,7 +908,7 @@
|
|||
"Medium": "Medio",
|
||||
"Aggressive": "Agresivo",
|
||||
"Very aggressive": "Muy agresivo",
|
||||
"Eta cutoff is the main parameter of the special Eta Sampling technique. In units of 1e-4; a reasonable value is 3. Set to 0 to disable. See the paper Truncation Sampling as Language Model Desmoothing by Hewitt et al. (2022) for details.": "El Corte de Eta es el parámetro principal de la técnica especial de Muestreo Eta. En unidades de 1e-4; un valor razonable es 3. Establecer en 0 para desactivar. Consulte el documento Truncation Sampling as Language Model Desmoothing de Hewitt et al. (2022) para más detalles.",
|
||||
"Eta_Cutoff_desc": "El Corte de Eta es el parámetro principal de la técnica especial de Muestreo Eta. En unidades de 1e-4; un valor razonable es 3. Establecer en 0 para desactivar. Consulte el documento Truncation Sampling as Language Model Desmoothing de Hewitt et al. (2022) para más detalles.",
|
||||
"Learn how to contribute your idle GPU cycles to the Horde": "Aprende cómo contribuir con tus ciclos de GPU inactivos a Horde",
|
||||
"Use the appropriate tokenizer for Google models via their API. Slower prompt processing, but offers much more accurate token counting.": "Usa el tokenizador apropiado para los modelos de Google a través de su API. Procesamiento de indicaciones más lento, pero ofrece un recuento de tokens mucho más preciso.",
|
||||
"Load koboldcpp order": "Cargar orden de koboldcpp",
|
||||
|
|
|
@ -15,12 +15,12 @@
|
|||
"rep.pen range": "Plage de pénalité de répétition",
|
||||
"Temperature controls the randomness in token selection": "La température contrôle l'aléatoire dans la sélection des tokens:\n- Une température basse (<1.0) entraîne un texte plus prévisible, en donnant la priorité aux tokens à forte probabilité.\n- Une température élevée (>1.0) favorise la créativité et la diversité de sortie, en donnant plus de chances aux tokens à faible probabilité.\nRéglez la valeur à 1.0 pour les probabilités d'origine.",
|
||||
"temperature": "Température",
|
||||
"Top K sets a maximum amount of top tokens that can be chosen from": "Top K définit une quantité maximale de tokens les plus fréquents qui peuvent être sélectionnés.",
|
||||
"Top P (a.k.a. nucleus sampling)": "Top P (alias échantillonnage du noyau) regroupe tous les tokens supérieurs nécessaires pour atteindre un pourcentage spécifique.\nAutrement dit, si les deux premiers tokens représentent 25 % et que Top-P est de 0,50, seuls ces deux tokens sont considérés.\nRéglez la valeur à 1.0 pour la désactiver.",
|
||||
"Typical P Sampling prioritizes tokens based on their deviation from the average entropy of the set": "L'échantillonnage P typique privilégie les tokens en fonction de leur écart par rapport à l'entropie moyenne de l'ensemble.\nLes tokens dont la probabilité cumulée est proche du seuil spécifié (par exemple, 0.5) sont conservés, ce qui distingue ceux contenant une information moyenne.\nRéglez la valeur à 1.0 pour la désactiver.",
|
||||
"Min P sets a base minimum probability": "Min P définit une probabilité minimale de base. Elle est optimisée en fonction de la probabilité du token supérieur.\nSi la probabilité du token supérieur est de 80 % et que Min P est de 0.1, seuls les tokens avec une probabilité supérieure à 8 % sont considérés.\nRéglez la valeur à 0 pour la désactiver.",
|
||||
"Top A sets a threshold for token selection based on the square of the highest token probability": "Top A définit un seuil pour la sélection des tokens en fonction du carré de la probabilité du token le plus élevé.\nSi Top A est de 0.2 et que la probabilité du token le plus élevé est de 50 %, les tokens avec une probabilité inférieure à 5 % sont exclus (0.2 * 0.5^2).\nRéglez la valeur à 0 pour la désactiver.",
|
||||
"Tail-Free Sampling (TFS)": "Échantillonnage sans queue (TFS) recherche les tokens de queue ayant une faible probabilité dans la distribution,\n en analysant le taux de changement des probabilités des tokens à l'aide de dérivées. Les tokens sont conservés jusqu'au seuil (par exemple, 0.3), en fonction de la dérivée seconde uniforme.\nPlus la valeur se rapproche de 0, plus le nombre de tokens rejetés augmente. Réglez la valeur à 1.0 pour la désactiver.",
|
||||
"Top_K_desc": "Top K définit une quantité maximale de tokens les plus fréquents qui peuvent être sélectionnés.",
|
||||
"Top_P_desc": "Top P (alias échantillonnage du noyau) regroupe tous les tokens supérieurs nécessaires pour atteindre un pourcentage spécifique.\nAutrement dit, si les deux premiers tokens représentent 25 % et que Top-P est de 0,50, seuls ces deux tokens sont considérés.\nRéglez la valeur à 1.0 pour la désactiver.",
|
||||
"Typical_P_desc": "L'échantillonnage P typique privilégie les tokens en fonction de leur écart par rapport à l'entropie moyenne de l'ensemble.\nLes tokens dont la probabilité cumulée est proche du seuil spécifié (par exemple, 0.5) sont conservés, ce qui distingue ceux contenant une information moyenne.\nRéglez la valeur à 1.0 pour la désactiver.",
|
||||
"Min_P_desc": "Min P définit une probabilité minimale de base. Elle est optimisée en fonction de la probabilité du token supérieur.\nSi la probabilité du token supérieur est de 80 % et que Min P est de 0.1, seuls les tokens avec une probabilité supérieure à 8 % sont considérés.\nRéglez la valeur à 0 pour la désactiver.",
|
||||
"Top_A_desc": "Top A définit un seuil pour la sélection des tokens en fonction du carré de la probabilité du token le plus élevé.\nSi Top A est de 0.2 et que la probabilité du token le plus élevé est de 50 %, les tokens avec une probabilité inférieure à 5 % sont exclus (0.2 * 0.5^2).\nRéglez la valeur à 0 pour la désactiver.",
|
||||
"Tail_Free_Sampling_desc": "Échantillonnage sans queue (TFS) recherche les tokens de queue ayant une faible probabilité dans la distribution,\n en analysant le taux de changement des probabilités des tokens à l'aide de dérivées. Les tokens sont conservés jusqu'au seuil (par exemple, 0.3), en fonction de la dérivée seconde uniforme.\nPlus la valeur se rapproche de 0, plus le nombre de tokens rejetés augmente. Réglez la valeur à 1.0 pour la désactiver.",
|
||||
"Epsilon cutoff sets a probability floor below which tokens are excluded from being sampled": "La coupure epsilon définit un seuil de probabilité en dessous duquel les tokens sont exclus de l'échantillonnage.\nEn unités 1e-4; la valeur appropriée est 3. Réglez-la à 0 pour la désactiver.",
|
||||
"Scale Temperature dynamically per token, based on the variation of probabilities": "Échelonnez dynamiquement la température par token, en fonction de la variation des probabilités.",
|
||||
"Minimum Temp": "Température minimale",
|
||||
|
@ -33,7 +33,7 @@
|
|||
"Learning rate of Mirostat": "Taux d'apprentissage de Mirostat.",
|
||||
"Strength of the Contrastive Search regularization term. Set to 0 to disable CS": "Force du terme de régularisation de la recherche contrastive. Réglez la valeur à 0 pour désactiver CS.",
|
||||
"Temperature Last": "Température en dernier",
|
||||
"Use the temperature sampler last": "Utilisez le réglage de température en dernier. Cela est généralement logique.\nLorsqu'il est activé : une sélection de tokens potentiels est d'abord effectuée, puis la température est appliquée pour corriger leurs probabilités relatives (techniquement, les log-likelihoods).\nLorsqu'il est désactivé : la température est d'abord appliquée pour corriger les probabilités relatives de tous les tokens, puis une sélection de tokens potentiels est effectuée parmi eux.\nDésactivez la température en dernier.",
|
||||
"Temperature_Last_desc": "Utilisez le réglage de température en dernier. Cela est généralement logique.\nLorsqu'il est activé : une sélection de tokens potentiels est d'abord effectuée, puis la température est appliquée pour corriger leurs probabilités relatives (techniquement, les log-likelihoods).\nLorsqu'il est désactivé : la température est d'abord appliquée pour corriger les probabilités relatives de tous les tokens, puis une sélection de tokens potentiels est effectuée parmi eux.\nDésactivez la température en dernier.",
|
||||
"LLaMA / Mistral / Yi models only": "Modèles LLaMA / Mistral / Yi uniquement. Assurez-vous de sélectionner d'abord l'analyste approprié.\nLes chaînes de caractères ne doivent pas apparaître dans les résultats.\nUne chaîne par ligne. Texte ou [identifiants de tokens].\nDe nombreux tokens commencent par un espace. Utilisez un compteur de tokens si vous n'êtes pas sûr.",
|
||||
"Example: some text [42, 69, 1337]": "Exemple:\nun certain texte\n[42, 69, 1337]",
|
||||
"Classifier Free Guidance. More helpful tip coming soon": "Guidance gratuite du classificateur. Des conseils plus utiles arrivent bientôt.",
|
||||
|
@ -86,7 +86,7 @@
|
|||
"Eta Cutoff": "Coupure eta",
|
||||
"Negative Prompt": "Indication négative",
|
||||
"Mirostat (mode=1 is only for llama.cpp)": "Mirostat (le mode=1 est uniquement pour llama.cpp)",
|
||||
"Mirostat is a thermostat for output perplexity": "Mirostat est un thermostat pour la perplexité de sortie",
|
||||
"Mirostat_desc": "Mirostat est un thermostat pour la perplexité de sortie",
|
||||
"Add text here that would make the AI generate things you don't want in your outputs.": "Ajoutez ici du texte qui ferait générer à l'IA des choses que vous ne voulez pas dans vos sorties.",
|
||||
"Phrase Repetition Penalty": "Pénalité de répétition de phrase",
|
||||
"Preamble": "Préambule",
|
||||
|
@ -110,7 +110,7 @@
|
|||
"Documentation on sampling parameters": "Documentation sur les paramètres d'échantillonnage",
|
||||
"Set all samplers to their neutral/disabled state.": "Définir tous les échantillonneurs sur leur état neutre/désactivé.",
|
||||
"Only enable this if your model supports context sizes greater than 4096 tokens": "Activez cela uniquement si votre modèle prend en charge des tailles de contexte supérieures à 4096 tokens",
|
||||
"Display the response bit by bit as it is generated": "Afficher la réponse bit par bit au fur et à mesure de sa génération",
|
||||
"Streaming_desc": "Afficher la réponse bit par bit au fur et à mesure de sa génération",
|
||||
"Generate only one line per request (KoboldAI only, ignored by KoboldCpp).": "Générer seulement une ligne par demande (KoboldAI uniquement, ignoré par KoboldCpp).",
|
||||
"Ban the End-of-Sequence (EOS) token (with KoboldCpp, and possibly also other tokens with KoboldAI).": "Interdire le jeton de fin de séquence (EOS) (avec KoboldCpp, et éventuellement aussi d'autres jetons avec KoboldAI).",
|
||||
"Good for story writing, but should not be used for chat and instruct mode.": "Bon pour l'écriture d'histoires, mais ne devrait pas être utilisé pour la discussion et le mode d'instruction.",
|
||||
|
@ -838,7 +838,7 @@
|
|||
"Extras API key (optional)": "Clé API supplémentaire (facultatif)",
|
||||
"Notify on extension updates": "Notifier les mises à jour de l'extension",
|
||||
"Toggle character grid view": "Basculer vers la vue en grille des personnages",
|
||||
"Bulk edit characters": "Édition en masse des personnages",
|
||||
"Bulk_edit_characters": "Édition en masse des personnages",
|
||||
"Bulk delete characters": "Suppression en masse des personnages",
|
||||
"Favorite characters to add them to HotSwaps": "Favoriser les personnages pour les ajouter aux HotSwaps",
|
||||
"Underlined Text": "Texte souligné",
|
||||
|
@ -907,7 +907,7 @@
|
|||
"Medium": "Moyen",
|
||||
"Aggressive": "Agressif",
|
||||
"Very aggressive": "Très agressif",
|
||||
"Eta cutoff is the main parameter of the special Eta Sampling technique. In units of 1e-4; a reasonable value is 3. Set to 0 to disable. See the paper Truncation Sampling as Language Model Desmoothing by Hewitt et al. (2022) for details.": "Le seuil Eta est le principal paramètre de la technique d'échantillonnage Eta spéciale. En unités de 1e-4 ; une valeur raisonnable est 3. Réglez sur 0 pour désactiver. Voir l'article Truncation Sampling as Language Model Desmoothing par Hewitt et al. (2022) pour plus de détails.",
|
||||
"Eta_Cutoff_desc": "Le seuil Eta est le principal paramètre de la technique d'échantillonnage Eta spéciale. En unités de 1e-4 ; une valeur raisonnable est 3. Réglez sur 0 pour désactiver. Voir l'article Truncation Sampling as Language Model Desmoothing par Hewitt et al. (2022) pour plus de détails.",
|
||||
"Learn how to contribute your idle GPU cycles to the Horde": "Apprenez comment contribuer vos cycles GPU inactifs à la Horde",
|
||||
"Use the appropriate tokenizer for Google models via their API. Slower prompt processing, but offers much more accurate token counting.": "Utilisez le tokenizer approprié pour les modèles Google via leur API. Traitement des invitations plus lent, mais offre un décompte de jetons beaucoup plus précis.",
|
||||
"Load koboldcpp order": "Charger l'ordre koboldcpp",
|
||||
|
|
|
@ -15,12 +15,12 @@
|
|||
"rep.pen range": "Svið endurtakarefsingar.",
|
||||
"Temperature controls the randomness in token selection": "Hitastig stjórnar handahófi í vali táknanna:\n- Lágt hitastig (<1,0) leiðir til snjallara texta, með að gefa forgang (fyrir setningar og orð) táknum með hátt líkur.\n- Hátt hitastig (>1,0) aukar nýsköpun og fjölbreytni í úttakinu, með að veita táknum (setningum og orðum) með lága líkur meiri tækifæri.\nSettu gildið 1,0 fyrir upprunalegar líkur.",
|
||||
"temperature": "Hitastig",
|
||||
"Top K sets a maximum amount of top tokens that can be chosen from": "Top K stillir hámarksfjölda efsta táknanna sem hægt er að velja úr.",
|
||||
"Top P (a.k.a. nucleus sampling)": "Top P (kallað kjarnaúrtaka) safnar saman öllum þeim efstu táknunum sem þarf til að ná ákveðnu prósentu hlutfalli.\nMeð öðrum orðum, ef efstu 2 táknin táknleggja 25%, og Top-P er 0,50, þá eru einungis þessi tvö tákn valin.\nSettu gildið 1,0 til að slökkva.",
|
||||
"Typical P Sampling prioritizes tokens based on their deviation from the average entropy of the set": "Venjuleg P-úrtaka veitir forgang táknum út frá afvíkni þeirra frá meðalfarbandi innihaldsgjafa.\nTákn sem hafa hæfnisgildi þeirra nærri fastmörkuninni (til dæmis, 0,5), eru varðveitt, sem greinir þá sem hafa meðalupplýsingar.\nSettu gildið 1,0 til að slökkva.",
|
||||
"Min P sets a base minimum probability": "Min P stillir grunnlægsta mögulegt líkur. Það er aðlagað út frá hæfnisgildi efstu táknanna.\nEf líkur fyrir efstu táknin eru 80%, og Min P er 0,1, aðeins tákn með líkur hærri en 8% eru tekin til greina.\nSettu gildið 0 til að slökkva.",
|
||||
"Top A sets a threshold for token selection based on the square of the highest token probability": "Top A stillir mörk fyrir táknaval samkvæmt ferningshæð hæstu tákns. \nEf Top A gildið er 0,2, og líkur fyrir hæstu táknið eru 50%, þá eru tákn með líkur lægri en 5% hafnað (0,2 * 0,5^2).\nSettu gildið 0 til að slökkva.",
|
||||
"Tail-Free Sampling (TFS)": "Tail-Free Sampling (TFS) leitar að litlum líkurum í dreifingu,\nmeð því að greina breytingar á tækifærismöguleikum táknanna með öðrum orðum. Hægt er að halda áfram með tákn allt að mörk (t.d. 0,3) miðað við önnur afleiðingar.\nSem betur fer að gildi sem liggur nálægt 0, því fleiri tákn eru hafnað. Settu gildið 1,0 til að slökkva.",
|
||||
"Top_K_desc": "Top K stillir hámarksfjölda efsta táknanna sem hægt er að velja úr.",
|
||||
"Top_P_desc": "Top P (kallað kjarnaúrtaka) safnar saman öllum þeim efstu táknunum sem þarf til að ná ákveðnu prósentu hlutfalli.\nMeð öðrum orðum, ef efstu 2 táknin táknleggja 25%, og Top-P er 0,50, þá eru einungis þessi tvö tákn valin.\nSettu gildið 1,0 til að slökkva.",
|
||||
"Typical_P_desc": "Venjuleg P-úrtaka veitir forgang táknum út frá afvíkni þeirra frá meðalfarbandi innihaldsgjafa.\nTákn sem hafa hæfnisgildi þeirra nærri fastmörkuninni (til dæmis, 0,5), eru varðveitt, sem greinir þá sem hafa meðalupplýsingar.\nSettu gildið 1,0 til að slökkva.",
|
||||
"Min_P_desc": "Min P stillir grunnlægsta mögulegt líkur. Það er aðlagað út frá hæfnisgildi efstu táknanna.\nEf líkur fyrir efstu táknin eru 80%, og Min P er 0,1, aðeins tákn með líkur hærri en 8% eru tekin til greina.\nSettu gildið 0 til að slökkva.",
|
||||
"Top_A_desc": "Top A stillir mörk fyrir táknaval samkvæmt ferningshæð hæstu tákns. \nEf Top A gildið er 0,2, og líkur fyrir hæstu táknið eru 50%, þá eru tákn með líkur lægri en 5% hafnað (0,2 * 0,5^2).\nSettu gildið 0 til að slökkva.",
|
||||
"Tail_Free_Sampling_desc": "Tail-Free Sampling (TFS) leitar að litlum líkurum í dreifingu,\nmeð því að greina breytingar á tækifærismöguleikum táknanna með öðrum orðum. Hægt er að halda áfram með tákn allt að mörk (t.d. 0,3) miðað við önnur afleiðingar.\nSem betur fer að gildi sem liggur nálægt 0, því fleiri tákn eru hafnað. Settu gildið 1,0 til að slökkva.",
|
||||
"Epsilon cutoff sets a probability floor below which tokens are excluded from being sampled": "Epsilon afskurður stillir lágmarks líkur þar sem tæknar eru útilokaðir frá sýnum.\nÍ einingum 1e-4; viðeigandi gildi er 3.\nSettu 0 til að slökkva.",
|
||||
"Scale Temperature dynamically per token, based on the variation of probabilities": "Hiti er stilltur afkvörðunartíma á hvern tákni, byggt á mismunandi líkur.",
|
||||
"Minimum Temp": "Lágmarks hitastig",
|
||||
|
@ -33,7 +33,7 @@
|
|||
"Learning rate of Mirostat": "Námshraði Mirostat.",
|
||||
"Strength of the Contrastive Search regularization term. Set to 0 to disable CS": "Styrkur samhæfðrar leitarmiðilsins. Settu gildið í 0 til að slökkva á CS.",
|
||||
"Temperature Last": "Hitastig síðast",
|
||||
"Use the temperature sampler last": "Notaðu hitastigsprófanirnar síðast. Þetta er almennt skynsamlegt.\nÞegar virkjun: Fyrst er valið sýn, þá er hitastigið beitt til að laga hlutfallslega líkur þeirra (tæknilega, logits).\nEf óvirkjað: Hitastigið er fyrst beitt til að laga hlutfallslegar líkur hvers tákns, þá er sýnt val sýnanna. \nAð slökkva á hitastigi síðast eykur líkur á tákn í endi dreifingarinnar, sem aukar möguleikana á ósamræmi.",
|
||||
"Temperature_Last_desc": "Notaðu hitastigsprófanirnar síðast. Þetta er almennt skynsamlegt.\nÞegar virkjun: Fyrst er valið sýn, þá er hitastigið beitt til að laga hlutfallslega líkur þeirra (tæknilega, logits).\nEf óvirkjað: Hitastigið er fyrst beitt til að laga hlutfallslegar líkur hvers tákns, þá er sýnt val sýnanna. \nAð slökkva á hitastigi síðast eykur líkur á tákn í endi dreifingarinnar, sem aukar möguleikana á ósamræmi.",
|
||||
"LLaMA / Mistral / Yi models only": "Aðeins fyrir LLaMA / Mistral / Yi mótela. Vinsamlegast ákveðið viðeigandi skoðunaraðgerð fyrst.\nRöðir sem þú vilt ekki sjá í niðurstöðunum.\nEin röð á hverjum línu. Texti eða [tákna auðkenni].\nFleiri tákn byrja á bilum. Notaðu táknafjölda ef þú ert ekki viss.",
|
||||
"Example: some text [42, 69, 1337]": "Dæmi:\nEitthvað texti\n[42, 69, 1337]",
|
||||
"Classifier Free Guidance. More helpful tip coming soon": "Leiðsögn óháð flokkara. Meiri hjálp kemur bráðar.",
|
||||
|
@ -87,7 +87,7 @@
|
|||
"Eta Cutoff": "Eta klippa",
|
||||
"Negative Prompt": "Neikvæð fyrirspurn",
|
||||
"Mirostat (mode=1 is only for llama.cpp)": "Mirostat (mode=1 er einungis fyrir llama.cpp)",
|
||||
"Mirostat is a thermostat for output perplexity": "Mirostat er hitamælir fyrir úttak hröðleika",
|
||||
"Mirostat_desc": "Mirostat er hitamælir fyrir úttak hröðleika",
|
||||
"Add text here that would make the AI generate things you don't want in your outputs.": "Bættu við texta sem myndi koma fram ef AI býr til hluti sem þú vilt ekki í úttökum þínum.",
|
||||
"Phrase Repetition Penalty": "Endurtekningartíma refning",
|
||||
"Preamble": "Forspil",
|
||||
|
@ -111,7 +111,7 @@
|
|||
"Documentation on sampling parameters": "Skráning um sýnishornseiginleika",
|
||||
"Set all samplers to their neutral/disabled state.": "Setjið alla samplara í hlutlausan/óvirkan ástand.",
|
||||
"Only enable this if your model supports context sizes greater than 4096 tokens": "Virkjið þetta aðeins ef stærð samhengis styður model meira en 4096 tákn.",
|
||||
"Display the response bit by bit as it is generated": "Birta svarið bita fyrir bita þegar það er myndað.",
|
||||
"Streaming_desc": "Birta svarið bita fyrir bita þegar það er myndað.",
|
||||
"Generate only one line per request (KoboldAI only, ignored by KoboldCpp).": "Myndið aðeins eina línu á hverju beiðni (aðeins KoboldAI, hunsað af KoboldCpp).",
|
||||
"Ban the End-of-Sequence (EOS) token (with KoboldCpp, and possibly also other tokens with KoboldAI).": "Bannið lokatakn fyrir röð (EOS) (með KoboldCpp, og mögulega einnig önnur tákn með KoboldAI).",
|
||||
"Good for story writing, but should not be used for chat and instruct mode.": "Gott fyrir saga að skrifa, en á ekki að nota fyrir spjall og leiðbeiningaform.",
|
||||
|
@ -839,7 +839,7 @@
|
|||
"Extras API key (optional)": "Aukastafi API lykill (valkvæmur)",
|
||||
"Notify on extension updates": "Tilkynna um uppfærslur á viðbótum",
|
||||
"Toggle character grid view": "Skipta um útlit á karakterkortum",
|
||||
"Bulk edit characters": "Breyta mörgum persónum í einu",
|
||||
"Bulk_edit_characters": "Breyta mörgum persónum í einu",
|
||||
"Bulk delete characters": "Eyða mörgum persónum í einu",
|
||||
"Favorite characters to add them to HotSwaps": "Setja uppáhalds persónur í HotSwaps",
|
||||
"Underlined Text": "Undirstrikaður texti",
|
||||
|
@ -908,7 +908,7 @@
|
|||
"Medium": "Miðlungs",
|
||||
"Aggressive": "Árásargjarn",
|
||||
"Very aggressive": "Mjög árásargjarn",
|
||||
"Eta cutoff is the main parameter of the special Eta Sampling technique. In units of 1e-4; a reasonable value is 3. Set to 0 to disable. See the paper Truncation Sampling as Language Model Desmoothing by Hewitt et al. (2022) for details.": "Eta afhending er aðalbreytan í sértækri Eta örlögum. Í einingum af 1e-4; skynsamlegt gildi er 3. Stillt á 0 til að óvirkja. Sjá greinina Truncation Sampling as Language Model Desmoothing eftir Hewitt et al. (2022) fyrir nánari upplýsingar.",
|
||||
"Eta_Cutoff_desc": "Eta afhending er aðalbreytan í sértækri Eta örlögum. Í einingum af 1e-4; skynsamlegt gildi er 3. Stillt á 0 til að óvirkja. Sjá greinina Truncation Sampling as Language Model Desmoothing eftir Hewitt et al. (2022) fyrir nánari upplýsingar.",
|
||||
"Learn how to contribute your idle GPU cycles to the Horde": "Lærðu hvernig þú getur stuðlað að hléum GPU hringjum þínum til Horde",
|
||||
"Use the appropriate tokenizer for Google models via their API. Slower prompt processing, but offers much more accurate token counting.": "Notaðu rétta tokenizer fyrir Google módel með þeirra API. Hægri umhvörf fyrir hvöttavinnslu, en býður upp á miklu nákvæmari talningu á táknunum.",
|
||||
"Load koboldcpp order": "Hlaðið inn færslu af koboldcpp",
|
||||
|
|
|
@ -15,12 +15,12 @@
|
|||
"rep.pen range": "Intervallo di pena per ripetizione",
|
||||
"Temperature controls the randomness in token selection": "La temperatura controlla la casualità nella selezione dei token",
|
||||
"temperature": "Temperatura",
|
||||
"Top K sets a maximum amount of top tokens that can be chosen from": "Top K imposta una quantità massima di token migliori che possono essere scelti",
|
||||
"Top P (a.k.a. nucleus sampling)": "Top P (alias campionamento del nucleo)",
|
||||
"Typical P Sampling prioritizes tokens based on their deviation from the average entropy of the set": "Il campionamento P tipico prioritizza i token in base alla loro deviazione dall'entropia media del set",
|
||||
"Min P sets a base minimum probability": "Min P imposta una probabilità minima di base",
|
||||
"Top A sets a threshold for token selection based on the square of the highest token probability": "Top A imposta una soglia per la selezione dei token in base al quadrato della probabilità più alta del token",
|
||||
"Tail-Free Sampling (TFS)": "Campionamento senza coda (TFS)",
|
||||
"Top_K_desc": "Top K imposta una quantità massima di token migliori che possono essere scelti",
|
||||
"Top_P_desc": "Top P (alias campionamento del nucleo)",
|
||||
"Typical_P_desc": "Il campionamento P tipico prioritizza i token in base alla loro deviazione dall'entropia media del set",
|
||||
"Min_P_desc": "Min P imposta una probabilità minima di base",
|
||||
"Top_A_desc": "Top A imposta una soglia per la selezione dei token in base al quadrato della probabilità più alta del token",
|
||||
"Tail_Free_Sampling_desc": "Campionamento senza coda (TFS)",
|
||||
"Epsilon cutoff sets a probability floor below which tokens are excluded from being sampled": "Il taglio epsilon imposta un limite di probabilità al di sotto del quale i token vengono esclusi dal campionamento",
|
||||
"Scale Temperature dynamically per token, based on the variation of probabilities": "Scala la temperatura dinamicamente per token, in base alla variazione delle probabilità",
|
||||
"Minimum Temp": "Temperatura minima",
|
||||
|
@ -33,7 +33,7 @@
|
|||
"Learning rate of Mirostat": "Tasso di apprendimento di Mirostat",
|
||||
"Strength of the Contrastive Search regularization term. Set to 0 to disable CS": "Intensità del termine di regolarizzazione della ricerca contrastiva. Impostare su 0 per disabilitare CS.",
|
||||
"Temperature Last": "Ultima temperatura",
|
||||
"Use the temperature sampler last": "Usa l'ultimo campionatore di temperatura",
|
||||
"Temperature_Last_desc": "Usa l'ultimo campionatore di temperatura",
|
||||
"LLaMA / Mistral / Yi models only": "Solo modelli LLaMA / Mistral / Yi",
|
||||
"Example: some text [42, 69, 1337]": "Esempio: un po' di testo [42, 69, 1337]",
|
||||
"Classifier Free Guidance. More helpful tip coming soon": "Guida gratuita del classificatore. Presto arriverà un consiglio più utile",
|
||||
|
@ -87,7 +87,7 @@
|
|||
"Eta Cutoff": "Taglio eta",
|
||||
"Negative Prompt": "Prompt negativo",
|
||||
"Mirostat (mode=1 is only for llama.cpp)": "Mirostat (la modalità=1 è solo per llama.cpp)",
|
||||
"Mirostat is a thermostat for output perplexity": "Mirostat è un termostato per la perplessità dell'output",
|
||||
"Mirostat_desc": "Mirostat è un termostato per la perplessità dell'output",
|
||||
"Add text here that would make the AI generate things you don't want in your outputs.": "Aggiungi qui del testo che farebbe generare all'IA cose che non vuoi nei tuoi output.",
|
||||
"Phrase Repetition Penalty": "Penalità per la ripetizione di frasi",
|
||||
"Preamble": "Preambolo",
|
||||
|
@ -111,7 +111,7 @@
|
|||
"Documentation on sampling parameters": "Documentazione sui parametri di campionamento",
|
||||
"Set all samplers to their neutral/disabled state.": "Imposta tutti i campionatori sullo stato neutro/disabilitato.",
|
||||
"Only enable this if your model supports context sizes greater than 4096 tokens": "Abilita solo se il tuo modello supporta dimensioni del contesto superiori a 4096 token",
|
||||
"Display the response bit by bit as it is generated": "Mostra la risposta pezzo per pezzo man mano che viene generata",
|
||||
"Streaming_desc": "Mostra la risposta pezzo per pezzo man mano che viene generata",
|
||||
"Generate only one line per request (KoboldAI only, ignored by KoboldCpp).": "Genera solo una riga per richiesta (solo KoboldAI, ignorato da KoboldCpp).",
|
||||
"Ban the End-of-Sequence (EOS) token (with KoboldCpp, and possibly also other tokens with KoboldAI).": "Bandisci il token End-of-Sequence (EOS) (con KoboldCpp, e possibilmente anche altri token con KoboldAI).",
|
||||
"Good for story writing, but should not be used for chat and instruct mode.": "Buono per scrivere storie, ma non dovrebbe essere usato per la chat e la modalità di istruzioni.",
|
||||
|
@ -839,7 +839,7 @@
|
|||
"Extras API key (optional)": "Chiave API extra (opzionale)",
|
||||
"Notify on extension updates": "Notifica sugli aggiornamenti dell'estensione",
|
||||
"Toggle character grid view": "Attiva/disattiva visualizzazione griglia personaggi",
|
||||
"Bulk edit characters": "Modifica personaggi in blocco",
|
||||
"Bulk_edit_characters": "Modifica personaggi in blocco",
|
||||
"Bulk delete characters": "Elimina personaggi in blocco",
|
||||
"Favorite characters to add them to HotSwaps": "Aggiungi personaggi preferiti per aggiungerli a HotSwaps",
|
||||
"Underlined Text": "Testo sottolineato",
|
||||
|
@ -908,7 +908,7 @@
|
|||
"Medium": "Medio",
|
||||
"Aggressive": "Aggressivo",
|
||||
"Very aggressive": "Molto aggressivo",
|
||||
"Eta cutoff is the main parameter of the special Eta Sampling technique. In units of 1e-4; a reasonable value is 3. Set to 0 to disable. See the paper Truncation Sampling as Language Model Desmoothing by Hewitt et al. (2022) for details.": "Il taglio Eta è il parametro principale della tecnica di campionamento Eta speciale. In unità di 1e-4; un valore ragionevole è 3. Impostare su 0 per disabilitare. Consultare l'articolo Truncation Sampling as Language Model Desmoothing di Hewitt et al. (2022) per i dettagli.",
|
||||
"Eta_Cutoff_desc": "Il taglio Eta è il parametro principale della tecnica di campionamento Eta speciale. In unità di 1e-4; un valore ragionevole è 3. Impostare su 0 per disabilitare. Consultare l'articolo Truncation Sampling as Language Model Desmoothing di Hewitt et al. (2022) per i dettagli.",
|
||||
"Learn how to contribute your idle GPU cycles to the Horde": "Scopri come contribuire ai cicli GPU inattivi all'Orda",
|
||||
"Use the appropriate tokenizer for Google models via their API. Slower prompt processing, but offers much more accurate token counting.": "Utilizza il tokenizer appropriato per i modelli Google tramite la loro API. Elaborazione dei prompt più lenta, ma offre un conteggio dei token molto più accurato.",
|
||||
"Load koboldcpp order": "Carica l'ordine koboldcpp",
|
||||
|
|
|
@ -15,12 +15,12 @@
|
|||
"rep.pen range": "繰り返しペナルティの範囲",
|
||||
"Temperature controls the randomness in token selection": "温度はトークン選択のランダム性を制御します",
|
||||
"temperature": "温度",
|
||||
"Top K sets a maximum amount of top tokens that can be chosen from": "Top Kは選択できるトップトークンの最大量を設定します",
|
||||
"Top P (a.k.a. nucleus sampling)": "Top P(別名核サンプリング)",
|
||||
"Typical P Sampling prioritizes tokens based on their deviation from the average entropy of the set": "典型的なPサンプリングは、セットの平均エントロピーからの偏差に基づいてトークンを優先します",
|
||||
"Min P sets a base minimum probability": "Min Pは基本的な最小確率を設定します",
|
||||
"Top A sets a threshold for token selection based on the square of the highest token probability": "Top Aは最高のトークン確率の二乗に基づいてトークン選択の閾値を設定します",
|
||||
"Tail-Free Sampling (TFS)": "Tail-Freeサンプリング(TFS)",
|
||||
"Top_K_desc": "Top Kは選択できるトップトークンの最大量を設定します",
|
||||
"Top_P_desc": "Top P(別名核サンプリング)",
|
||||
"Typical_P_desc": "典型的なPサンプリングは、セットの平均エントロピーからの偏差に基づいてトークンを優先します",
|
||||
"Min_P_desc": "Min Pは基本的な最小確率を設定します",
|
||||
"Top_A_desc": "Top Aは最高のトークン確率の二乗に基づいてトークン選択の閾値を設定します",
|
||||
"Tail_Free_Sampling_desc": "Tail-Freeサンプリング(TFS)",
|
||||
"Epsilon cutoff sets a probability floor below which tokens are excluded from being sampled": "イプシロンカットオフは、サンプリング対象から除外されるトークンの下限確率を設定します",
|
||||
"Scale Temperature dynamically per token, based on the variation of probabilities": "確率の変動に基づいて、トークンごとに温度を動的にスケーリングします",
|
||||
"Minimum Temp": "最低温度",
|
||||
|
@ -33,7 +33,7 @@
|
|||
"Learning rate of Mirostat": "Mirostatの学習率",
|
||||
"Strength of the Contrastive Search regularization term. Set to 0 to disable CS": "コントラスティブサーチの正則化項の強度。CSを無効にするには0に設定します",
|
||||
"Temperature Last": "最後の温度",
|
||||
"Use the temperature sampler last": "最後に温度サンプラを使用します",
|
||||
"Temperature_Last_desc": "最後に温度サンプラを使用します",
|
||||
"LLaMA / Mistral / Yi models only": "LLaMA / Mistral / Yiモデルのみ",
|
||||
"Example: some text [42, 69, 1337]": "例:いくつかのテキスト[42, 69, 1337]",
|
||||
"Classifier Free Guidance. More helpful tip coming soon": "分類器フリーガイダンス。より役立つヒントが近日公開されます",
|
||||
|
@ -86,7 +86,7 @@
|
|||
"Eta Cutoff": "エタカットオフ",
|
||||
"Negative Prompt": "ネガティブプロンプト",
|
||||
"Mirostat (mode=1 is only for llama.cpp)": "ミロスタット(mode=1はllama.cpp用)",
|
||||
"Mirostat is a thermostat for output perplexity": "ミロスタットは出力の混乱度のためのサーモスタットです",
|
||||
"Mirostat_desc": "ミロスタットは出力の混乱度のためのサーモスタットです",
|
||||
"Add text here that would make the AI generate things you don't want in your outputs.": "出力に望ましくないものを生成させるAIを作成するテキストをここに追加します。",
|
||||
"Phrase Repetition Penalty": "フレーズの繰り返しペナルティ",
|
||||
"Preamble": "前文",
|
||||
|
@ -110,7 +110,7 @@
|
|||
"Documentation on sampling parameters": "サンプリングパラメータのドキュメント",
|
||||
"Set all samplers to their neutral/disabled state.": "すべてのサンプラーを中立/無効の状態に設定します。",
|
||||
"Only enable this if your model supports context sizes greater than 4096 tokens": "モデルが4096トークンを超えるコンテキストサイズをサポートしている場合にのみ有効にします",
|
||||
"Display the response bit by bit as it is generated": "生成された応答をビット単位で表示します。",
|
||||
"Streaming_desc": "生成された応答をビット単位で表示します。",
|
||||
"Generate only one line per request (KoboldAI only, ignored by KoboldCpp).": "リクエストごとに1行のみ生成します(KoboldAIのみ、KoboldCppでは無視されます)。",
|
||||
"Ban the End-of-Sequence (EOS) token (with KoboldCpp, and possibly also other tokens with KoboldAI).": "シーケンスの末尾(EOS)トークンを禁止します(KoboldCppでは、KoboldAIの他のトークンも可能性があります)。",
|
||||
"Good for story writing, but should not be used for chat and instruct mode.": "物語の執筆に適していますが、チャットや指示モードには使用しないでください。",
|
||||
|
@ -838,7 +838,7 @@
|
|||
"Extras API key (optional)": "エクストラAPIキー(オプション)",
|
||||
"Notify on extension updates": "拡張機能の更新時に通知",
|
||||
"Toggle character grid view": "キャラクターグリッドビューの切り替え",
|
||||
"Bulk edit characters": "キャラクターを一括編集",
|
||||
"Bulk_edit_characters": "キャラクターを一括編集",
|
||||
"Bulk delete characters": "キャラクターを一括削除",
|
||||
"Favorite characters to add them to HotSwaps": "お気に入りのキャラクターを選択してHotSwapsに追加",
|
||||
"Underlined Text": "下線付きテキスト",
|
||||
|
@ -907,7 +907,7 @@
|
|||
"Medium": "ミディアム",
|
||||
"Aggressive": "攻撃的",
|
||||
"Very aggressive": "非常に攻撃的",
|
||||
"Eta cutoff is the main parameter of the special Eta Sampling technique. In units of 1e-4; a reasonable value is 3. Set to 0 to disable. See the paper Truncation Sampling as Language Model Desmoothing by Hewitt et al. (2022) for details.": "エータカットオフは、特別なエータサンプリング技術の主要なパラメータです。 1e-4の単位で; 合理的な値は3です。 無効にするには0に設定します。 詳細については、Hewittらによる論文「言語モデルデスムージングの切断サンプリング」(2022)を参照してください。",
|
||||
"Eta_Cutoff_desc": "エータカットオフは、特別なエータサンプリング技術の主要なパラメータです。 1e-4の単位で; 合理的な値は3です。 無効にするには0に設定します。 詳細については、Hewittらによる論文「言語モデルデスムージングの切断サンプリング」(2022)を参照してください。",
|
||||
"Learn how to contribute your idle GPU cycles to the Horde": "アイドルのGPUサイクルをホルドに貢献する方法を学びます",
|
||||
"Use the appropriate tokenizer for Google models via their API. Slower prompt processing, but offers much more accurate token counting.": "Googleモデル用の適切なトークナイザーを使用します。 API経由で。 処理が遅くなりますが、トークンの数え上げがはるかに正確になります。",
|
||||
"Load koboldcpp order": "koboldcppオーダーを読み込む",
|
||||
|
|
|
@ -15,12 +15,12 @@
|
|||
"rep.pen range": "반복 패널티 범위",
|
||||
"Temperature controls the randomness in token selection": "온도는 토큰 선택에서의 무작위성을 제어합니다.",
|
||||
"temperature": "온도",
|
||||
"Top K sets a maximum amount of top tokens that can be chosen from": "Top K는 선택할 수 있는 최대 상위 토큰 양을 설정합니다.",
|
||||
"Top P (a.k.a. nucleus sampling)": "Top P (일명 핵심 샘플링)",
|
||||
"Typical P Sampling prioritizes tokens based on their deviation from the average entropy of the set": "전형적인 P 샘플링은 집합의 평균 엔트로피와의 편차를 기반으로 토큰에 우선순위를 부여합니다.",
|
||||
"Min P sets a base minimum probability": "Min P는 기본 최소 확률을 설정합니다.",
|
||||
"Top A sets a threshold for token selection based on the square of the highest token probability": "Top A는 가장 높은 토큰 확률의 제곱에 기반하여 토큰 선택에 대한 임계값을 설정합니다.",
|
||||
"Tail-Free Sampling (TFS)": "꼬리 제거 샘플링 (TFS)",
|
||||
"Top_K_desc": "Top K는 선택할 수 있는 최대 상위 토큰 양을 설정합니다.",
|
||||
"Top_P_desc": "Top P (일명 핵심 샘플링)",
|
||||
"Typical_P_desc": "전형적인 P 샘플링은 집합의 평균 엔트로피와의 편차를 기반으로 토큰에 우선순위를 부여합니다.",
|
||||
"Min_P_desc": "Min P는 기본 최소 확률을 설정합니다.",
|
||||
"Top_A_desc": "Top A는 가장 높은 토큰 확률의 제곱에 기반하여 토큰 선택에 대한 임계값을 설정합니다.",
|
||||
"Tail_Free_Sampling_desc": "꼬리 제거 샘플링 (TFS)",
|
||||
"Epsilon cutoff sets a probability floor below which tokens are excluded from being sampled": "Epsilon 절단은 토큰이 샘플링에서 제외되는 확률 하한선을 설정합니다.",
|
||||
"Scale Temperature dynamically per token, based on the variation of probabilities": "확률의 변동을 기반으로 토큰마다 온도를 동적으로 조정합니다.",
|
||||
"Minimum Temp": "최소 온도",
|
||||
|
@ -33,7 +33,7 @@
|
|||
"Learning rate of Mirostat": "미로스탯의 학습률",
|
||||
"Strength of the Contrastive Search regularization term. Set to 0 to disable CS": "대조적 검색 정규화 항의 강도입니다. CS를 비활성화하려면 0으로 설정하세요.",
|
||||
"Temperature Last": "마지막 온도",
|
||||
"Use the temperature sampler last": "마지막으로 온도 샘플러를 사용합니다.",
|
||||
"Temperature_Last_desc": "마지막으로 온도 샘플러를 사용합니다.",
|
||||
"LLaMA / Mistral / Yi models only": "LLaMA / Mistral / Yi 모델 전용",
|
||||
"Example: some text [42, 69, 1337]": "예: 일부 텍스트 [42, 69, 1337]",
|
||||
"Classifier Free Guidance. More helpful tip coming soon": "분류기 무료 안내. 더 유용한 팁이 곧 제공됩니다.",
|
||||
|
@ -87,7 +87,7 @@
|
|||
"Eta Cutoff": "에타 자르기",
|
||||
"Negative Prompt": "부정적인 프롬프트",
|
||||
"Mirostat (mode=1 is only for llama.cpp)": "Mirostat (mode=1은 llama.cpp 전용입니다)",
|
||||
"Mirostat is a thermostat for output perplexity": "미로스타트는 출력 헷갈림의 온도계입니다",
|
||||
"Mirostat_desc": "미로스타트는 출력 헷갈림의 온도계입니다",
|
||||
"Add text here that would make the AI generate things you don't want in your outputs.": "AI가 출력에서 원하지 않는 것을 생성하도록하는 텍스트를 여기에 추가하십시오.",
|
||||
"Phrase Repetition Penalty": "구절 반복 패널티",
|
||||
"Preamble": "전문",
|
||||
|
@ -111,7 +111,7 @@
|
|||
"Documentation on sampling parameters": "샘플링 매개 변수에 대한 문서",
|
||||
"Set all samplers to their neutral/disabled state.": "모든 샘플러를 중립/비활성 상태로 설정하십시오.",
|
||||
"Only enable this if your model supports context sizes greater than 4096 tokens": "모델이 4096 토큰보다 큰 컨텍스트 크기를 지원하는 경우에만 활성화하십시오",
|
||||
"Display the response bit by bit as it is generated": "생성되는대로 응답을 조금씩 표시하십시오",
|
||||
"Streaming_desc": "생성되는대로 응답을 조금씩 표시하십시오",
|
||||
"Generate only one line per request (KoboldAI only, ignored by KoboldCpp).": "요청 당 한 줄씩만 생성하십시오 (KoboldAI 전용, KoboldCpp에서는 무시됨).",
|
||||
"Ban the End-of-Sequence (EOS) token (with KoboldCpp, and possibly also other tokens with KoboldAI).": "시퀀스의 끝 (EOS) 토큰을 금지하십시오 (KoboldCpp와 함께 사용, 가능한 경우 KoboldAI의 다른 토큰도).",
|
||||
"Good for story writing, but should not be used for chat and instruct mode.": "이야기 쓰기에 좋지만 채팅 및 지시 모드에는 사용하지 않아야합니다.",
|
||||
|
@ -839,7 +839,7 @@
|
|||
"Extras API key (optional)": "Extras API 키 (선택 사항)",
|
||||
"Notify on extension updates": "확장 프로그램 업데이트 알림",
|
||||
"Toggle character grid view": "캐릭터 그리드 보기 전환",
|
||||
"Bulk edit characters": "대량 캐릭터 편집",
|
||||
"Bulk_edit_characters": "대량 캐릭터 편집",
|
||||
"Bulk delete characters": "대량 캐릭터 삭제",
|
||||
"Favorite characters to add them to HotSwaps": "즐겨찾는 캐릭터를 HotSwaps에 추가",
|
||||
"Underlined Text": "밑줄 텍스트",
|
||||
|
@ -908,7 +908,7 @@
|
|||
"Medium": "중간",
|
||||
"Aggressive": "공격적",
|
||||
"Very aggressive": "매우 공격적",
|
||||
"Eta cutoff is the main parameter of the special Eta Sampling technique. In units of 1e-4; a reasonable value is 3. Set to 0 to disable. See the paper Truncation Sampling as Language Model Desmoothing by Hewitt et al. (2022) for details.": "에타 절단은 특별한 에타 샘플링 기술의 주요 매개 변수입니다. 1e-4 단위로; 합리적인 값은 3입니다. 비활성화하려면 0으로 설정하십시오. 자세한 내용은 Hewitt et al. (2022)의 Truncation Sampling as Language Model Desmoothing 논문을 참조하십시오.",
|
||||
"Eta_Cutoff_desc": "에타 절단은 특별한 에타 샘플링 기술의 주요 매개 변수입니다. 1e-4 단위로; 합리적인 값은 3입니다. 비활성화하려면 0으로 설정하십시오. 자세한 내용은 Hewitt et al. (2022)의 Truncation Sampling as Language Model Desmoothing 논문을 참조하십시오.",
|
||||
"Learn how to contribute your idle GPU cycles to the Horde": "여유로운 GPU 주기를 호드에 기여하는 방법 배우기",
|
||||
"Use the appropriate tokenizer for Google models via their API. Slower prompt processing, but offers much more accurate token counting.": "Google 모델용 적절한 토크나이저를 사용하여 API를 통해 제공됩니다. 더 느린 프롬프트 처리지만 훨씬 정확한 토큰 계산을 제공합니다.",
|
||||
"Load koboldcpp order": "코볼드 CPP 순서로 로드",
|
||||
|
|
|
@ -15,12 +15,12 @@
|
|||
"rep.pen range": "Herhalingsstrafbereik",
|
||||
"Temperature controls the randomness in token selection": "Temperatuur regelt de willekeurigheid bij het selecteren van tokens",
|
||||
"temperature": "Temperatuur",
|
||||
"Top K sets a maximum amount of top tokens that can be chosen from": "Top K stelt een maximumhoeveelheid top tokens in die kunnen worden gekozen",
|
||||
"Top P (a.k.a. nucleus sampling)": "Top P (ook bekend als kernsampling)",
|
||||
"Typical P Sampling prioritizes tokens based on their deviation from the average entropy of the set": "Typische P-sampling geeft prioriteit aan tokens op basis van hun afwijking van de gemiddelde entropie van de set",
|
||||
"Min P sets a base minimum probability": "Min P stelt een basismimimumkans in",
|
||||
"Top A sets a threshold for token selection based on the square of the highest token probability": "Top A stelt een drempel in voor tokenselectie op basis van het kwadraat van de hoogste tokenkans",
|
||||
"Tail-Free Sampling (TFS)": "Staartvrije sampling (TFS)",
|
||||
"Top_K_desc": "Top K stelt een maximumhoeveelheid top tokens in die kunnen worden gekozen",
|
||||
"Top_P_desc": "Top P (ook bekend als kernsampling)",
|
||||
"Typical_P_desc": "Typische P-sampling geeft prioriteit aan tokens op basis van hun afwijking van de gemiddelde entropie van de set",
|
||||
"Min_P_desc": "Min P stelt een basismimimumkans in",
|
||||
"Top_A_desc": "Top A stelt een drempel in voor tokenselectie op basis van het kwadraat van de hoogste tokenkans",
|
||||
"Tail_Free_Sampling_desc": "Staartvrije sampling (TFS)",
|
||||
"Epsilon cutoff sets a probability floor below which tokens are excluded from being sampled": "Epsilon-cutoff stelt een kansdrempel in waaronder tokens worden uitgesloten van bemonstering",
|
||||
"Scale Temperature dynamically per token, based on the variation of probabilities": "Pas temperatuur dynamisch toe per token, op basis van de variatie van kansen",
|
||||
"Minimum Temp": "Minimale temperatuur",
|
||||
|
@ -33,7 +33,7 @@
|
|||
"Learning rate of Mirostat": "Leersnelheid van Mirostat",
|
||||
"Strength of the Contrastive Search regularization term. Set to 0 to disable CS": "Sterkte van de regulariseringsterm voor contrastieve zoekopdrachten. Stel in op 0 om CS uit te schakelen.",
|
||||
"Temperature Last": "Laatste temperatuur",
|
||||
"Use the temperature sampler last": "Gebruik de temperatuursampler als laatste",
|
||||
"Temperature_Last_desc": "Gebruik de temperatuursampler als laatste",
|
||||
"LLaMA / Mistral / Yi models only": "Alleen LLaMA / Mistral / Yi-modellen",
|
||||
"Example: some text [42, 69, 1337]": "Voorbeeld: wat tekst [42, 69, 1337]",
|
||||
"Classifier Free Guidance. More helpful tip coming soon": "Klassificatorvrije begeleiding. Meer nuttige tips volgen binnenkort",
|
||||
|
@ -87,7 +87,7 @@
|
|||
"Eta Cutoff": "Eta-afkapwaarde",
|
||||
"Negative Prompt": "Negatieve prompt",
|
||||
"Mirostat (mode=1 is only for llama.cpp)": "Mirostat (modus=1 is alleen voor llama.cpp)",
|
||||
"Mirostat is a thermostat for output perplexity": "Mirostat is een thermostaat voor de outputperplexiteit",
|
||||
"Mirostat_desc": "Mirostat is een thermostaat voor de outputperplexiteit",
|
||||
"Add text here that would make the AI generate things you don't want in your outputs.": "Voeg hier tekst toe die ervoor zou zorgen dat de AI dingen genereert die je niet wilt in je uitvoer.",
|
||||
"Phrase Repetition Penalty": "Straf voor zinsherhaling",
|
||||
"Preamble": "Preambule",
|
||||
|
@ -111,7 +111,7 @@
|
|||
"Documentation on sampling parameters": "Documentatie over steekproefparameters",
|
||||
"Set all samplers to their neutral/disabled state.": "Stel alle samplers in op hun neutrale/uitgeschakelde toestand.",
|
||||
"Only enable this if your model supports context sizes greater than 4096 tokens": "Schakel dit alleen in als uw model contextgroottes ondersteunt groter dan 4096 tokens",
|
||||
"Display the response bit by bit as it is generated": "Toon de reactie beetje bij beetje zoals deze wordt gegenereerd",
|
||||
"Streaming_desc": "Toon de reactie beetje bij beetje zoals deze wordt gegenereerd",
|
||||
"Generate only one line per request (KoboldAI only, ignored by KoboldCpp).": "Genereer slechts één regel per verzoek (alleen KoboldAI, genegeerd door KoboldCpp).",
|
||||
"Ban the End-of-Sequence (EOS) token (with KoboldCpp, and possibly also other tokens with KoboldAI).": "Verbied het End-of-Sequence (EOS) -token (met KoboldCpp, en mogelijk ook andere tokens met KoboldAI).",
|
||||
"Good for story writing, but should not be used for chat and instruct mode.": "Goed voor het schrijven van verhalen, maar mag niet worden gebruikt voor chat- en instructiemodus.",
|
||||
|
@ -839,7 +839,7 @@
|
|||
"Extras API key (optional)": "Extra API-sleutel (optioneel)",
|
||||
"Notify on extension updates": "Op de hoogte stellen van extensie-updates",
|
||||
"Toggle character grid view": "Wissel weergave roosterkarakter",
|
||||
"Bulk edit characters": "Massaal bewerken personages",
|
||||
"Bulk_edit_characters": "Massaal bewerken personages",
|
||||
"Bulk delete characters": "Massaal verwijderen personages",
|
||||
"Favorite characters to add them to HotSwaps": "Favoriete personages toevoegen aan HotSwaps",
|
||||
"Underlined Text": "Onderstreepte tekst",
|
||||
|
@ -908,7 +908,7 @@
|
|||
"Medium": "Gemiddeld",
|
||||
"Aggressive": "Agressief",
|
||||
"Very aggressive": "Zeer agressief",
|
||||
"Eta cutoff is the main parameter of the special Eta Sampling technique. In units of 1e-4; a reasonable value is 3. Set to 0 to disable. See the paper Truncation Sampling as Language Model Desmoothing by Hewitt et al. (2022) for details.": "Eta-cutoff is de belangrijkste parameter van de speciale Eta Bemonsteringstechniek. In eenheden van 1e-4; een redelijke waarde is 3. Stel in op 0 om uit te schakelen. Zie het artikel Truncation Sampling as Language Model Desmoothing van Hewitt et al. (2022) voor details.",
|
||||
"Eta_Cutoff_desc": "Eta-cutoff is de belangrijkste parameter van de speciale Eta Bemonsteringstechniek. In eenheden van 1e-4; een redelijke waarde is 3. Stel in op 0 om uit te schakelen. Zie het artikel Truncation Sampling as Language Model Desmoothing van Hewitt et al. (2022) voor details.",
|
||||
"Learn how to contribute your idle GPU cycles to the Horde": "Leer hoe je je ongebruikte GPU-cycli kunt bijdragen aan de Horde",
|
||||
"Use the appropriate tokenizer for Google models via their API. Slower prompt processing, but offers much more accurate token counting.": "Gebruik de juiste tokenizer voor Google-modellen via hun API. Langzamere promptverwerking, maar biedt veel nauwkeuriger token-telling.",
|
||||
"Load koboldcpp order": "Laad koboldcpp-bestelling",
|
||||
|
|
|
@ -15,12 +15,12 @@
|
|||
"rep.pen range": "Intervalo de pena de repetição",
|
||||
"Temperature controls the randomness in token selection": "A temperatura controla a aleatoriedade na seleção de tokens",
|
||||
"temperature": "Temperatura",
|
||||
"Top K sets a maximum amount of top tokens that can be chosen from": "Top K define uma quantidade máxima de tokens principais que podem ser escolhidos",
|
||||
"Top P (a.k.a. nucleus sampling)": "Top P (também conhecido como amostragem de núcleo)",
|
||||
"Typical P Sampling prioritizes tokens based on their deviation from the average entropy of the set": "A amostragem típica de P prioriza tokens com base em sua divergência da entropia média do conjunto",
|
||||
"Min P sets a base minimum probability": "Min P define uma probabilidade mínima base",
|
||||
"Top A sets a threshold for token selection based on the square of the highest token probability": "Top A define um limiar para seleção de token com base no quadrado da maior probabilidade de token",
|
||||
"Tail-Free Sampling (TFS)": "Amostragem sem cauda (TFS)",
|
||||
"Top_K_desc": "Top K define uma quantidade máxima de tokens principais que podem ser escolhidos",
|
||||
"Top_P_desc": "Top P (também conhecido como amostragem de núcleo)",
|
||||
"Typical_P_desc": "A amostragem típica de P prioriza tokens com base em sua divergência da entropia média do conjunto",
|
||||
"Min_P_desc": "Min P define uma probabilidade mínima base",
|
||||
"Top_A_desc": "Top A define um limiar para seleção de token com base no quadrado da maior probabilidade de token",
|
||||
"Tail_Free_Sampling_desc": "Amostragem sem cauda (TFS)",
|
||||
"Epsilon cutoff sets a probability floor below which tokens are excluded from being sampled": "O corte de epsilon define um limite de probabilidade abaixo do qual os tokens são excluídos da amostragem",
|
||||
"Scale Temperature dynamically per token, based on the variation of probabilities": "Escala de temperatura dinamicamente por token, com base na variação de probabilidades",
|
||||
"Minimum Temp": "Temperatura Mínima",
|
||||
|
@ -33,7 +33,7 @@
|
|||
"Learning rate of Mirostat": "Taxa de aprendizado de Mirostat",
|
||||
"Strength of the Contrastive Search regularization term. Set to 0 to disable CS": "Força do termo de regularização de busca contrastante. Defina como 0 para desativar o CS.",
|
||||
"Temperature Last": "Temperatura Final",
|
||||
"Use the temperature sampler last": "Usar o amostrador de temperatura por último",
|
||||
"Temperature_Last_desc": "Usar o amostrador de temperatura por último",
|
||||
"LLaMA / Mistral / Yi models only": "Apenas modelos LLaMA / Mistral / Yi",
|
||||
"Example: some text [42, 69, 1337]": "Exemplo: algum texto [42, 69, 1337]",
|
||||
"Classifier Free Guidance. More helpful tip coming soon": "Orientação sem classificador. Mais dicas úteis em breve",
|
||||
|
@ -86,7 +86,7 @@
|
|||
"Eta Cutoff": "Limite Eta",
|
||||
"Negative Prompt": "Prompt Negativo",
|
||||
"Mirostat (mode=1 is only for llama.cpp)": "Mirostat (modo=1 é apenas para llama.cpp)",
|
||||
"Mirostat is a thermostat for output perplexity": "Mirostat é um termostato para perplexidade de saída",
|
||||
"Mirostat_desc": "Mirostat é um termostato para perplexidade de saída",
|
||||
"Add text here that would make the AI generate things you don't want in your outputs.": "Adicione aqui texto que faria a IA gerar coisas que você não quer em suas saídas.",
|
||||
"Phrase Repetition Penalty": "Pena de Repetição de Frase",
|
||||
"Preamble": "Preâmbulo",
|
||||
|
@ -110,7 +110,7 @@
|
|||
"Documentation on sampling parameters": "Documentação sobre parâmetros de amostragem",
|
||||
"Set all samplers to their neutral/disabled state.": "Defina todos os amostradores para seu estado neutro/desativado.",
|
||||
"Only enable this if your model supports context sizes greater than 4096 tokens": "Ative isso apenas se seu modelo suportar tamanhos de contexto maiores que 4096 tokens",
|
||||
"Display the response bit by bit as it is generated": "Exibir a resposta pouco a pouco conforme ela é gerada",
|
||||
"Streaming_desc": "Exibir a resposta pouco a pouco conforme ela é gerada",
|
||||
"Generate only one line per request (KoboldAI only, ignored by KoboldCpp).": "Gerar apenas uma linha por solicitação (apenas KoboldAI, ignorado por KoboldCpp).",
|
||||
"Ban the End-of-Sequence (EOS) token (with KoboldCpp, and possibly also other tokens with KoboldAI).": "Banir o token de Fim de Sequência (EOS) (com KoboldCpp, e possivelmente também outros tokens com KoboldAI).",
|
||||
"Good for story writing, but should not be used for chat and instruct mode.": "Bom para escrever histórias, mas não deve ser usado para modo de bate-papo e instrução.",
|
||||
|
@ -837,7 +837,7 @@
|
|||
"Extras API key (optional)": "Chave da API de extras (opcional)",
|
||||
"Notify on extension updates": "Notificar sobre atualizações de extensão",
|
||||
"Toggle character grid view": "Alternar visualização em grade de personagem",
|
||||
"Bulk edit characters": "Editar personagens em massa",
|
||||
"Bulk_edit_characters": "Editar personagens em massa",
|
||||
"Bulk delete characters": "Excluir personagens em massa",
|
||||
"Favorite characters to add them to HotSwaps": "Favoritar personagens para adicioná-los aos HotSwaps",
|
||||
"Underlined Text": "Texto sublinhado",
|
||||
|
@ -906,7 +906,7 @@
|
|||
"Medium": "Médio",
|
||||
"Aggressive": "Agressivo",
|
||||
"Very aggressive": "Muito agressivo",
|
||||
"Eta cutoff is the main parameter of the special Eta Sampling technique. In units of 1e-4; a reasonable value is 3. Set to 0 to disable. See the paper Truncation Sampling as Language Model Desmoothing by Hewitt et al. (2022) for details.": "O corte Eta é o principal parâmetro da técnica especial de Amostragem Eta. Em unidades de 1e-4; um valor razoável é 3. Defina como 0 para desativar. Consulte o artigo Truncation Sampling as Language Model Desmoothing de Hewitt et al. (2022) para mais detalhes.",
|
||||
"Eta_Cutoff_desc": "O corte Eta é o principal parâmetro da técnica especial de Amostragem Eta. Em unidades de 1e-4; um valor razoável é 3. Defina como 0 para desativar. Consulte o artigo Truncation Sampling as Language Model Desmoothing de Hewitt et al. (2022) para mais detalhes.",
|
||||
"Learn how to contribute your idle GPU cycles to the Horde": "Saiba como contribuir com seus ciclos de GPU inativos para a Horda",
|
||||
"Use the appropriate tokenizer for Google models via their API. Slower prompt processing, but offers much more accurate token counting.": "Use o tokenizador apropriado para modelos do Google via sua API. Processamento de prompt mais lento, mas oferece contagem de token muito mais precisa.",
|
||||
"Load koboldcpp order": "Carregar ordem koboldcpp",
|
||||
|
|
|
@ -15,12 +15,12 @@
|
|||
"rep.pen range": "Окно для штрафов за повтор",
|
||||
"Temperature controls the randomness in token selection": "Температура контролирует процесс выбора токена:\n- при низкой температуре (<1.0) предпочтение отдаётся наиболее вероятным токенам, текст получается предсказуемым.\n- при высокой температуре (>1.0) повышаются шансы у токенов с низкой вероятностью, текст получается более креативным.\nУстановите значение 1.0, чтобы вероятности не менялись.",
|
||||
"temperature": "Температура",
|
||||
"Top K sets a maximum amount of top tokens that can be chosen from": "Top K задает жёсткое ограничение на количество рассматриваемых токенов.\nЕсли Top-K равен 20, это означает, что будут сохранены только 20 наиболее вероятных токенов (распределение их вероятностей в расчёт не берётся)\nУстановите значение 0, чтобы отключить.",
|
||||
"Top P (a.k.a. nucleus sampling)": "Top P (он же nucleus sampling) складывает все верхние токены, пока их суммарные вероятности не достигнут целевого процента.\nТо есть, если 2 верхних токена составляют 25%, а Top-P равен 0.50, учитываются только эти 2 верхних токена.\nУстановите значение 1.0, чтобы отключить.",
|
||||
"Typical P Sampling prioritizes tokens based on their deviation from the average entropy of the set": "Сэмплер Typical P определяет приоритет токенов на основе их отклонения от средней энтропии набора.\nОстаются токены, чья кумулятивная вероятность близка к заданному порогу (например, 0,5), выделяя те, которые имеют среднее информационное содержание.\nУстановите значение 1.0, чтобы отключить.",
|
||||
"Min P sets a base minimum probability": "Min P устанавливает базовую минимальную вероятность. Она масштабируется в зависимости от вероятности верхнего токена.\nЕсли вероятность верхнего токена составляет 80%, а Min P - 0.1, будут рассматриваться только токены с вероятностью выше 8%.\nУстановите значение 0, чтобы отключить.",
|
||||
"Top A sets a threshold for token selection based on the square of the highest token probability": "Top A устанавливает порог для отбора токенов на основе квадрата наибольшей вероятности токена.\nЕсли значение Top A равно 0.2, а вероятность верхнего токена равна 50%, то токены с вероятностью ниже 5% (0.2 * 0.5^2) будут исключены.\nУстановите значение 0, чтобы отключить.",
|
||||
"Tail-Free Sampling (TFS)": "Tail-Free Sampling (TFS) ищет хвост маловероятных токнов в распределении,\n анализируя скорость изменения вероятностей токенов с помощью производных. Он сохраняет токены до порога (например, 0.3), основанного на нормированной второй производной.\nЧем ближе к 0, тем больше отброшенных токенов. Установите значение 1.0, чтобы отключить.",
|
||||
"Top_K_desc": "Top K задает жёсткое ограничение на количество рассматриваемых токенов.\nЕсли Top-K равен 20, это означает, что будут сохранены только 20 наиболее вероятных токенов (распределение их вероятностей в расчёт не берётся)\nУстановите значение 0, чтобы отключить.",
|
||||
"Top_P_desc": "Top P (он же nucleus sampling) складывает все верхние токены, пока их суммарные вероятности не достигнут целевого процента.\nТо есть, если 2 верхних токена составляют 25%, а Top-P равен 0.50, учитываются только эти 2 верхних токена.\nУстановите значение 1.0, чтобы отключить.",
|
||||
"Typical_P_desc": "Сэмплер Typical P определяет приоритет токенов на основе их отклонения от средней энтропии набора.\nОстаются токены, чья кумулятивная вероятность близка к заданному порогу (например, 0,5), выделяя те, которые имеют среднее информационное содержание.\nУстановите значение 1.0, чтобы отключить.",
|
||||
"Min_P_desc": "Min P устанавливает базовую минимальную вероятность. Она масштабируется в зависимости от вероятности верхнего токена.\nЕсли вероятность верхнего токена составляет 80%, а Min P - 0.1, будут рассматриваться только токены с вероятностью выше 8%.\nУстановите значение 0, чтобы отключить.",
|
||||
"Top_A_desc": "Top A устанавливает порог для отбора токенов на основе квадрата наибольшей вероятности токена.\nЕсли значение Top A равно 0.2, а вероятность верхнего токена равна 50%, то токены с вероятностью ниже 5% (0.2 * 0.5^2) будут исключены.\nУстановите значение 0, чтобы отключить.",
|
||||
"Tail_Free_Sampling_desc": "Tail-Free Sampling (TFS) ищет хвост маловероятных токнов в распределении,\n анализируя скорость изменения вероятностей токенов с помощью производных. Он сохраняет токены до порога (например, 0.3), основанного на нормированной второй производной.\nЧем ближе к 0, тем больше отброшенных токенов. Установите значение 1.0, чтобы отключить.",
|
||||
"Epsilon cutoff sets a probability floor below which tokens are excluded from being sampled": "Epsilon cutoff устанавливает уровень вероятности, ниже которого токены исключаются из выборки.\nВ единицах 1e-4; разумное значение - 3.\nУстановите 0, чтобы отключить.",
|
||||
"Scale Temperature dynamically per token, based on the variation of probabilities": "Динамическое масштабирование Temperature для каждого токена, основанное на изменении вероятностей.",
|
||||
"Minimum Temp": "Мин. температура",
|
||||
|
@ -33,7 +33,7 @@
|
|||
"Learning rate of Mirostat": "Скорость обучения Mirostat.",
|
||||
"Strength of the Contrastive Search regularization term. Set to 0 to disable CS": "Сила условия регуляризации контрастивного поиска. Установите значение 0, чтобы отключить CS.",
|
||||
"Temperature Last": "Температура последней",
|
||||
"Use the temperature sampler last": "Использовать Temperature сэмплер в последнюю очередь. Это почти всегда разумно.\nПри включении: сначала выборка набора правдоподобных токенов, затем применение Temperature для корректировки их относительных вероятностей (технически, логитов).\nПри отключении: сначала применение Temperature для корректировки относительных вероятностей ВСЕХ токенов, затем выборка правдоподобных токенов из этого.\nОтключение Temperature Last увеличивает вероятности в хвосте распределения, что увеличивает шансы получить несогласованный ответ.",
|
||||
"Temperature_Last_desc": "Использовать Temperature сэмплер в последнюю очередь. Это почти всегда разумно.\nПри включении: сначала выборка набора правдоподобных токенов, затем применение Temperature для корректировки их относительных вероятностей (технически, логитов).\nПри отключении: сначала применение Temperature для корректировки относительных вероятностей ВСЕХ токенов, затем выборка правдоподобных токенов из этого.\nОтключение Temperature Last увеличивает вероятности в хвосте распределения, что увеличивает шансы получить несогласованный ответ.",
|
||||
"LLaMA / Mistral / Yi models only": "Только для моделей LLaMA / Mistral / Yi. Перед этим обязательно выберите подходящий токенизатор.\nПоследовательности, которых не должно быть на выходе.\nОдна на строку. Текст или [идентификаторы токенов].\nМногие токены имеют пробел впереди. Используйте счетчик токенов, если не уверены.",
|
||||
"Example: some text [42, 69, 1337]": "Пример:\nкакой-то текст\n[42, 69, 1337]",
|
||||
"Classifier Free Guidance. More helpful tip coming soon": "Classifier Free Guidance. Чуть позже опишем более подробно",
|
||||
|
@ -87,7 +87,7 @@
|
|||
"Eta Cutoff": "Eta Cutoff",
|
||||
"Negative Prompt": "Отрицательный промпт",
|
||||
"Mirostat (mode=1 is only for llama.cpp)": "Mirostat (режим=1 предназначен только для llama.cpp)",
|
||||
"Mirostat is a thermostat for output perplexity": "Mirostat - своего рода термометр, измеряющий перплексию для выводимого текста.\nMirostat подгоняет перплексию генерируемого текста к перплексии входного текста, что позволяет избежать повторов.\n(когда по мере генерации текста авторегрессионным инференсом, перплексия всё больше приближается к нулю)\n а также ловушки перплексии (когда перплексия начинает уходить в сторону)\nБолее подробное описание в статье Mirostat: A Neural Text Decoding Algorithm that Directly Controls Perplexity by Basu et al. (2020).\nРежим выбирает версию Mirostat. 0=отключить, 1=Mirostat 1.0 (только llama.cpp), 2=Mirostat 2.0.",
|
||||
"Mirostat_desc": "Mirostat - своего рода термометр, измеряющий перплексию для выводимого текста.\nMirostat подгоняет перплексию генерируемого текста к перплексии входного текста, что позволяет избежать повторов.\n(когда по мере генерации текста авторегрессионным инференсом, перплексия всё больше приближается к нулю)\n а также ловушки перплексии (когда перплексия начинает уходить в сторону)\nБолее подробное описание в статье Mirostat: A Neural Text Decoding Algorithm that Directly Controls Perplexity by Basu et al. (2020).\nРежим выбирает версию Mirostat. 0=отключить, 1=Mirostat 1.0 (только llama.cpp), 2=Mirostat 2.0.",
|
||||
"Add text here that would make the AI generate things you don't want in your outputs.": "Добавьте сюда текст, который заставит ИИ генерировать то, что вы не хотите видеть в его текстах",
|
||||
"Phrase Repetition Penalty": "Штраф за повтор фразы",
|
||||
"Preamble": "Преамбула",
|
||||
|
@ -111,7 +111,7 @@
|
|||
"Documentation on sampling parameters": "Документация по параметрам сэмплеров",
|
||||
"Set all samplers to their neutral/disabled state.": "Установить все сэмплеры в нейтральное/отключенное состояние.",
|
||||
"Only enable this if your model supports context sizes greater than 4096 tokens": "Включайте эту опцию, только если ваша модель поддерживает размер контекста более 4096 токенов.\nУвеличивайте только если вы знаете, что делаете.",
|
||||
"Display the response bit by bit as it is generated": "Выводить текст последовательно по мере его генерации.\nЕсли параметр выключен, ответы будут отображаться сразу целиком, и только после полного завершения генерации.",
|
||||
"Streaming_desc": "Выводить текст последовательно по мере его генерации.\nЕсли параметр выключен, ответы будут отображаться сразу целиком, и только после полного завершения генерации.",
|
||||
"Generate only one line per request (KoboldAI only, ignored by KoboldCpp).": "Генерировать только одну строку на каждый запрос (только для KoboldAI, игнорируется KoboldCpp).",
|
||||
"Ban the End-of-Sequence (EOS) token (with KoboldCpp, and possibly also other tokens with KoboldAI).": "Запретить токен конца последовательности (EOS) (актуально для KoboldCpp, но KoboldAI может запрещать ещё и другие токены).",
|
||||
"Good for story writing, but should not be used for chat and instruct mode.": "Подходит для написания историй, но не должен использоваться в режиме Chat и Instruct.",
|
||||
|
@ -838,7 +838,7 @@
|
|||
"Extras API key (optional)": "Ключ от Extras API (необязательно)",
|
||||
"Notify on extension updates": "Уведомлять об обновлениях расширений",
|
||||
"Toggle character grid view": "Изменить вид грида персонажей",
|
||||
"Bulk edit characters": "Массовое редактирование персонажей",
|
||||
"Bulk_edit_characters": "Массовое редактирование персонажей",
|
||||
"Bulk delete characters": "Массовое удаление персонажей",
|
||||
"Favorite characters to add them to HotSwaps": "Чтобы включить персонажа в HotSwaps, добавьте его в Избранное",
|
||||
"Underlined Text": "Подчёркнутый",
|
||||
|
@ -907,7 +907,7 @@
|
|||
"Medium": "Средний",
|
||||
"Aggressive": "Агрессивный",
|
||||
"Very aggressive": "Очень агрессивный",
|
||||
"Eta cutoff is the main parameter of the special Eta Sampling technique. In units of 1e-4; a reasonable value is 3. Set to 0 to disable. See the paper Truncation Sampling as Language Model Desmoothing by Hewitt et al. (2022) for details.": "Отсечение эпсилон - основной параметр специальной техники выборки эпсилон. В единицах 1e-4; разумное значение - 3. Установите в 0, чтобы отключить. См. статью Truncation Sampling as Language Model Desmoothing от Хьюитт и др. (2022) для получения подробной информации.",
|
||||
"Eta_Cutoff_desc": "Отсечение эпсилон - основной параметр специальной техники выборки эпсилон. В единицах 1e-4; разумное значение - 3. Установите в 0, чтобы отключить. См. статью Truncation Sampling as Language Model Desmoothing от Хьюитт и др. (2022) для получения подробной информации.",
|
||||
"Learn how to contribute your idle GPU cycles to the Horde": "Узнайте, как внести свой вклад в свои свободные GPU-циклы в орду",
|
||||
"Use the appropriate tokenizer for Google models via their API. Slower prompt processing, but offers much more accurate token counting.": "Используйте соответствующий токенизатор для моделей Google через их API. Медленная обработка подсказок, но предлагает намного более точный подсчет токенов.",
|
||||
"Load koboldcpp order": "Загрузить порядок из koboldcpp",
|
||||
|
@ -938,7 +938,7 @@
|
|||
"Group by vendors Description": "Модели от OpenAI попадут в одну группу, от Anthropic - в другую, и т.д. Можно комбинировать с сортировкой.",
|
||||
"LEGACY": "УСТАР.",
|
||||
"Force Instruct Mode formatting": "Включить форматирование для Instruct-режима",
|
||||
"Force Instruct Mode formatting Description": "Если эта опция включена при активном режиме Instruct, то SillyTavern преобразует промпт в соответствие с настройками расширенного форматирования (кроме системного промпта для instruct). Если опция выключена, промпт форматируется самим OpenRouter.",
|
||||
"Force_Instruct_Mode_formatting_Description": "Если эта опция включена при активном режиме Instruct, то SillyTavern преобразует промпт в соответствие с настройками расширенного форматирования (кроме системного промпта для instruct). Если опция выключена, промпт форматируется самим OpenRouter.",
|
||||
"Allow Jailbreak": "Разрешить джейлбрейк",
|
||||
"System Prompt Wrapping": "Обрамление для системного промпта",
|
||||
"System Prompt Prefix": "Префикс системного промпта",
|
||||
|
@ -999,7 +999,7 @@
|
|||
"Import Chat": "Импорт чата",
|
||||
"Chat Lore": "Лор чата",
|
||||
"Chat Lorebook for": "Лорбук для чата",
|
||||
"A selected World Info will be bound to this chat.": "Выбранный мир будет привязан к этому чату. При генерации ответа ИИ он будет совмещён с записями из глобального лорбука и лорбука персонажа.",
|
||||
"chat_world_template_txt": "Выбранный мир будет привязан к этому чату. При генерации ответа ИИ он будет совмещён с записями из глобального лорбука и лорбука персонажа.",
|
||||
"Missing key": "❌ Ключа нет",
|
||||
"Key saved": "✔️ Ключ сохранён",
|
||||
"Use the appropriate tokenizer for Jurassic models, which is more efficient than GPT's.": "Использовать токенайзер для моделей Jurassic, эффективнее GPT-токенайзера",
|
||||
|
@ -1042,8 +1042,8 @@
|
|||
"Custom Separator:": "Кастомный разделитель:",
|
||||
"Insertion Depth:": "Глубина вставки:",
|
||||
"Chat CFG": "CFG для чата",
|
||||
"Chat backgrounds generated with the": "Здесь будут появляться фоны, сгенерированные расширением",
|
||||
"extension will appear here.": ".",
|
||||
"bg_chat_hint_1": "Здесь будут появляться фоны, сгенерированные расширением",
|
||||
"bg_chat_hint_2": ".",
|
||||
"Prevent further recursion (this entry will not activate others)": "Пресечь дальнейшую рекурсию (эта запись не будет активировать другие)",
|
||||
"Alert if your world info is greater than the allocated budget.": "Оповещать, если ваш мир выходит за выделенный бюджет.",
|
||||
"Convert to Persona": "Преобразовать в персону",
|
||||
|
@ -1266,7 +1266,7 @@
|
|||
"Message Content": "Внутри сообщения",
|
||||
"Prepend character names to message contents.": "Предварять сообщения именем персонажа.",
|
||||
"Character Names Behavior": "Вставка имени персонажа",
|
||||
"Restrictions apply: only Latin alphanumerics and underscores. Doesn't work for all sources, notably: Claude, MistralAI, Google.": "Только латинские буквы, цифры и знак подчёркивания. Работает не для всех бэкендов, в частности для Claude, MistralAI, Google.",
|
||||
"character_names_completion": "Только латинские буквы, цифры и знак подчёркивания. Работает не для всех бэкендов, в частности для Claude, MistralAI, Google.",
|
||||
"and pick a character.": "и выберите персонажа.",
|
||||
"Record a snapshot of your current settings.": "Сделать снимок текущих настроек.",
|
||||
"Restore this snapshot": "Откатиться к этому снимку",
|
||||
|
|
|
@ -919,6 +919,7 @@
|
|||
"prompt_manager_absolute": "Absolute",
|
||||
"prompt_manager_depth": "Depth",
|
||||
"prompt_manager_edit": "Edit",
|
||||
"prompt_manager_forbid_overrides": "Forbid Overrides",
|
||||
"prompt_manager_name": "Name",
|
||||
"prompt_manager_position": "Position",
|
||||
"prompt_manager_relative": "Relative",
|
||||
|
|
|
@ -15,12 +15,12 @@
|
|||
"rep.pen range": "Діапазон штрафу за повтор",
|
||||
"Temperature controls the randomness in token selection": "Температура контролює випадковість у виборі токенів",
|
||||
"temperature": "Температура",
|
||||
"Top K sets a maximum amount of top tokens that can be chosen from": "Top K встановлює максимальну кількість наймовірніших токенів, які можна обрати",
|
||||
"Top P (a.k.a. nucleus sampling)": "Top P (також відомий як відбір ядра)",
|
||||
"Typical P Sampling prioritizes tokens based on their deviation from the average entropy of the set": "Типовий відбір P визначає пріоритет токенів на основі їх відхилення від середньої ентропії набору",
|
||||
"Min P sets a base minimum probability": "Min P встановлює базову мінімальну ймовірність",
|
||||
"Top A sets a threshold for token selection based on the square of the highest token probability": "Top A встановлює поріг для вибору токенів на основі квадрату найвищої ймовірності токена",
|
||||
"Tail-Free Sampling (TFS)": "Безхвостовий відбір (TFS)",
|
||||
"Top_K_desc": "Top K встановлює максимальну кількість наймовірніших токенів, які можна обрати",
|
||||
"Top_P_desc": "Top P (також відомий як відбір ядра)",
|
||||
"Typical_P_desc": "Типовий відбір P визначає пріоритет токенів на основі їх відхилення від середньої ентропії набору",
|
||||
"Min_P_desc": "Min P встановлює базову мінімальну ймовірність",
|
||||
"Top_A_desc": "Top A встановлює поріг для вибору токенів на основі квадрату найвищої ймовірності токена",
|
||||
"Tail_Free_Sampling_desc": "Безхвостовий відбір (TFS)",
|
||||
"Epsilon cutoff sets a probability floor below which tokens are excluded from being sampled": "Епсилон встановлює нижню межу ймовірності, нижче якої токени виключаються з вибірки",
|
||||
"Scale Temperature dynamically per token, based on the variation of probabilities": "Шкала температури динамічно за кожний токен, на основі варіації ймовірностей",
|
||||
"Minimum Temp": "Мінімальна температура",
|
||||
|
@ -33,7 +33,7 @@
|
|||
"Learning rate of Mirostat": "Швидкість навчання Mirostat",
|
||||
"Strength of the Contrastive Search regularization term. Set to 0 to disable CS": "Сила терміну регуляризації контрастного пошуку. Встановіть 0, щоб вимкнути контрастний пошук",
|
||||
"Temperature Last": "Температура останньою",
|
||||
"Use the temperature sampler last": "Використовувати вибірку по температурі останньою",
|
||||
"Temperature_Last_desc": "Використовувати вибірку по температурі останньою",
|
||||
"LLaMA / Mistral / Yi models only": "Тільки моделі LLaMA / Mistral / Yi",
|
||||
"Example: some text [42, 69, 1337]": "Приклад: деякий текст [42, 69, 1337]",
|
||||
"Classifier Free Guidance. More helpful tip coming soon": "Вільні інструкції класифікатора. Більше корисних порад незабаром",
|
||||
|
@ -87,7 +87,7 @@
|
|||
"Eta Cutoff": "Відсіч ети",
|
||||
"Negative Prompt": "Негативна підказка",
|
||||
"Mirostat (mode=1 is only for llama.cpp)": "Mirostat (режим=1 тільки для llama.cpp)",
|
||||
"Mirostat is a thermostat for output perplexity": "Mirostat - це термостат для заплутанності виводу",
|
||||
"Mirostat_desc": "Mirostat - це термостат для заплутанності виводу",
|
||||
"Add text here that would make the AI generate things you don't want in your outputs.": "Додайте сюди текст, який змусить штучний інтелект генерувати речі, які ви не хочете бачити у виводах.",
|
||||
"Phrase Repetition Penalty": "Штраф за повтор фраз",
|
||||
"Preamble": "Преамбула",
|
||||
|
@ -111,7 +111,7 @@
|
|||
"Documentation on sampling parameters": "Документація щодо параметрів вибірки",
|
||||
"Set all samplers to their neutral/disabled state.": "Встановити всі семплери у їх нейтральний/вимкнений стан.",
|
||||
"Only enable this if your model supports context sizes greater than 4096 tokens": "Увімкніть це лише в разі підтримки моделлю розмірів контексту більше 4096 токенів",
|
||||
"Display the response bit by bit as it is generated": "Поступово відображати відповідь по мірі її створення",
|
||||
"Streaming_desc": "Поступово відображати відповідь по мірі її створення",
|
||||
"Generate only one line per request (KoboldAI only, ignored by KoboldCpp).": "Генерувати лише один рядок за запит (тільки KoboldAI, ігнорується KoboldCpp).",
|
||||
"Ban the End-of-Sequence (EOS) token (with KoboldCpp, and possibly also other tokens with KoboldAI).": "Заборонити токен закінчення послідовності (EOS) (для KoboldCpp, а можливо, також інші токени для KoboldAI).",
|
||||
"Good for story writing, but should not be used for chat and instruct mode.": "Добре для написання історій, але не повинно використовуватися для чату і режиму інструкцій.",
|
||||
|
@ -839,7 +839,7 @@
|
|||
"Extras API key (optional)": "Додатковий ключ API (необов'язково)",
|
||||
"Notify on extension updates": "Повідомити про оновлення розширень",
|
||||
"Toggle character grid view": "Перемкнути вид сітки персонажів",
|
||||
"Bulk edit characters": "Масове редагування персонажів",
|
||||
"Bulk_edit_characters": "Масове редагування персонажів",
|
||||
"Bulk delete characters": "Масове видалення персонажів",
|
||||
"Favorite characters to add them to HotSwaps": "Оберіть улюблених персонажів, щоб додати їх до HotSwaps",
|
||||
"Underlined Text": "Підкреслений текст",
|
||||
|
@ -908,7 +908,7 @@
|
|||
"Medium": "Середній",
|
||||
"Aggressive": "Агресивний",
|
||||
"Very aggressive": "Дуже агресивний",
|
||||
"Eta cutoff is the main parameter of the special Eta Sampling technique. In units of 1e-4; a reasonable value is 3. Set to 0 to disable. See the paper Truncation Sampling as Language Model Desmoothing by Hewitt et al. (2022) for details.": "Eta-відсічення - основний параметр спеціальної техніки вибірки Ета. У одиницях 1e-4; розумна величина - 3. Встановіть 0, щоб вимкнути. Див. статтю «Вибірка відсічення як модель мовного розподілення» Хевітта та ін. (2022) для деталей.",
|
||||
"Eta_Cutoff_desc": "Eta-відсічення - основний параметр спеціальної техніки вибірки Ета. У одиницях 1e-4; розумна величина - 3. Встановіть 0, щоб вимкнути. Див. статтю «Вибірка відсічення як модель мовного розподілення» Хевітта та ін. (2022) для деталей.",
|
||||
"Learn how to contribute your idle GPU cycles to the Horde": "Дізнайтеся, як сприяти внеском вашого неактивного циклу GPU до горди",
|
||||
"Use the appropriate tokenizer for Google models via their API. Slower prompt processing, but offers much more accurate token counting.": "Використовуйте відповідний токенізатор для моделей Google через їх API. Повільніша обробка підказок, але пропонує набагато точніше підрахунку токенів.",
|
||||
"Load koboldcpp order": "Завантажити порядок koboldcpp",
|
||||
|
|
|
@ -15,12 +15,12 @@
|
|||
"rep.pen range": "Phạm vi trừ phạt tái phát",
|
||||
"Temperature controls the randomness in token selection": "Nhiệt độ điều chỉnh sự ngẫu nhiên trong việc chọn token:\n- Nhiệt độ thấp (<1.0) dẫn đến văn bản dự đoán hơn, với ưu tiên cho các token có xác suất cao.\n- Nhiệt độ cao (>1.0) tăng tính sáng tạo và đa dạng của đầu ra, với nhiều cơ hội cho các token có xác suất thấp hơn.\nThiết lập giá trị 1.0 cho xác suất gốc.",
|
||||
"temperature": "Nhiệt độ",
|
||||
"Top K sets a maximum amount of top tokens that can be chosen from": "Top K đặt một giá trị tối đa cho số lượng token hàng đầu có thể được chọn từ đó.",
|
||||
"Top P (a.k.a. nucleus sampling)": "Top P (còn được gọi là mẫu hạt nhân) kết hợp tất cả các token hàng đầu cần thiết để đạt được một phần trăm nhất định.\nNói cách khác, nếu các token hàng đầu 2 đại diện cho 25%, và Top-P bằng 0.50, chỉ có hai token hàng đầu này được xem xét.\nThiết lập giá trị 1.0 để vô hiệu hóa.",
|
||||
"Typical P Sampling prioritizes tokens based on their deviation from the average entropy of the set": "Mẫu P điển hình ưu tiên các token dựa trên sự sai lệch của chúng so với năng lượng cân bằng trung bình của tập hợp.\nCác token có xác suất tích lũy gần với ngưỡng được chỉ định (ví dụ: 0.5) được giữ lại, phân biệt chúng khỏi những token có thông tin trung bình.\nThiết lập giá trị 1.0 để vô hiệu hóa.",
|
||||
"Min P sets a base minimum probability": "Min P đặt một xác suất tối thiểu cơ bản. Nó được tinh chỉnh dựa trên xác suất token hàng đầu.\nNếu xác suất của token hàng đầu là 80%, và Min P là 0.1, chỉ có token với xác suất cao hơn 8% được xem xét.\nThiết lập giá trị 0 để vô hiệu hóa.",
|
||||
"Top A sets a threshold for token selection based on the square of the highest token probability": "Top A đặt một ngưỡng cho việc chọn token dựa trên bình phương của xác suất token cao nhất.\nNếu Top A là 0.2, và xác suất của token hàng đầu là 50%, các token có xác suất dưới 5% sẽ bị loại bỏ (0.2 * 0.5^2).\nThiết lập giá trị 0 để vô hiệu hóa.",
|
||||
"Tail-Free Sampling (TFS)": "Mẫu không đuôi (TFS) tìm kiếm đuôi của token với xác suất nhỏ trong phân phối,\n thông qua phân tích tốc độ thay đổi xác suất token bằng cách sử dụng đạo hàm. Các token được giữ lại đến ngưỡng (ví dụ: 0.3), dựa trên đạo hàm hai lần thống nhất.\nMỗi khi tiến về 0, số lượng token bị loại bỏ tăng lên. Thiết lập giá trị 1.0 để vô hiệu hóa.",
|
||||
"Top_K_desc": "Top K đặt một giá trị tối đa cho số lượng token hàng đầu có thể được chọn từ đó.",
|
||||
"Top_P_desc": "Top P (còn được gọi là mẫu hạt nhân) kết hợp tất cả các token hàng đầu cần thiết để đạt được một phần trăm nhất định.\nNói cách khác, nếu các token hàng đầu 2 đại diện cho 25%, và Top-P bằng 0.50, chỉ có hai token hàng đầu này được xem xét.\nThiết lập giá trị 1.0 để vô hiệu hóa.",
|
||||
"Typical_P_desc": "Mẫu P điển hình ưu tiên các token dựa trên sự sai lệch của chúng so với năng lượng cân bằng trung bình của tập hợp.\nCác token có xác suất tích lũy gần với ngưỡng được chỉ định (ví dụ: 0.5) được giữ lại, phân biệt chúng khỏi những token có thông tin trung bình.\nThiết lập giá trị 1.0 để vô hiệu hóa.",
|
||||
"Min_P_desc": "Min P đặt một xác suất tối thiểu cơ bản. Nó được tinh chỉnh dựa trên xác suất token hàng đầu.\nNếu xác suất của token hàng đầu là 80%, và Min P là 0.1, chỉ có token với xác suất cao hơn 8% được xem xét.\nThiết lập giá trị 0 để vô hiệu hóa.",
|
||||
"Top_A_desc": "Top A đặt một ngưỡng cho việc chọn token dựa trên bình phương của xác suất token cao nhất.\nNếu Top A là 0.2, và xác suất của token hàng đầu là 50%, các token có xác suất dưới 5% sẽ bị loại bỏ (0.2 * 0.5^2).\nThiết lập giá trị 0 để vô hiệu hóa.",
|
||||
"Tail_Free_Sampling_desc": "Mẫu không đuôi (TFS) tìm kiếm đuôi của token với xác suất nhỏ trong phân phối,\n thông qua phân tích tốc độ thay đổi xác suất token bằng cách sử dụng đạo hàm. Các token được giữ lại đến ngưỡng (ví dụ: 0.3), dựa trên đạo hàm hai lần thống nhất.\nMỗi khi tiến về 0, số lượng token bị loại bỏ tăng lên. Thiết lập giá trị 1.0 để vô hiệu hóa.",
|
||||
"Epsilon cutoff sets a probability floor below which tokens are excluded from being sampled": "Cắt ngắn Epsilon đặt một ngưỡng xác suất dưới đó các token sẽ không được lựa chọn để mẫu.\nTrong đơn vị 1e-4; giá trị thích hợp là 3.\nThiết lập 0 để vô hiệu hóa.",
|
||||
"Scale Temperature dynamically per token, based on the variation of probabilities": "Nhiệt độ tỷ lệ động cho mỗi token, dựa trên sự biến đổi của xác suất.",
|
||||
"Minimum Temp": "Nhiệt độ Tối thiểu",
|
||||
|
@ -33,7 +33,7 @@
|
|||
"Learning rate of Mirostat": "Tốc độ học của Mirostat.",
|
||||
"Strength of the Contrastive Search regularization term. Set to 0 to disable CS": "Độ mạnh của thuật ngữ điều chỉnh Tìm kiếm Trái ngược. Đặt thành 0 để vô hiệu hóa CS.",
|
||||
"Temperature Last": "Nhiệt độ Cuối cùng",
|
||||
"Use the temperature sampler last": "Sử dụng bộ lấy mẫu nhiệt độ cuối cùng. Thường là hợp lý.\nKhi bật: Một nhóm các token tiềm năng được chọn trước tiên, sau đó nhiệt độ được áp dụng để hiệu chỉnh xác suất tương đối của chúng (kỹ thuật, logits).\nKhi vô hiệu hóa: Nhiệt độ được áp dụng trước tiên để hiệu chỉnh xác suất tương đối của từng token, sau đó một nhóm các token tiềm năng được chọn từ đó.\nVô hiệu hóa nhiệt độ cuối cùng.",
|
||||
"Temperature_Last_desc": "Sử dụng bộ lấy mẫu nhiệt độ cuối cùng. Thường là hợp lý.\nKhi bật: Một nhóm các token tiềm năng được chọn trước tiên, sau đó nhiệt độ được áp dụng để hiệu chỉnh xác suất tương đối của chúng (kỹ thuật, logits).\nKhi vô hiệu hóa: Nhiệt độ được áp dụng trước tiên để hiệu chỉnh xác suất tương đối của từng token, sau đó một nhóm các token tiềm năng được chọn từ đó.\nVô hiệu hóa nhiệt độ cuối cùng.",
|
||||
"LLaMA / Mistral / Yi models only": "Chỉ áp dụng cho các mô hình LLaMA / Mistral / Yi. Hãy chắc chắn chọn bộ phân tích đúng trước.\nChuỗi phải không xuất hiện trong kết quả.\nMỗi dòng chỉ một chuỗi. Văn bản hoặc [nhận diện của token].\nNhiều token bắt đầu bằng dấu cách. Sử dụng bộ đếm token nếu bạn không chắc chắn.",
|
||||
"Example: some text [42, 69, 1337]": "Ví dụ:\nmột số văn bản\n[42, 69, 1337]",
|
||||
"Classifier Free Guidance. More helpful tip coming soon": "Hướng dẫn không cần Bộ phân loại. Mẹo hữu ích hơn sẽ được cập nhật sớm.",
|
||||
|
@ -87,7 +87,7 @@
|
|||
"Eta Cutoff": "Cắt Eta",
|
||||
"Negative Prompt": "Câu hỏi tiêu cực",
|
||||
"Mirostat (mode=1 is only for llama.cpp)": "Mirostat (chế độ=1 chỉ dành cho llama.cpp)",
|
||||
"Mirostat is a thermostat for output perplexity": "Mirostat là một bộ điều chỉnh nhiệt cho sự phức tạp của đầu ra.",
|
||||
"Mirostat_desc": "Mirostat là một bộ điều chỉnh nhiệt cho sự phức tạp của đầu ra.",
|
||||
"Add text here that would make the AI generate things you don't want in your outputs.": "Thêm văn bản ở đây sẽ khiến trí tuệ nhân tạo tạo ra những điều bạn không muốn trong đầu ra của mình.",
|
||||
"Phrase Repetition Penalty": "Phạt Lặp Lại Cụm từ",
|
||||
"Preamble": "Lời giới thiệu",
|
||||
|
@ -111,7 +111,7 @@
|
|||
"Documentation on sampling parameters": "Tài liệu về các tham số lấy mẫu",
|
||||
"Set all samplers to their neutral/disabled state.": "Đặt tất cả các mẫu vào trạng thái trung lập/tắt.",
|
||||
"Only enable this if your model supports context sizes greater than 4096 tokens": "Chỉ bật tính năng này nếu mô hình của bạn hỗ trợ kích thước ngữ cảnh lớn hơn 4096 token.",
|
||||
"Display the response bit by bit as it is generated": "Hiển thị phản hồi từng chút một khi nó được tạo ra.",
|
||||
"Streaming_desc": "Hiển thị phản hồi từng chút một khi nó được tạo ra.",
|
||||
"Generate only one line per request (KoboldAI only, ignored by KoboldCpp).": "Chỉ tạo ra một dòng duy nhất cho mỗi yêu cầu (chỉ dành cho KoboldAI, bị bỏ qua bởi KoboldCpp).",
|
||||
"Ban the End-of-Sequence (EOS) token (with KoboldCpp, and possibly also other tokens with KoboldAI).": "Cấm token Kết thúc Chuỗi (EOS) (với KoboldCpp, và có thể cũng là các token khác với KoboldAI).",
|
||||
"Good for story writing, but should not be used for chat and instruct mode.": "Tốt cho việc viết truyện, nhưng không nên sử dụng cho chế độ trò chuyện và chỉ dẫn.",
|
||||
|
@ -839,7 +839,7 @@
|
|||
"Extras API key (optional)": "Khóa API Phụ (tùy chọn)",
|
||||
"Notify on extension updates": "Thông báo về các bản cập nhật của tiện ích mở rộng",
|
||||
"Toggle character grid view": "Chuyển đổi chế độ xem lưới nhân vật",
|
||||
"Bulk edit characters": "Chỉnh sửa nhân vật theo lô",
|
||||
"Bulk_edit_characters": "Chỉnh sửa nhân vật theo lô",
|
||||
"Bulk delete characters": "Xóa nhân vật theo lô",
|
||||
"Favorite characters to add them to HotSwaps": "Yêu thích các nhân vật để thêm chúng vào HotSwaps",
|
||||
"Underlined Text": "Văn bản Gạch chân",
|
||||
|
@ -908,7 +908,7 @@
|
|||
"Medium": "Trung bình",
|
||||
"Aggressive": "Quyết đoán",
|
||||
"Very aggressive": "Rất quyết đoán",
|
||||
"Eta cutoff is the main parameter of the special Eta Sampling technique. In units of 1e-4; a reasonable value is 3. Set to 0 to disable. See the paper Truncation Sampling as Language Model Desmoothing by Hewitt et al. (2022) for details.": "Ngưỡng Eta là tham số chính của kỹ thuật Mẫu Eta đặc biệt. Trong đơn vị của 1e-4; một giá trị hợp lý là 3. Đặt thành 0 để tắt. Xem bài báo Truncation Sampling as Language Model Desmoothing của Hewitt và cộng sự (2022) để biết chi tiết.",
|
||||
"Eta_Cutoff_desc": "Ngưỡng Eta là tham số chính của kỹ thuật Mẫu Eta đặc biệt. Trong đơn vị của 1e-4; một giá trị hợp lý là 3. Đặt thành 0 để tắt. Xem bài báo Truncation Sampling as Language Model Desmoothing của Hewitt và cộng sự (2022) để biết chi tiết.",
|
||||
"Learn how to contribute your idle GPU cycles to the Horde": "Học cách đóng góp các chu kỳ GPU không hoạt động của bạn cho Bầy",
|
||||
"Use the appropriate tokenizer for Google models via their API. Slower prompt processing, but offers much more accurate token counting.": "Sử dụng bộ mã hóa phù hợp cho các mô hình của Google thông qua API của họ. Xử lý lời mời chậm hơn, nhưng cung cấp đếm token chính xác hơn nhiều.",
|
||||
"Load koboldcpp order": "Tải đơn hàng koboldcpp",
|
||||
|
|
|
@ -15,12 +15,12 @@
|
|||
"rep.pen range": "重复度惩罚范围",
|
||||
"Temperature controls the randomness in token selection": "温度控制词符选择中的随机性:\n- 低温(<1.0)导致更可预测的文本,优先选择高概率的词符。\n- 高温(>1.0)鼓励创造性和输出的多样性,更多地选择低概率的词符。\n将值设置为 1.0 以使用原始概率。",
|
||||
"temperature": "温度",
|
||||
"Top K sets a maximum amount of top tokens that can be chosen from": "Top K 设定了可以选择的最高概率词符的最大数量。",
|
||||
"Top P (a.k.a. nucleus sampling)": "Top P(又称核采样)将所有高概率词符聚集在一起,直到达到特定的百分比。\n换句话说,如果前两个词符分别都有 25% 的概率,而 Top-P 为 0.50,那么只有这两个词符会被考虑。\n将这个值设置为 1.0 就相当于关闭了这个功能。",
|
||||
"Typical P Sampling prioritizes tokens based on their deviation from the average entropy of the set": "典型P采样会根据词符与整体熵的平均差异来优先选择词符。\n那些累积概率接近特定阈值(比如 0.5)的词符会被保留,这样就能区分出那些含有平均信息量的词符。\n将这个值设置为 1.0 就相当于关闭了这个功能。",
|
||||
"Min P sets a base minimum probability": "Min P 设定了一个基础的最小概率,它会根据最高词符概率来进行优化。\n如果最高词符概率是 80%,而Min P设定为 0.1,那么只有那些概率高于8%的词符会被考虑。\n将这个值设置为 0 就相当于关闭了这个功能。",
|
||||
"Top A sets a threshold for token selection based on the square of the highest token probability": "Top A 设定了一个阈值,用于根据最高词符概率的平方来选择词符。\n如果 Top A 设定为 0.2,而最高词符概率是 50%,那么概率低于 5% 的词符会被排除(0.2 * 0.5^2)。\n将这个值设置为 0 就相当于关闭了这个功能。",
|
||||
"Tail-Free Sampling (TFS)": "无尾采样(TFS)通过分析词符概率变化率以及二阶导数来搜索分布中概率较低的尾部词符,\n词符会被保留到某个阈值(例如 0.3),这取决于统一的二阶导数。\n这个值越接近 0,被拒绝的词符数量就越多。将这个值设置为 1.0 就相当于关闭了这个功能。",
|
||||
"Top_K_desc": "Top K 设定了可以选择的最高概率词符的最大数量。",
|
||||
"Top_P_desc": "Top P(又称核采样)将所有高概率词符聚集在一起,直到达到特定的百分比。\n换句话说,如果前两个词符分别都有 25% 的概率,而 Top-P 为 0.50,那么只有这两个词符会被考虑。\n将这个值设置为 1.0 就相当于关闭了这个功能。",
|
||||
"Typical_P_desc": "典型P采样会根据词符与整体熵的平均差异来优先选择词符。\n那些累积概率接近特定阈值(比如 0.5)的词符会被保留,这样就能区分出那些含有平均信息量的词符。\n将这个值设置为 1.0 就相当于关闭了这个功能。",
|
||||
"Min_P_desc": "Min P 设定了一个基础的最小概率,它会根据最高词符概率来进行优化。\n如果最高词符概率是 80%,而Min P设定为 0.1,那么只有那些概率高于8%的词符会被考虑。\n将这个值设置为 0 就相当于关闭了这个功能。",
|
||||
"Top_A_desc": "Top A 设定了一个阈值,用于根据最高词符概率的平方来选择词符。\n如果 Top A 设定为 0.2,而最高词符概率是 50%,那么概率低于 5% 的词符会被排除(0.2 * 0.5^2)。\n将这个值设置为 0 就相当于关闭了这个功能。",
|
||||
"Tail_Free_Sampling_desc": "无尾采样(TFS)通过分析词符概率变化率以及二阶导数来搜索分布中概率较低的尾部词符,\n词符会被保留到某个阈值(例如 0.3),这取决于统一的二阶导数。\n这个值越接近 0,被拒绝的词符数量就越多。将这个值设置为 1.0 就相当于关闭了这个功能。",
|
||||
"Epsilon cutoff sets a probability floor below which tokens are excluded from being sampled": "ε 截止设置了一个概率下限,低于该下限的词符将被排除在采样之外。\n以 1e-4 单位;合适的值为 3。将其设置为 0 以禁用。",
|
||||
"Scale Temperature dynamically per token, based on the variation of probabilities": "根据概率的变化动态地缩放每个词符的温度。",
|
||||
"Minimum Temp": "最小温度",
|
||||
|
@ -33,7 +33,7 @@
|
|||
"Learning rate of Mirostat": "Mirostat 的学习率。",
|
||||
"Strength of the Contrastive Search regularization term. Set to 0 to disable CS": "对比搜索正则化项的强度。 将值设置为 0 以禁用对比搜索。",
|
||||
"Temperature Last": "温度放最后",
|
||||
"Use the temperature sampler last": "温度采样器放到最后使用。 这通常是合理的。\n当启用时:首先进行潜在词符的选择,然后应用温度来修正它们的相对概率(技术上是对数似然)。\n当禁用时:首先应用温度来修正所有词符的相对概率,然后从中选择潜在词符。\n禁用此项可以增大分布在尾部的词符概率,这可能加大得到不相关回复的几率。",
|
||||
"Temperature_Last_desc": "温度采样器放到最后使用。 这通常是合理的。\n当启用时:首先进行潜在词符的选择,然后应用温度来修正它们的相对概率(技术上是对数似然)。\n当禁用时:首先应用温度来修正所有词符的相对概率,然后从中选择潜在词符。\n禁用此项可以增大分布在尾部的词符概率,这可能加大得到不相关回复的几率。",
|
||||
"LLaMA / Mistral / Yi models only": "LLaMA / Mistral / Yi模型专用。首先确保您选择了适当的词符化器。\n这项设置决定了你不想在结果中看到的字符串。\n每行一个字符串。可以是文本或者[词符id]。\n许多词符以空格开头。如果不确定,请使用词符计数器。",
|
||||
"Example: some text [42, 69, 1337]": "例如:\n一些文本\n[42, 69, 1337]",
|
||||
"Classifier Free Guidance. More helpful tip coming soon": "无分类器指导(CFG)。更多有用的提示敬请期待。",
|
||||
|
@ -87,7 +87,7 @@
|
|||
"Eta Cutoff": "η 截断",
|
||||
"Negative Prompt": "负面提示词",
|
||||
"Mirostat (mode=1 is only for llama.cpp)": "Mirostat(mode=1 仅用于 llama.cpp)",
|
||||
"Mirostat is a thermostat for output perplexity": "Mirostat 是输出困惑度的恒温器",
|
||||
"Mirostat_desc": "Mirostat 是输出困惑度的恒温器",
|
||||
"Add text here that would make the AI generate things you don't want in your outputs.": "请在此处添加文本,以避免生成您不希望出现在输出中的内容。",
|
||||
"Phrase Repetition Penalty": "短语重复度惩罚",
|
||||
"Preamble": "序文",
|
||||
|
@ -111,7 +111,7 @@
|
|||
"Documentation on sampling parameters": "有关采样参数的文档",
|
||||
"Set all samplers to their neutral/disabled state.": "将所有采样器设置为失效/禁用状态。",
|
||||
"Only enable this if your model supports context sizes greater than 4096 tokens": "仅在您的模型支持大于4096个词符的上下文大小时启用此选项",
|
||||
"Display the response bit by bit as it is generated": "逐位显示生成的响应",
|
||||
"Streaming_desc": "逐位显示生成的响应",
|
||||
"Generate only one line per request (KoboldAI only, ignored by KoboldCpp).": "每个请求仅生成一行(仅限KoboldAI,KoboldCpp不支持)。",
|
||||
"Ban the End-of-Sequence (EOS) token (with KoboldCpp, and possibly also other tokens with KoboldAI).": "禁止 EOS 词符(用KoboldCpp会出现的词符,可能还有其他用KoboldAI会出现的词符)。",
|
||||
"Good for story writing, but should not be used for chat and instruct mode.": "适用于写故事,但不应该用于聊天和指导模式。",
|
||||
|
@ -840,7 +840,7 @@
|
|||
"Extras API key (optional)": "扩展API密钥(可选)",
|
||||
"Notify on extension updates": "在扩展更新时通知",
|
||||
"Toggle character grid view": "切换角色网格视图",
|
||||
"Bulk edit characters": "批量编辑角色",
|
||||
"Bulk_edit_characters": "批量编辑角色",
|
||||
"Bulk delete characters": "批量删除角色",
|
||||
"Favorite characters to add them to HotSwaps": "收藏角色以将它们添加到快速热切换区",
|
||||
"Underlined Text": "下划线文本",
|
||||
|
@ -909,7 +909,7 @@
|
|||
"Medium": "中",
|
||||
"Aggressive": "激进",
|
||||
"Very aggressive": "非常激进",
|
||||
"Eta cutoff is the main parameter of the special Eta Sampling technique. In units of 1e-4; a reasonable value is 3. Set to 0 to disable. See the paper Truncation Sampling as Language Model Desmoothing by Hewitt et al. (2022) for details.": "η截止是特殊η采样技术的主要参数。 以1e-4为单位;合理的值为3。 设置为0以禁用。 有关详细信息,请参阅Hewitt等人的论文《Truncation Sampling as Language Model Desmoothing》(2022年)。",
|
||||
"Eta_Cutoff_desc": "η截止是特殊η采样技术的主要参数。 以1e-4为单位;合理的值为3。 设置为0以禁用。 有关详细信息,请参阅Hewitt等人的论文《Truncation Sampling as Language Model Desmoothing》(2022年)。",
|
||||
"Learn how to contribute your idle GPU cycles to the Horde": "了解如何将您的空闲GPU时钟周期共享给Horde",
|
||||
"Use the appropriate tokenizer for Google models via their API. Slower prompt processing, but offers much more accurate token counting.": "通过其API为Google模型使用适当的词符化器。处理速度较慢,但提供更准确的词符计数。",
|
||||
"Load koboldcpp order": "加载koboldcpp顺序",
|
||||
|
|
|
@ -919,6 +919,7 @@
|
|||
"prompt_manager_absolute": "絕對位置",
|
||||
"prompt_manager_depth": "深度",
|
||||
"prompt_manager_edit": "編輯",
|
||||
"prompt_manager_forbid_overrides": "禁止覆寫",
|
||||
"prompt_manager_name": "名稱",
|
||||
"prompt_manager_position": "位置",
|
||||
"prompt_manager_relative": "相對位置",
|
||||
|
@ -1201,7 +1202,7 @@
|
|||
"Tags to Embed": "嵌入標籤",
|
||||
"Tags_as_Folders_desc": "最近更改:標籤必須在標籤管理選單中標記為資料夾才能顯示為此類。點選這裡打開。",
|
||||
"Tail Free Sampling": "無尾取樣",
|
||||
"Tail-Free Sampling (TFS)": "無尾取樣(TFS)",
|
||||
"Tail_Free_Sampling_desc": "無尾取樣(TFS)",
|
||||
"Tail_Free_Sampling_desc": "無尾取樣(Tail-Free Sampling, TFS)會透過分析符記機率的變化率(使用導數)來尋找分佈中的低機率符記尾部。\n它會根據標準化的二階導數,保留直到某個閾值(例如0.3)的符記。\n數值越接近 0 ,表示會棄去越多符記。設定為 1.0 以停用。",
|
||||
"Talkativeness": "健談度",
|
||||
"Target length (tokens)": "目標長度(符記)",
|
||||
|
|
Loading…
Reference in New Issue