|
@@ -718,7 +718,6 @@
|
|
|
"Invalid file content": "Недопустимое содержимое файла",
|
|
|
"Invalid file format.": "Неверный формат файла.",
|
|
|
"Invalid JSON file": "Недопустимый файл JSON",
|
|
|
- "Invalid JSON schema": "Недопустимая схема JSON",
|
|
|
"Invalid Tag": "Недопустимый тег",
|
|
|
"is typing...": "печатает...",
|
|
|
"January": "Январь",
|
|
@@ -733,7 +732,6 @@
|
|
|
"JWT Expiration": "Истечение срока JWT",
|
|
|
"JWT Token": "Токен JWT",
|
|
|
"Kagi Search API Key": "API ключ поиска Kagi",
|
|
|
- "Keep Alive": "Поддерживать активность",
|
|
|
"Keep in Sidebar": "Оставить на боковой панели",
|
|
|
"Key": "Ключ",
|
|
|
"Keyboard shortcuts": "Горячие клавиши",
|
|
@@ -1023,7 +1021,6 @@
|
|
|
"Rename": "Переименовать",
|
|
|
"Reorder Models": "Изменение порядка моделей",
|
|
|
"Reply in Thread": "Ответить в обсуждении",
|
|
|
- "Request Mode": "Режим запроса",
|
|
|
"Reranking Engine": "Движок реранжирования",
|
|
|
"Reranking Model": "Модель реранжирования",
|
|
|
"Reset": "Сбросить",
|
|
@@ -1195,6 +1192,7 @@
|
|
|
"The batch size determines how many text requests are processed together at once. A higher batch size can increase the performance and speed of the model, but it also requires more memory.": "Размер пакета определяет, сколько текстовых запросов обрабатывается одновременно. Больший размер пакета может повысить производительность и быстродействие модели, но также требует больше памяти.",
|
|
|
"The developers behind this plugin are passionate volunteers from the community. If you find this plugin helpful, please consider contributing to its development.": "Разработчики этого плагина - увлеченные волонтеры из сообщества. Если вы считаете этот плагин полезным, пожалуйста, подумайте о том, чтобы внести свой вклад в его разработку.",
|
|
|
"The evaluation leaderboard is based on the Elo rating system and is updated in real-time.": "Таблица лидеров оценки основана на рейтинговой системе Elo и обновляется в режиме реального времени.",
|
|
|
+ "The format to return a response in. Format can be json or a JSON schema.": "",
|
|
|
"The language of the input audio. Supplying the input language in ISO-639-1 (e.g. en) format will improve accuracy and latency. Leave blank to automatically detect the language.": "Язык входного аудиосигнала. Укажите язык ввода в формате ISO-639-1 (например, en), что повысит точность и время ожидания. Оставьте поле пустым для автоматического определения языка.",
|
|
|
"The LDAP attribute that maps to the mail that users use to sign in.": "Атрибут LDAP, который сопоставляется с почтой, используемой пользователями для входа в систему.",
|
|
|
"The LDAP attribute that maps to the username that users use to sign in.": "Атрибут LDAP, который сопоставляется с именем пользователя, используемым пользователями для входа в систему.",
|
|
@@ -1212,7 +1210,9 @@
|
|
|
"This ensures that your valuable conversations are securely saved to your backend database. Thank you!": "Это обеспечивает сохранение ваших ценных разговоров в безопасной базе данных на вашем сервере. Спасибо!",
|
|
|
"This is an experimental feature, it may not function as expected and is subject to change at any time.": "Это экспериментальная функция, она может работать не так, как ожидалось, и может быть изменена в любое время.",
|
|
|
"This model is not publicly available. Please select another model.": "Эта модель недоступна в открытом доступе. Пожалуйста, выберите другую модель.",
|
|
|
+ "This option controls how long the model will stay loaded into memory following the request (default: 5m)": "",
|
|
|
"This option controls how many tokens are preserved when refreshing the context. For example, if set to 2, the last 2 tokens of the conversation context will be retained. Preserving context can help maintain the continuity of a conversation, but it may reduce the ability to respond to new topics.": "Этот параметр определяет, сколько токенов сохраняется при обновлении контекста. Например, если задано значение 2, будут сохранены последние 2 токена контекста беседы. Сохранение контекста может помочь сохранить непрерывность беседы, но может уменьшить возможность отвечать на новые темы.",
|
|
|
+ "This option enables or disables the use of the reasoning feature in Ollama, which allows the model to think before generating a response. When enabled, the model can take a moment to process the conversation context and generate a more thoughtful response.": "",
|
|
|
"This option sets the maximum number of tokens the model can generate in its response. Increasing this limit allows the model to provide longer answers, but it may also increase the likelihood of unhelpful or irrelevant content being generated.": "Этот параметр устанавливает максимальное количество токенов, которые модель может генерировать в своем ответе. Увеличение этого ограничения позволяет модели предоставлять более длинные ответы, но также может увеличить вероятность создания бесполезного или нерелевантного контента.",
|
|
|
"This option will delete all existing files in the collection and replace them with newly uploaded files.": "Эта опция удалит все существующие файлы в коллекции и заменит их вновь загруженными файлами.",
|
|
|
"This response was generated by \"{{model}}\"": "Этот ответ был сгенерирован для \"{{model}}\"",
|