Интеграции
LiteLLM Proxy
Узнайте, как OSMI-AI интегрируется с LiteLLM Proxy
Используйте LiteLLM Proxy с OSMI-AI для:
- Распределения нагрузки между конечными точками Azure OpenAI/LLM
- Вызова более 100 моделей LLM в формате OpenAI
- Использования виртуальных ключей для установки бюджета, ограничения скорости и отслеживания использования
Как использовать LiteLLM Proxy с OSMI-AI
Определите свои модели LLM в файле litellm_config.yaml
LiteLLM требует конфигурационный файл, в котором указаны все ваши модели — его обычно называют litellm_config.yaml.
Подробная документация по настройке файла конфигурации — здесь.
model_list:
- model_name: gpt-4
litellm_params:
model: azure/chatgpt-v-2
api_base: https://openai-gpt-4-test-v-1.openai.azure.com/
api_version: "2023-05-15"
api_key:
- model_name: gpt-4
litellm_params:
model: azure/gpt-4
api_key:
api_base: https://openai-gpt-4-test-v-2.openai.azure.com/
- model_name: gpt-4
litellm_params:
model: azure/gpt-4
api_key:
api_base: https://openai-gpt-4-test-v-2.openai.azure.com/
Шаг 2. Запустите Litellm Proxy
docker run \
-v $(pwd)/litellm_config.yaml:/app/config.yaml \
-p 4000:4000 \
ghcr.io/berriai/litellm:main-latest \
--config /app/config.yaml --detailed_debug
При успешном запуске прокси будет работать по адресу http://localhost:4000/.
Шаг 3. Используйте LiteLLM Proxy в OSMI-AI
В OSMI-AI укажите стандартные узлы OpenAI (не Azure OpenAI) — это касается чат-моделей, эмбеддингов, LLM — всего.
- Установите BasePath на URL LiteLLM Proxy (например,
http://localhost:4000, если запускаете локально). - В заголовках укажите:
Authorization: Bearer <your-litellm-master-key>

