SAP AI Core
SAP AI Core и Generative AI Hub помогают интегрировать LLM и AI в новые бизнес-процессы экономически эффективным способом.
Веб-сайт: SAP Help Portal
Info
SAP AI Core и Generative AI Hub являются предложениями SAP BTP. Для выполнения этих шагов вам потребуется действующий контракт SAP BTP и существующий subaccount с инстансом SAP AI Core с service plan extended (для получения более подробной информации о SAP AI Core service plans и их возможностях см. документацию по Service Plans).
Получение Service Binding
- Доступ: Перейдите в свой subaccount через BTP Cloud Cockpit
- Создайте Service Binding: Перейдите в раздел «Instances and Subscriptions», выберите инстанс сервиса SAP AI Core и нажмите Service Bindings > Create.
- Скопируйте Service Binding: Скопируйте значения service binding.
Поддерживаемые модели
SAP AI Core поддерживает большое и постоянно растущее количество моделей. Для получения полного и актуального списка обратитесь к странице Generative AI Hub Supported Models.
Настройка в Careti
- Откройте настройки Careti: Нажмите на значок шестеренки (⚙️) на панели Careti.
- Выберите провайдера: Выберите «SAP AI Core» в раскрывающемся списке «API Provider».
- Введите Client Id: Добавьте поле
.clientidиз service binding в поле «AI Core Client Id». - Введите Client Secret: Добавьте поле
.clientsecretиз service binding в поле «AI Core Client Secret». - Введите Base URL: Добавьте поле
.serviceurls.AI_API_URLиз service binding в поле «AI Core Base URL». - Введите Auth URL: Добавьте поле
.urlиз service binding в поле «AI Core Auth URL». - Введите Resource Group: Добавьте resource group, в которой находятся ваши развертывания моделей. См. Create a Deployment for a Generative AI Model.
- Настройте Orchestration Mode: Если у вас есть service plan
extended, флажок «Orchestration Mode» появится автоматически. - Выберите модель: Выберите нужную модель в раскрывающемся списке «Model».
Orchestration Mode против Native API
Orchestration Mode:
- Упрощенное использование: Предоставляет доступ ко всем доступным моделям без необходимости индивидуального развертывания с использованием Harmonized API
Режим Native API:
- Ручное развертывание: Требует ручного развертывания моделей и управления ими в вашем инстансе сервиса SAP AI Core
Советы и примечания
-
Требование к Service Plan: Для использования LLM с Careti у вас должен быть service plan SAP AI Core
extended. Другие service plans не предоставляют доступ к Generative AI Hub. -
Orchestration Mode (рекомендуется): Оставьте Orchestration Mode включенным для максимально простой настройки. Он обеспечивает автоматический доступ ко всем доступным моделям без необходимости ручного развертывания.
-
Режим Native API: Отключайте Orchestration Mode только в том случае, если у вас есть специфические требования, требующие прямого доступа к AI Core API, или если вам нужны функции, не поддерживаемые в Orchestration Mode.
-
При использовании режима Native API:
- Выбор модели: Раскрывающийся список моделей отображает модели в двух отдельных списках:
- Deployed Models: Эти модели уже развернуты в указанной вами resource group и готовы к немедленному использованию.
- Not Deployed Models: Эти модели не имеют активных развертываний в вашей указанной resource group. Вы не сможете использовать эти модели, пока не создадите для них развертывания в SAP AI Core.
- Создание развертываний: Чтобы использовать модель, которая еще не была развернута, вам потребуется создать развертывание в вашем инстансе сервиса SAP AI Core. Инструкции см. в разделе Create a Deployment for a Generative AI Model.
- Выбор модели: Раскрывающийся список моделей отображает модели в двух отдельных списках:
Настройка Reasoning Effort для моделей OpenAI
При использовании моделей OpenAI с поддержкой рассуждений (таких как o1, o3, o3-mini, o4-mini) через SAP AI Core вы можете контролировать уровень Reasoning Effort, чтобы сбалансировать производительность и стоимость:
- Откройте настройки Careti: Нажмите на значок шестеренки (⚙️) на панели Careti.
- Перейдите в Features: Перейдите в раздел «Features» в настройках.
- Найдите OpenAI Reasoning Effort: Найдите параметр «OpenAI Reasoning Effort».
- Выберите уровень усилий: Выберите один из вариантов:
- Low: Более быстрые ответы с меньшим потреблением токенов, подходит для простых задач
- Medium: Сбалансированная производительность и потребление токенов для большинства задач
- High: Более тщательный анализ с более высоким потреблением токенов, лучше подходит для сложных задач на рассуждение
Note
Этот параметр применяется только при использовании моделей OpenAI с поддержкой рассуждений (o1, o3, o3-mini, o4-mini, gpt-5 и т. д.), развернутых через SAP AI Core. Другие модели будут игнорировать этот параметр.