1. Главная
  2. Документы
  3. ПТ Интеллект для BPMSoft
  4. Инструкция по установке и настройке продукта «ПТ Интеллект для BPMSoft»

Инструкция по установке и настройке продукта «ПТ Интеллект для BPMSoft»

Технические требования

ПТ Интеллект для BPMSoft совместим со всеми продуктами на платформе BPMSoft версии 1.5 и выше.

Установка BPMsoft

Установка BPMSoft ничем не отличается от стандартного процесса разворачивания, описанного в инструкции (Инструкция доступна на сайте bpmsoft.ru).

Установка LLM

Продукт поддерживает интеграцию с такими распространенными сервисами, предоставляющими доступ к своим LLM (“Large Language Model — Большая языковая модель” — определение см. в открытых источниках), как:

  • Mistral AI
  • xAi
  • YandexGPT
  • Claude
  • ChatGPT
  • Qwen AI
  • GigaChat
  • Google Gemini
  • DeepSeek
  • CustomLLM — любая OpenAI подобная LLM.

Инструкции по настройке, эксплуатации и процессу развертывания и настройки собственных локальных моделей описаны в соответствующей документации, доступной в открытых источниках информации.

Установка пакетов

Перед установкой необходимо получить архивы актуальных пакетов по адресу у представителя компании “Программные технологии” или представителя “BPMSoft”.

Необходимо скачать пакеты Samarasoft.GPTConnector.gz.

Примечание: при повторном скачивании файла пакета автоматически может быть добавлен номер копии в конец названия файла. Например, Samarasoft.GPTConnector.gz(2).gz. Перед установкой пакета рекомендуется удалить добавленные символы и привести название к виду Samarasoft.GPTConnector.gz.

Для установки пакетов перейдите в дизайнер системы (иконка шестеренки) и выберите [Установка и удаление приложений].

На странице [Установка и удаление приложений] нажмите [Добавить приложение] и выберете «Установить из файла», укажите путь до архива с пакетом и выполните установку.

Примечание. Установка пакета занимает около 10 минут.

Настройка подключения к LLM

ПТ Интеллект для BPMSoft — это модуль, подключаемый к одной или нескольким языковым моделям (LLM) через API. Он предназначен для взаимодействия с пользователями в формате диалога и помогает в решении типовых и интеллектуальных задач на основе промпт-инжиниринга. Интеграция осуществляется через чат-интерфейс в правой панели BPMSoft без подключения к базе данных или объектам системы.

Для корректной работы ПТ Интеллект для BPMSoft необходимо добавить и активировать хотя бы одну модель LLM. Управление доступно через раздел «Настройки LLM», который может быть выведен на нужное Рабочее место в системе BPMSoft при помощи раздела «Настройка рабочих мест» в дизайнере системы.

Для корректной работы ПТ Интеллект для BPMSoft необходимо, чтобы API LLM был доступен без ограничений для запросов от платформы BPMSoft (вопрос сетевого администрирования находится в зоне ответственности пользователя / службы системных администраторов / администраторов сети и т.п. компании — пользователя).

Добавление новой модели

Чтобы добавить LLM-модель, выполните следующие действия:

  1. Откройте раздел “Настройки LLM”
  • Нажмите кнопку “Добавить”
  • В открывшейся форме заполните следующие поля:
ПолеОписание
НазваниеОбязательное поле. Имя настройки модели (например, YandexGPT)
СервисОбязательное поле. Выберите тип модели из справочника сервисов (например, YandexGPT)
ИспользоватьПри активации — модель будет активна и доступна пользователям
Вести статистикуПри активации — система будет учитывать использование токенов этой модели в аналитике
API ключОбязательное поле. Уникальный ключ доступа к внешнему API модели
Максимальное количество токеновУстановите ограничение на один запрос. Значение “0” = “без ограничений”
Используемая модельСтрока с точным названием модели, например gpt-4, yandexgpt-lite, claude-3
РазмышляющаяПри активации — модель будет использовать продвинутую цепочку рассуждений. Может влиять на поведение интерфейса (доступность размышления зависит от сервиса и выбранной модели)
ЗаметкиПроизвольное описание для системного администратора или оператора
Цвет иконки чатаЦвет для визуального выделения чата с данной моделью в пользовательском интерфейсе
АдресАдрес API LLM. Доступно только для Custom варианта. Поле скрыто по умолчанию для готовых сервисов.

Ограничения на использование токенов

Для каждой добавленной модели можно задать правила ограничения расхода токенов, что позволяет гибко управлять нагрузкой, разграничивать уровни доступа и обеспечивать экономное использование ресурсов.

Для настройки выполните действия:

  • Перейдите во вкладку «Администрирование» на деталь «Ограничение на использование токенов» внутри настройки модели
  • Установите лимиты:
    • Токены на один чат
    • Токены на день
  • Укажите, на кого распространяются ограничения:
    • Отдельные пользователи
    • Группы пользователей
  • Выберите, для какой модели эти ограничения действуют (если добавлено несколько).
Был ли данный материал полезен вам? Да Нет