Skip to main content

Data gateway sdk

Project description

Data adapter

Входной слой поступления данных от приборов или других источников

Примерный флоу данных от прибора такой:

  • данные поступают от прибора в балансирощик данных
  • попадают в сервис юдп
  • сервис юдп отправляет пакет в очередь в виде сообщения, оформляя сообщение в нужную структуру, выдавая идентификатор конкретному запросу
  • воркер разбора конкретного протокола разбирает пакет
  • воркер рассылает в распределитель сообщение уже с распаршенными данными, если они валидны, так же отправляет его же в сбор метаданных
  • воркер метаданных сохраняет логи по конкретному прибору
  • воркер распределителя отправляет сообщение в нужную интеграцию
  • воркер интеграции конкретного провайдера читает из очереди и отправляет в нужный сервис

Сервисы

Сервис это библиотека, сервис это то что в рантайме всегда

data_gateway__broker__amqp

сервис брокера очередей сообщений

data_gateway__device_smp__udp_server

сервис приложения, написанный на GO. слушает порт UDP и отправляет в очередь на разбор пакета. Технически ему не важен протокол. Ожидает сообщения из очереди с айди сообщения запроса. так же слушает очередь прибора для отправки к конкретному прибору

data_gateway__balancer

Балансировщик нагрузки.

ВСЕ ВНЕШНИЕ ПОРТЫ ДОЛЖНЫ ПРОБРАСЫВАТЬСЯ ЧЕРЕЗ НЕГО

mon_*

mon__metrics__aggregator, mon__metrics__dashboard, mon__process_explorer__server, mon__process_explorer__container, mon__log__aggregator

сервисы сбора аналитических данных


Переменные среды для деплоя

DD_API_KEY - api ключ datadog

DH_PARAM - для шифрования в nginx

SSH_ID_RSA - приватный ключ доступа на сервер для развертывания

{CI_BRANCH}_DATABASE_ENDPOINT - эндпоинт для коннекта к базе данных. Содержит в себе юзернейм, пароль и название самой базы данных {CI_BRANCH}_APPLICATION_BROKER_ENDPOINT - эндпоинт для коннекта к броокеру сообщений (rabbitmq). Содержит в себе юзернейм и пароль

Глобальные зависимости

  • ubuntu 20.04
  • bash
  • make
  • python 3.14 (см. pyproject.toml / .python-version)
  • uv (Astral uv — для uv sync, uv run)
  • docker-compose 1.27.4
  • docker 19.03.13

Переход с Pipenv на uv

Зависимости проекта задаются в pyproject.toml, зафиксированное дерево — в uv.lock. Установка зависимостей: uv sync (в CI и Docker для воспроизводимости используется uv sync --frozen). Команды lint и tests в Makefile и в GitLab CI вызывают .venv/bin/uvs (скрипты из [tool.uvs.scripts] в pyproject.toml). Локально, чтобы набрать просто uvs lint / uvs test без префикса uv run, активируйте venv: source .venv/bin/activate после uv sync — тогда uvs попадёт в PATH. Файлы Pipfile / Pipfile.lock могут оставаться в репозитории на время перехода; целевой рабочий процесс — uv, не Pipenv.

Команды

обновление репозитория до последнего состояния в ветке

make cleanup

Это обновит пакеты и почистит все необходимое

Запуск локально

make up

Запустит все необходимые контейнеры

Тестовая нагрузка на сервисы

нагрузит воркер СМП одним тестовым сообщением. добавит его в очередь

make worker_SMP_load

нагрузит воркер СМП одним реальным сообщением от прибора. добавит его в очередь

make worker_SMP_load_real_raw_data

нагрузит воркер распределителя интеграции

make integration_router_load
make load_UDP_SMP_getset
make DEV_load_UDP_SMP_getset

Системные команды

make update-ci-images

Работа с Grafana

В данный момент графана крутится на 4011 порту, т.е. дабы получить туда доступ, то небходимо, например, перейти по адресу 192.168.10.92:4011

Рабочих дашборда 2 - Docker and system monitoring && RabbitMQ-Overview

Docker and system monitoring

На данном дашборде указаныф все метрики по серверу и контейнерам, кол-во свободного дискового пространства, ЦПУ. RAM, SWAP и т.д. как для сервера, так и для контейнера Алерты приходяи при превышении пороговых значений по ЦПУ, RAM, Disc Space, а также если кол-во контейнеров падает ниже 14 (необходима ручная подстройка, если в какой-то момент добавятся ещё сервисы)

RabbitMQ-Overview

Дублирует админку RabbitMQ с точки зрения сбора показателей

KAFKA

Если речь идёт о наших сертификатах - всё описано в файле kafka_ssl_startup.sh и kafka_generate_client_ssl.sh Это создание сертификатов как серверных, так и клиентскихз с использованием нашего CA севрера

Следующий блок посвящён генерации SSL ключей для kafka. Основным источником информации послужили туториал один и туториал два А также личный опыт

Для генерации калючей, необходимы keytool и openssl Первым шагом - необходимо сгенерировать CA ключ (приватный)

openssl genrsa -out root.key

и самим же его подписать

openssl req -new -x509 -key root.key -out root.crt

и для безопасности

chmod 600 root.key
chmod 644 root.crt

Запомним эти два ключа, они нам ещё пригодятся


Для простоты использования и копирования, в дальнейшщих командах используется переменная DOMAIN, в которой лежит URL, на котором будет в будущем торчать KAFKA

Создаём хранилище сертификатов. Оно одно для всех брокеров Kafka. В нашем случае, там должен лежать только CA сертификат

keytool -keystore kafka.truststore.jks -alias CARoot -import -file root.crt

Use the fully-qualified domain name (FQDN)

Создаём хранилище ключей для брокера, их может быть много, так что длоя каждого брокера оно должно быть своё На вопрос

What is your first and last name?

Отвечаем DNS именем

keytool -keystore kafka01.keystore.jks -alias $DOMAIN -validity 365 -genkey -keyalg RSA -ext SAN=DNS:$DOMAIN

Достаём из хранилища сертификат брокера...

keytool -keystore kafka01.keystore.jks -alias $DOMAIN -certreq -file kafka01.unsigned.crt

...подписываем его нашим CA сертификатом...

openssl x509 -req -CA root.crt -CAkey root.key -in kafka01.unsigned.crt -out kafka01.signed.crt -days 365 -CAcreateserial

...и кладём сертификат брокера обратно в его хранилище, вместе с CA сертификатом

keytool -keystore kafka01.keystore.jks -alias CARoot -import -file root.crt
keytool -keystore kafka01.keystore.jks -alias $DOMAIN -import -file kafka01.signed.crt

В сухом остатке, для корректной работы SSL, нам нобходимы только пароли, а также truestore & keystore(s)


И генерация Ключей для клиента. Надеюсь, вы ещё не потеряли ваши CA ключи, они вам сейчас понадобятся Начинаем генерацию клиентского интерфейса с генерации RSA 2048 ключа в паре с сертификатом (Всё это добро сразу кладётся в хранилище)

keytool -keystore kafka.keystore.jks -alias localhost -genkeypair -keyalg rsa

Достаём неподписаный ключ из хранилища и полдписываем его CA сертифифкатом

keytool -keystore kafka.keystore.jks -alias localhost -certreq -file cert-req-file
openssl x509 -req -CA root.crt -CAkey root.key -in cert-req-file  -out certificate.pem -days 365 -CAcreateserial

Для авторизации по SSL вам, как клиенту, понадобится ещё и приватник, так что и его достаём из хранилища

keytool -importkeystore -srckeystore kafka.keystore.jks -srcalias localhost -destalias notebook -destkeystore client.p12 -deststoretype PKCS12
openssl pkcs12 -in client.p12 -nodes -nocerts -out ca-key

Именование сервисов

%prefix%__%pod_name%__%pod_service_name%

  • %prefix%
    • mon - мониторинг, вспомогательный сервис
    • service - приложение, которое работает автономно, обрабатывает запросы или работает в фоне
    • manager - приложение, которое запускается только ради команды, затем гаснет
  • %pod_name%
    • data_logger
    • integration
    • integration_*
      • mts
    • device_*
      • ncp_smp
      • smp
      • water5
    • communication
  • %pod_service_name%
    • *_%semantic_name%_worker
      • push
      • pull
      • chrono
    • *_%transport_protocol%_server
    • *_%semantic_name%_db
      • state
      • cache
      • common
    • *_api
    • *_web
    • *_app
    • broker

Работа с Kubernetes

Т.к. удалённо все наши сервисы уже работают в кубере, надол уметь с ним работать. Минимально я вам уже рассказал про то, как оно изнутри рабоатет и как писать конфиги, то сейчас о полезных командах

Выдаёт список подов/сервисов/секретов/деплойментов одного неймспейса:

kubectl get pods/svc/secrets/deployments

В любую команду, связанную с сервисами, деплойментами. подами или секретами можно докинуть ключ -A или --all-namespaces для получения списка подов со всех неймспейсов или -n <namespace> --namespace=<namespace> для пролучения списка подов с конкретного неймспейса Выдаёт список нейсмспейсов

kubectl get namespaces

ВЫдаёт конфиг конкретного пода (перемнные проброшенные, контейнера и их порты)

kubectl describe pod <pod_name>

Меняет рабочий неймспейс на тот, что вы уукажите

kubectl config set-context --current --namespace=<namespace>

Заходим внутрь пода

kubectl exec -it <pod_name> -- /bin/bash

Получение логов пода

kubectl logs <pod_name>

Project details


Download files

Download the file for your platform. If you're not sure which to choose, learn more about installing packages.

Source Distribution

ul_data_gateway_sdk-2.0.0.dev1.tar.gz (404.4 kB view details)

Uploaded Source

Built Distribution

If you're not sure about the file name format, learn more about wheel file names.

ul_data_gateway_sdk-2.0.0.dev1-py3-none-any.whl (579.9 kB view details)

Uploaded Python 3

File details

Details for the file ul_data_gateway_sdk-2.0.0.dev1.tar.gz.

File metadata

  • Download URL: ul_data_gateway_sdk-2.0.0.dev1.tar.gz
  • Upload date:
  • Size: 404.4 kB
  • Tags: Source
  • Uploaded using Trusted Publishing? No
  • Uploaded via: twine/6.2.0 CPython/3.14.2

File hashes

Hashes for ul_data_gateway_sdk-2.0.0.dev1.tar.gz
Algorithm Hash digest
SHA256 b0d9060e8848d56997cb02a83d84ad9ed50ff673c5ef89aa060e3148aa10737e
MD5 9df8bd8227c26b727b7e365f3b48ee49
BLAKE2b-256 c51c518284a682c2c298f52cd2c8d451a09c6378b8a86ff1655f8fa675a1f43c

See more details on using hashes here.

File details

Details for the file ul_data_gateway_sdk-2.0.0.dev1-py3-none-any.whl.

File metadata

File hashes

Hashes for ul_data_gateway_sdk-2.0.0.dev1-py3-none-any.whl
Algorithm Hash digest
SHA256 a8ab0cf0f31a3eb138bf33e5d05f6836af33eef9ccd5af62bca3a4193e6df5d7
MD5 f1801ad5de352ead1dbbae5273ac932d
BLAKE2b-256 9daed713ec456d98e54648489f5d8ff6a8fecd1d4ff1d2900a67b54b7e223be4

See more details on using hashes here.

Supported by

AWS Cloud computing and Security Sponsor Datadog Monitoring Depot Continuous Integration Fastly CDN Google Download Analytics Pingdom Monitoring Sentry Error logging StatusPage Status page