Data gateway sdk
Project description
Data adapter
Входной слой поступления данных от приборов или других источников
Примерный флоу данных от прибора такой:
- данные поступают от прибора в балансирощик данных
- попадают в сервис юдп
- сервис юдп отправляет пакет в очередь в виде сообщения, оформляя сообщение в нужную структуру, выдавая идентификатор конкретному запросу
- воркер разбора конкретного протокола разбирает пакет
- воркер рассылает в распределитель сообщение уже с распаршенными данными, если они валидны, так же отправляет его же в сбор метаданных
- воркер метаданных сохраняет логи по конкретному прибору
- воркер распределителя отправляет сообщение в нужную интеграцию
- воркер интеграции конкретного провайдера читает из очереди и отправляет в нужный сервис
Сервисы
Сервис это библиотека, сервис это то что в рантайме всегда
data_gateway__broker__amqp
сервис брокера очередей сообщений
data_gateway__device_smp__udp_server
сервис приложения, написанный на GO. слушает порт UDP и отправляет в очередь на разбор пакета. Технически ему не важен протокол. Ожидает сообщения из очереди с айди сообщения запроса. так же слушает очередь прибора для отправки к конкретному прибору
data_gateway__balancer
Балансировщик нагрузки.
ВСЕ ВНЕШНИЕ ПОРТЫ ДОЛЖНЫ ПРОБРАСЫВАТЬСЯ ЧЕРЕЗ НЕГО
mon_*
mon__metrics__aggregator
, mon__metrics__dashboard
, mon__process_explorer__server
, mon__process_explorer__container
, mon__log__aggregator
сервисы сбора аналитических данных
Переменные среды для деплоя
DD_API_KEY
- api ключ datadog
DH_PARAM
- для шифрования в nginx
SSH_ID_RSA
- приватный ключ доступа на сервер для развертывания
{CI_BRANCH}_DATABASE_ENDPOINT
- эндпоинт для коннекта к базе данных. Содержит в себе юзернейм, пароль и название самой базы данных
{CI_BRANCH}_APPLICATION_BROKER_ENDPOINT
- эндпоинт для коннекта к броокеру сообщений (rabbitmq). Содержит в себе юзернейм и пароль
Глобальные зависимости
- ubuntu 20.04
- bash
- make
- python
3.8.6
- pyenv
- pipenv
- docker-compose
1.27.4
- docker
19.03.13
Команды
обновление репозитория до последнего состояния в ветке
make cleanup
Это обновит пакеты и почистит все необходимое
Запуск локально
make up
Запустит все необходимые контейнеры
Тестовая нагрузка на сервисы
нагрузит воркер СМП одним тестовым сообщением. добавит его в очередь
make worker_SMP_load
нагрузит воркер СМП одним реальным сообщением от прибора. добавит его в очередь
make worker_SMP_load_real_raw_data
нагрузит воркер распределителя интеграции
make integration_router_load
make load_UDP_SMP_getset
make DEV_load_UDP_SMP_getset
Системные команды
make update-ci-images
Работа с Grafana
В данный момент графана крутится на 4011 порту, т.е. дабы получить туда доступ, то небходимо, например, перейти по адресу 192.168.10.92:4011
Рабочих дашборда 2 - Docker and system monitoring && RabbitMQ-Overview
Docker and system monitoring
На данном дашборде указаныф все метрики по серверу и контейнерам, кол-во свободного дискового пространства, ЦПУ. RAM, SWAP и т.д. как для сервера, так и для контейнера Алерты приходяи при превышении пороговых значений по ЦПУ, RAM, Disc Space, а также если кол-во контейнеров падает ниже 14 (необходима ручная подстройка, если в какой-то момент добавятся ещё сервисы)
RabbitMQ-Overview
Дублирует админку RabbitMQ с точки зрения сбора показателей
KAFKA
Если речь идёт о наших сертификатах - всё описано в файле kafka_ssl_startup.sh и kafka_generate_client_ssl.sh Это создание сертификатов как серверных, так и клиентскихз с использованием нашего CA севрера
Следующий блок посвящён генерации SSL ключей для kafka. Основным источником информации послужили туториал один и туториал два А также личный опыт
Для генерации калючей, необходимы keytool
и openssl
Первым шагом - необходимо сгенерировать CA ключ (приватный)
openssl genrsa -out root.key
и самим же его подписать
openssl req -new -x509 -key root.key -out root.crt
и для безопасности
chmod 600 root.key
chmod 644 root.crt
Запомним эти два ключа, они нам ещё пригодятся
Для простоты использования и копирования, в дальнейшщих командах используется переменная DOMAIN
, в которой лежит URL, на котором будет в будущем торчать KAFKA
Создаём хранилище сертификатов. Оно одно для всех брокеров Kafka. В нашем случае, там должен лежать только CA сертификат
keytool -keystore kafka.truststore.jks -alias CARoot -import -file root.crt
Use the fully-qualified domain name (FQDN)
Создаём хранилище ключей для брокера, их может быть много, так что длоя каждого брокера оно должно быть своё На вопрос
What is your first and last name?
Отвечаем DNS именем
keytool -keystore kafka01.keystore.jks -alias $DOMAIN -validity 365 -genkey -keyalg RSA -ext SAN=DNS:$DOMAIN
Достаём из хранилища сертификат брокера...
keytool -keystore kafka01.keystore.jks -alias $DOMAIN -certreq -file kafka01.unsigned.crt
...подписываем его нашим CA сертификатом...
openssl x509 -req -CA root.crt -CAkey root.key -in kafka01.unsigned.crt -out kafka01.signed.crt -days 365 -CAcreateserial
...и кладём сертификат брокера обратно в его хранилище, вместе с CA сертификатом
keytool -keystore kafka01.keystore.jks -alias CARoot -import -file root.crt
keytool -keystore kafka01.keystore.jks -alias $DOMAIN -import -file kafka01.signed.crt
В сухом остатке, для корректной работы SSL, нам нобходимы только пароли, а также truestore & keystore(s)
И генерация Ключей для клиента. Надеюсь, вы ещё не потеряли ваши CA ключи, они вам сейчас понадобятся Начинаем генерацию клиентского интерфейса с генерации RSA 2048 ключа в паре с сертификатом (Всё это добро сразу кладётся в хранилище)
keytool -keystore kafka.keystore.jks -alias localhost -genkeypair -keyalg rsa
Достаём неподписаный ключ из хранилища и полдписываем его CA сертифифкатом
keytool -keystore kafka.keystore.jks -alias localhost -certreq -file cert-req-file
openssl x509 -req -CA root.crt -CAkey root.key -in cert-req-file -out certificate.pem -days 365 -CAcreateserial
Для авторизации по SSL вам, как клиенту, понадобится ещё и приватник, так что и его достаём из хранилища
keytool -importkeystore -srckeystore kafka.keystore.jks -srcalias localhost -destalias notebook -destkeystore client.p12 -deststoretype PKCS12
openssl pkcs12 -in client.p12 -nodes -nocerts -out ca-key
Именование сервисов
%prefix%__%pod_name%__%pod_service_name%
- %prefix%
- mon - мониторинг, вспомогательный сервис
- service - приложение, которое работает автономно, обрабатывает запросы или работает в фоне
- manager - приложение, которое запускается только ради команды, затем гаснет
- %pod_name%
- data_logger
- integration
- integration_*
- mts
- device_*
- ncp_smp
- smp
- water5
- communication
- %pod_service_name%
- *_%semantic_name%_worker
- push
- pull
- chrono
- *_%transport_protocol%_server
- *_%semantic_name%_db
- state
- cache
- common
- *_api
- *_web
- *_app
- broker
- *_%semantic_name%_worker
Работа с Kubernetes
Т.к. удалённо все наши сервисы уже работают в кубере, надол уметь с ним работать. Минимально я вам уже рассказал про то, как оно изнутри рабоатет и как писать конфиги, то сейчас о полезных командах
Выдаёт список подов/сервисов/секретов/деплойментов одного неймспейса:
kubectl get pods/svc/secrets/deployments
В любую команду, связанную с сервисами, деплойментами. подами или секретами можно докинуть ключ -A
или --all-namespaces
для получения списка подов со всех неймспейсов
или -n <namespace>
--namespace=<namespace>
для пролучения списка подов с конкретного неймспейса
Выдаёт список нейсмспейсов
kubectl get namespaces
ВЫдаёт конфиг конкретного пода (перемнные проброшенные, контейнера и их порты)
kubectl describe pod <pod_name>
Меняет рабочий неймспейс на тот, что вы уукажите
kubectl config set-context --current --namespace=<namespace>
Заходим внутрь пода
kubectl exec -it <pod_name> -- /bin/bash
Получение логов пода
kubectl logs <pod_name>
Project details
Release history Release notifications | RSS feed
Download files
Download the file for your platform. If you're not sure which to choose, learn more about installing packages.
Source Distribution
Built Distribution
File details
Details for the file ul-data-gateway-sdk-0.4.24.tar.gz
.
File metadata
- Download URL: ul-data-gateway-sdk-0.4.24.tar.gz
- Upload date:
- Size: 353.1 kB
- Tags: Source
- Uploaded using Trusted Publishing? No
- Uploaded via: twine/4.0.1 CPython/3.10.9
File hashes
Algorithm | Hash digest | |
---|---|---|
SHA256 | 7023a308de62037913039ac925ef02a5cf2b285eb7a17f0e1884f30228e972d7 |
|
MD5 | 376e883ae5f3d52c43c841b8a1218a64 |
|
BLAKE2b-256 | 28081ca50a32645336847d0ee168efc8b6e7f2029fd5f8d9f75931177cc9d24f |
File details
Details for the file ul_data_gateway_sdk-0.4.24-py3-none-any.whl
.
File metadata
- Download URL: ul_data_gateway_sdk-0.4.24-py3-none-any.whl
- Upload date:
- Size: 523.0 kB
- Tags: Python 3
- Uploaded using Trusted Publishing? No
- Uploaded via: twine/4.0.1 CPython/3.10.9
File hashes
Algorithm | Hash digest | |
---|---|---|
SHA256 | 8557d957ef7f1d849a9feeb3111b6c64e476b35cfcae57cc3141dec0e6155c78 |
|
MD5 | b1ab1135773254d8e1cf90a59908a2df |
|
BLAKE2b-256 | e3a73ba467e0a5e0a25db3d282e7e3dc8b59db395fb9c2c40de5445f3dac9992 |