Skip to main content

Sistema profissional de monitoramento e resposta a avaliações médicas. Inclui web scraping resiliente, API REST, análise de sentimento, geração inteligente de respostas e integração com n8n/Telegram.

Project description

Pipeline Docker-first para scraping de reviews, geração de respostas e relatórios Telegram com API, dashboard, Redis/RQ, Selenium e n8n.

Wiki · Quickstart · API REST · Dashboard · Telegram · n8n · About

Por que este projeto existe

Este repositório organiza uma rotina operacional completa para reviews do Doctoralia. Em vez de tratar scraping como um script solto, ele une coleta, análise, geração de respostas, snapshots persistidos, histórico, observabilidade, autenticação do dashboard e distribuição por Telegram em uma mesma stack local.

O que você encontra aqui

Bloco O que faz
api Expõe endpoints sync e async, settings, health, metrics e notificações Telegram
worker Processa scraping, análise, geração e snapshots em background
dashboard Workspace visual para operação diária, histórico, relatórios, perfil do operador e scheduler
redis Fila RQ, métricas Redis-backed, agendamentos, locks e histórico
selenium Navegador remoto para scraping resiliente
n8n Orquestrações externas, callbacks e automações multi-sistema

Tour visual

Overview do dashboard Agendamentos Telegram do dashboard
Workspace operacional
Perfis, pendências, saúde da stack, relatórios e histórico de snapshots.
Scheduler Telegram
Recorrência, scraping novo, geração, anexos, health e histórico persistido.

Como a stack funciona

Workflow principal do projeto

Início rápido

Docker

cp .env.example .env
cp config/config.example.json config/config.json

docker compose up -d --build
docker compose ps

URLs locais esperadas:

  • API: http://localhost:8000/docs
  • Dashboard: http://localhost:5000 (redireciona para /login quando a auth estiver ativa)
  • Telegram scheduling: http://localhost:5000/notifications/telegram/schedule
  • n8n: http://localhost:5678 com Basic Auth configurada no .env
  • Selenium status: http://localhost:4444/status

Primeiro acesso ao dashboard:

  • usuário padrão: o campo user_profile.username em config/config.json (por padrão, admin)
  • senha inicial: a API_KEY enquanto o bootstrap estiver ativo e ainda não existir dashboard_password_hash
  • troca de senha: faça depois do login em http://localhost:5000/me

Desenvolvimento local

make venv
cp .env.example .env
cp config/config.example.json config/config.json

make api
make dashboard

Comandos úteis:

make run-url URL="https://www.doctoralia.com.br/medico/exemplo"
make run-full URL="https://www.doctoralia.com.br/medico/exemplo"
make test
make lint

Endpoints que importam

Método Endpoint Uso
POST /v1/scrape:run Scraping síncrono
POST /v1/jobs Cria job assíncrono
GET /v1/jobs/{job_id} Consulta job
GET /v1/ready Readiness com Redis, Selenium e NLTK
GET /v1/metrics Métricas da API persistidas em Redis
GET /v1/auth/status Estado da autenticação do dashboard
POST /v1/auth/login Validação de credenciais do dashboard
POST /v1/auth/change-password Rotação da senha dedicada do dashboard
GET/POST/PUT/DELETE /v1/notifications/telegram/schedules CRUD do scheduler Telegram
POST /v1/notifications/telegram/schedules/{schedule_id}/run Disparo manual
GET /v1/notifications/telegram/history Histórico persistido
POST /v1/notifications/telegram/test Validação real do bot
POST /v1/hooks/n8n/scrape Webhook dedicado do n8n

Estado atual do projeto

Tema Situação
Stack Docker api, worker, dashboard, redis, selenium, n8n
Workspace web Operacional, autenticado e com scheduler Telegram integrado
Persistência Snapshots em data/ e histórico/schedules em Redis
Métricas da API Redis-backed, multi-processo
n8n local preso em 127.0.0.1:5678, com auth e encryption key obrigatórias
Testes suíte cobrindo áreas críticas de API, dashboard, jobs, Redis e Telegram
Auth do dashboard login web, sessão assinada, bootstrap via API_KEY e rotação em /me

Redis em localhost:6379

Se você abrir http://localhost:6379 no navegador e receber ERR_EMPTY_RESPONSE, isso é esperado.

  • Redis está rodando.
  • O browser fala HTTP.
  • Redis não fala HTTP.

Validação correta:

docker compose exec -T redis redis-cli ping

Saída esperada:

PONG

Wiki do repositório

O README agora é só a entrada. A documentação foi reorganizada em formato de wiki dentro de docs/.

Página Para que serve
docs/Home.md Hub principal da wiki
docs/about.md Texto de vitrine, metadata e assets do repositório
docs/quickstart.md Setup rápido
docs/overview.md Arquitetura e responsabilidades
docs/dashboard-workspace.md Operação diária no dashboard
docs/telegram-notifications.md Scheduler Telegram completo
docs/api.md Referência da API
docs/n8n.md Workflows e integração externa
docs/operations.md Runbook e troubleshooting
docs/development.md Padrões de desenvolvimento
docs/deployment.md Guia de deploy
docs/templates.md Templates e mensagens

Assets visuais adicionados

Convenções técnicas

  • Imports internos padronizados em formato absoluto: from src... e from config...
  • Dependências gerenciadas por poetry
  • Formatação com black e isort
  • Testes com pytest

Limitações atuais

  • Rate limiting global da API REST ainda não existe como middleware completo.
  • O scheduler recorrente depende da API estar de pé.
  • A troca de senha do dashboard hoje valida apenas o mínimo de caracteres no backend; complexidade adicional ainda é recomendação de UX, não requisito de servidor.
  • Ainda há espaço para subir coverage em src/scraper.py, src/response_generator.py, src/telegram_notifier.py e src/dashboard.py.

Licença

MIT

Project details


Download files

Download the file for your platform. If you're not sure which to choose, learn more about installing packages.

Source Distribution

doctoralia_scrapper-2.1.0.tar.gz (100.3 kB view details)

Uploaded Source

Built Distribution

If you're not sure about the file name format, learn more about wheel file names.

doctoralia_scrapper-2.1.0-py3-none-any.whl (110.9 kB view details)

Uploaded Python 3

File details

Details for the file doctoralia_scrapper-2.1.0.tar.gz.

File metadata

  • Download URL: doctoralia_scrapper-2.1.0.tar.gz
  • Upload date:
  • Size: 100.3 kB
  • Tags: Source
  • Uploaded using Trusted Publishing? No
  • Uploaded via: poetry/2.2.1 CPython/3.11.15 Linux/6.17.0-1010-azure

File hashes

Hashes for doctoralia_scrapper-2.1.0.tar.gz
Algorithm Hash digest
SHA256 1b9e97f8fda270b2bad1065bc9b6f30750bfa9ad77ef12d84a079c8619c0e4de
MD5 550626889fc0525a714080ae3c14f041
BLAKE2b-256 14d3a8f5091a8d67be4168130914ef52896cd1ad61f9b9603056cc6371b9567d

See more details on using hashes here.

File details

Details for the file doctoralia_scrapper-2.1.0-py3-none-any.whl.

File metadata

  • Download URL: doctoralia_scrapper-2.1.0-py3-none-any.whl
  • Upload date:
  • Size: 110.9 kB
  • Tags: Python 3
  • Uploaded using Trusted Publishing? No
  • Uploaded via: poetry/2.2.1 CPython/3.11.15 Linux/6.17.0-1010-azure

File hashes

Hashes for doctoralia_scrapper-2.1.0-py3-none-any.whl
Algorithm Hash digest
SHA256 684674a6b7818c19da9112fe082bbc8f7c647edfc5f63297af29151db7fdb811
MD5 332ede58bf25a75ba55e86772b15a81f
BLAKE2b-256 831d9ca424934ca59601c8d215efb58786735e13a10a18e5b16816fe8eb54687

See more details on using hashes here.

Supported by

AWS Cloud computing and Security Sponsor Datadog Monitoring Depot Continuous Integration Fastly CDN Google Download Analytics Pingdom Monitoring Sentry Error logging StatusPage Status page