Skip to main content

Uma abstração moderna e inteligente para zen-engine com otimizações avançadas para Spark/Databricks

Project description

🧠 Wise Decision Engine

Motor de decisão que separa a definição das regras de negócio do seu local de processamento

Python 3.8+ License: MIT Databricks Ready CI/CD codecov PyPI version Code style: black


💼 Problema de Negócio

Em ambientes corporativos, as regras de negócio mudam constantemente mas estão frequentemente acopladas ao código de processamento. Isso gera:

  • Demora para mudanças: Alterações simples requerem deploy completo
  • 🔄 Dependência técnica: Regras de negócio presas no pipeline de dados
  • 🚫 Falta de governança: Regras espalhadas e sem controle centralizado
  • 💸 Alto custo de manutenção: Equipe técnica para mudanças de negócio

🎯 Solução: Separação de Responsabilidades

O Wise Decision Engine permite:

🏛️ DEFINIÇÃO DA REGRA ⚙️ PROCESSAMENTO DOS DADOS
Armazenada em tabelas/arquivos Executado em Spark/Databricks
Modificável por analistas Gerenciado por engenheiros
Governança centralizada Performance otimizada
Versionamento de regras Processamento distribuído

🔧 Como Funciona

1. Defina a Regra (Uma vez)

// Salva em tabela Databricks ou arquivo JSON
{
  "name": "aprovacao-credito",
  "rules": {
    "if": [{"var": "renda"}, ">", 5000],
    "then": {"aprovado": true, "limite": 10000},
    "else": {"aprovado": false, "limite": 0}
  }
}

2. Processe os Dados (Sempre que necessário)

from wise_decision_engine import DatabricksHelper

# Uma linha aplica a regra para milhões de registros
resultado = DatabricksHelper.quick_decision_apply(
    catalog="regras_catalog",
    schema="public", 
    table="decisoes",
    decision_name="aprovacao-credito",
    input_df=clientes_df  # DataFrame com milhões de clientes
)

# ✅ Resultado: DataFrame com decisões aplicadas automaticamente
resultado.show()

3. Mude a Regra (Sem redeploy)

-- Analista de negócio altera diretamente na tabela
UPDATE regras_catalog.public.decisoes 
SET content = '{"rules": {"if": [{"var": "renda"}, ">", 8000], ...}}'
WHERE name = 'aprovacao-credito';

-- ✅ Próxima execução já usa a nova regra (cache automático)

📦 Instalação

pip install wise-decision-engine

🚀 Casos de Uso Reais

Aprovação de Crédito

# Regra armazenada em tabela Databricks
# Processamento em Spark para milhões de clientes
resultado = DatabricksHelper.quick_decision_apply(
    "financeiro_catalog", "regras", "decisoes",
    "aprovacao-pf", clientes_df
)

Detecção de Fraude

# Mesma interface, regra diferente
# Analista atualiza regra sem código
resultado = DatabricksHelper.quick_decision_apply(
    "risco_catalog", "regras", "decisoes", 
    "deteccao-fraude", transacoes_df
)

Precificação Dinâmica

# Regras de pricing atualizadas em tempo real
resultado = DatabricksHelper.quick_decision_apply(
    "comercial_catalog", "regras", "decisoes",
    "precificacao-produto", vendas_df
)

🎯 Benefícios de Negócio

Para Analistas de Negócio

  • Autonomia total: Alteram regras sem depender de TI
  • Versionamento: Histórico completo de mudanças
  • Teste A/B: Diferentes versões de regras facilmente
  • Governança: Controle centralizado de todas as regras

Para Engenheiros de Dados

  • Menos deploy: Mudanças de regra não requerem código
  • Performance: Processamento otimizado para Spark
  • Manutenibilidade: Código limpo e desacoplado
  • Escalabilidade: Engine preparada para big data

Para Organização

  • 💰 Redução de custos: 80% menos tempo para mudanças
  • Time-to-market: Novas regras em minutos, não semanas
  • 🔒 Compliance: Auditoria completa de regras aplicadas
  • 📈 Agilidade: Resposta rápida a mudanças de mercado

🏗️ Arquitetura da Solução

┌─────────────────┐    ┌──────────────────┐    ┌─────────────────┐
│   📋 REGRAS     │    │  🔄 PROCESSING   │    │  📊 RESULTADO   │
│                 │    │                  │    │                 │
│ • Tabela Delta  │───▶│ • Spark Engine   │───▶│ • DataFrame     │
│ • Arquivos JSON │    │ • Cache Auto     │    │ • Schema Auto   │
│ • Versionadas   │    │ • UDFs Otimizas  │    │ • Performance   │
└─────────────────┘    └──────────────────┘    └─────────────────┘

Separação Clara de Responsabilidades

  • 📋 Camada de Regras: Definição e governança (Analistas)
  • 🔄 Camada de Processamento: Performance e escala (Engenheiros)
  • 📊 Camada de Resultado: Consumo e análise (Usuários finais)

🔍 Auto-Schema: Expansão Automática de Colunas

Problema: Schema Manual Complexo

Antes, criar colunas a partir dos resultados das decisões requeria ~20 linhas de código manual:

# ❌ Schema manual (complexo e propenso a erros)
exemplo_json = resultado_df.select("wd_result").limit(1).collect()[0]["wd_result"]
exemplo_result = json.loads(exemplo_json).get("result", {})

# Define tipos manualmente para cada campo
result_fields = []
for k, v in exemplo_result.items():
    field_type = type_map.get(type(v), StringType())
    result_fields.append(StructField(k, field_type, True))

result_schema = StructType(result_fields)
# ... mais 10+ linhas para aplicar schema ...

Solução: Auto-Schema Inteligente

Com auto-schema, isso vira 1 parâmetro:

# ✅ Auto-schema (automático e inteligente)
resultado = DatabricksHelper.quick_decision_apply(
    "catalog", "schema", "decisoes", "minha-regra", df,
    auto_schema=True,              # 🔥 Detecção automática de tipos
    schema_strategy="aggressive",   # Estratégia inteligente
    show_schema_info=True          # Mostra o que foi detectado
)

# ✅ Resultado: Todas as colunas expandidas automaticamente com tipos corretos!

Como Funciona o Auto-Schema

  1. 🔍 Análise Automática: Coleta amostras dos resultados JSON
  2. 🧠 Detecção Inteligente: Identifica tipos automaticamente (int, bool, string, arrays, structs)
  3. 📊 Schema Otimizado: Cria schema Spark com tipos corretos
  4. ⚡ Expansão Automática: Converte para colunas individuais com prefixo decision_*

Estratégias Disponíveis

Estratégia Descrição Uso Recomendado
conservative Tipos básicos apenas Produção estável
aggressive Inclui arrays e structs aninhados Estruturas complexas
flat_only Apenas campos de primeiro nível Performance máxima

Exemplo de Transformação

Input JSON:

{
  "result": {
    "score": 750,
    "approved": true,
    "limit": 10000.50,
    "reasons": ["good_credit", "stable_income"]
  }
}

Schema Detectado Automaticamente:

  • scoreIntegerType()
  • approvedBooleanType()
  • limitDoubleType()
  • reasonsArrayType(StringType()) (modo aggressive)

DataFrame Final:

Original columns + decision_score + decision_approved + decision_limit + decision_reasons

Benefícios do Auto-Schema

Aspecto Schema Manual Auto-Schema Melhoria
Linhas de código ~20 linhas 1 parâmetro 20x menos
Detecção de tipos Manual Automática 100% automático
Estruturas complexas Muito complexo Simples 10x mais simples
Manutenção Alta Zero Eliminada
Erros de schema Frequentes Raros 95% redução
Tempo de desenvolvimento Horas Segundos 1000x mais rápido

Casos de Uso Ideais para Auto-Schema

  • ✅ Decisões com muitos campos de saída
  • ✅ Estruturas que mudam frequentemente
  • ✅ Múltiplas decisões com schemas diferentes
  • ✅ Prototipagem rápida
  • ✅ Ambientes de produção com governança

⚙️ Configuração Avançada

Adapters Disponíveis

from wise_decision_engine import WiseDecisionEngine, DatabricksAdapter, FileAdapter

# Para tabelas Databricks
adapter = DatabricksAdapter(
    catalog="meu_catalog",
    schema="regras", 
    table="decisoes"
)

# Para arquivos JSON locais
adapter = FileAdapter(file_path="/path/to/rules.json")

# Engine configurável
engine = WiseDecisionEngine(adapter=adapter)

💡 Exemplo Completo

Notebook Databricks

# 1. Instalar
%pip install wise-decision-engine

# 2. Aplicar decisão
from wise_decision_engine import DatabricksHelper

resultado = DatabricksHelper.quick_decision_apply(
    catalog="regras_catalog",
    schema="public", 
    table="decisoes",
    decision_name="minha-regra",
    input_df=meus_dados_df
)

# 3. Visualizar resultado
resultado.display()

🤝 Contribuição e Suporte

Repositório

Como Contribuir

  1. Fork o repositório
  2. Crie sua feature branch
  3. Commit suas mudanças
  4. Abra um Pull Request

📄 Licença

MIT License - veja LICENSE para detalhes.

Construído pela Five Acts 🎆

Project details


Download files

Download the file for your platform. If you're not sure which to choose, learn more about installing packages.

Source Distribution

wise_decision_engine-0.4.0.tar.gz (27.8 kB view details)

Uploaded Source

Built Distribution

If you're not sure about the file name format, learn more about wheel file names.

wise_decision_engine-0.4.0-py3-none-any.whl (27.9 kB view details)

Uploaded Python 3

File details

Details for the file wise_decision_engine-0.4.0.tar.gz.

File metadata

  • Download URL: wise_decision_engine-0.4.0.tar.gz
  • Upload date:
  • Size: 27.8 kB
  • Tags: Source
  • Uploaded using Trusted Publishing? No
  • Uploaded via: twine/6.1.0 CPython/3.13.7

File hashes

Hashes for wise_decision_engine-0.4.0.tar.gz
Algorithm Hash digest
SHA256 91ab650f5220fec74f6202da3f5065e87bd3184f4e09fe3e2bc5cf598baa3f3f
MD5 e24282ca31eeca76ba188ede52dff2b2
BLAKE2b-256 df82e0dcdc41f4ed6a6f9472c6c9366a9768a4f04f1f2f146090db320dd551df

See more details on using hashes here.

File details

Details for the file wise_decision_engine-0.4.0-py3-none-any.whl.

File metadata

File hashes

Hashes for wise_decision_engine-0.4.0-py3-none-any.whl
Algorithm Hash digest
SHA256 48406a54b2605c88635e83c81295b0fbe5afd5ed62c1aa439a5aeabfaf5ba65d
MD5 532763d8a05c6c2b5488e6674439b710
BLAKE2b-256 4d6f24410e16ac085966239fcd8b89007d8542d987367b86ca0ddc7873acb5d7

See more details on using hashes here.

Supported by

AWS Cloud computing and Security Sponsor Datadog Monitoring Depot Continuous Integration Fastly CDN Google Download Analytics Pingdom Monitoring Sentry Error logging StatusPage Status page