Skip to main content

Reportes de evaluación (clasificación/regresión/forecast) a Markdown con gráficos

Project description

evalcards

PyPI version Python versions Wheel License CI Publish

evalcards genera reportes de evaluación para modelos supervisados en Markdown, con métricas y gráficos listos para pegar en informes. Soporta:

  • Clasificación: binaria y multiclase (OvR) con curvas ROC/PR por clase.
  • Regresión.
  • Forecasting (series de tiempo): sMAPE (%) y MASE.

Instalación


pip install evalcards

Uso rápido (Python)


from evalcards import make_report

# y_true: etiquetas/valores reales
# y_pred: etiquetas/valores predichos
# y_proba (opcional):
#   - binaria: vector 1D con prob. de la clase positiva
#   - multiclase: matriz (n_samples, n_classes) con prob. por clase

path = make_report(
    y_true, y_pred,
    y_proba=proba,                 # opcional
    path="reporte.md",             # nombre del archivo Markdown
    title="Mi modelo"              # título del reporte
)
print(path)  # ruta del reporte generado

Qué evalúa


  • Clasificación (binaria/multiclase)
    Métricas: accuracy, precision/recall/F1 (macro/weighted),
    AUC: roc_auc (binaria) y roc_auc_ovr_macro (multiclase).
    Gráficos: matriz de confusión, ROC y PR (por clase en multiclase).

  • Regresión
    Métricas: MAE, MSE, RMSE, .
    Gráficos: Ajuste (y vs ŷ) y Residuales.

  • Forecasting
    Métricas: MAE, MSE, RMSE, sMAPE (%), MASE.
    Parámetros extra: season (p.ej. 12) e insample (serie de entrenamiento para MASE).
    Gráficos: Ajuste y Residuales.

Ejemplos


1) Clasificación binaria (scikit-learn)

from sklearn.datasets import make_classification
from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import train_test_split
from evalcards import make_report

X, y = make_classification(n_samples=600, n_features=10, random_state=0)
X_tr, X_te, y_tr, y_te = train_test_split(X, y, test_size=0.3, random_state=0)

clf = LogisticRegression(max_iter=1000).fit(X_tr, y_tr)
y_pred = clf.predict(X_te)
proba = clf.predict_proba(X_te)[:, 1]

make_report(y_te, y_pred, y_proba=proba, path="rep_bin.md", title="Clasificación binaria")

2) Multiclase (OvR)

from sklearn.datasets import load_iris
from sklearn.ensemble import RandomForestClassifier
from sklearn.model_selection import train_test_split
from evalcards import make_report

X, y = load_iris(return_X_y=True)
X_tr, X_te, y_tr, y_te = train_test_split(X, y, test_size=0.3, random_state=0)

clf = RandomForestClassifier(random_state=0).fit(X_tr, y_tr)
y_pred = clf.predict(X_te)
proba = clf.predict_proba(X_te)  # (n_samples, n_classes)

make_report(
    y_te, y_pred, y_proba=proba,
    labels=[f"Clase_{c}" for c in clf.classes_],   # opcional (nombres por clase)
    path="rep_multi.md", title="Multiclase OvR"
)

3) Regresión

from sklearn.datasets import make_regression
from sklearn.ensemble import RandomForestRegressor
from sklearn.model_selection import train_test_split
from evalcards import make_report

X, y = make_regression(n_samples=600, n_features=8, noise=10, random_state=0)
X_tr, X_te, y_tr, y_te = train_test_split(X, y, test_size=0.3, random_state=0)

reg = RandomForestRegressor(random_state=0).fit(X_tr, y_tr)
y_pred = reg.predict(X_te)

make_report(y_te, y_pred, path="rep_reg.md", title="Regresión")

4) Forecasting (sMAPE/MASE)

import numpy as np
from evalcards import make_report

rng = np.random.default_rng(0)
t = np.arange(360)
y = 10 + 0.05*t + 5*np.sin(2*np.pi*t/12) + rng.normal(0,1,360)

y_train, y_test = y[:300], y[300:]
y_hat = y_test + rng.normal(0, 1.2, y_test.size)  # predicción de ejemplo

make_report(
    y_test, y_hat,
    task="forecast", season=12, insample=y_train,
    path="rep_forecast.md", title="Forecast"
)

Salidas y PATH


  • Un archivo Markdown con las métricas y referencias a imágenes.
  • Imágenes PNG (confusión, ROC/PR, ajuste, residuales).
  • Por defecto, si path no incluye carpeta, todo se guarda en ./evalcards_reports/.
    Puedes cambiar la carpeta con el argumento out_dir o usando una ruta en path.

Soporte de idioma 🇪🇸 🇬🇧


Puedes generar reportes en español o inglés usando el parámetro lang (Python o CLI):

make_report(y_true, y_pred, path="rep.md", lang="en", title="My Model Report")
evalcards --y_true y_true.csv --y_pred y_pred.csv --lang en --out rep_en.md

Valores soportados: "es" (español, default), "en" (inglés).

Entradas esperadas (formas comunes)


  • Clasificación
    • y_true: enteros 0..K-1 (o etiquetas string).
    • y_pred: del mismo tipo/espacio de clases que y_true.
    • y_proba (opcional):
      • Binaria: vector 1D con prob. de la clase positiva.
      • Multiclase: matriz (n_samples, n_classes) con una columna por clase (mismo orden que tu modelo).
  • Regresión / Forecast
    • y_true, y_pred: arrays 1D de floats.
    • insample (forecast): serie de entrenamiento para MASE; season según la estacionalidad (ej. 12 mensual/anual).

Compatibilidad de modelos


Funciona con cualquier modelo que produzca predict (y opcionalmente predict_proba):

  • scikit-learn, XGBoost/LightGBM/CatBoost, statsmodels, Prophet/NeuralProphet, Keras/PyTorch (si pasas tus arrays).
  • Multiclase: pasa y_proba como matriz (una columna por clase) y, si quieres, labels para nombres.

Roadmap


v0.3 — Salida y métricas clave

  • Reporte HTML autocontenido (format="md|html")
  • Export JSON** de métricas/paths (--export-json)
  • Métricas nuevas (clasificación): AUPRC, Balanced Accuracy, MCC, Log Loss
  • Métricas nuevas (regresión): MAPE, MedAE, RMSLE

v0.4 — Multiclase y umbrales

  • ROC/PR micro & macro (multiclase) + roc_auc_macro, average_precision_macro
  • Análisis de umbral (curvas precisión–recobrado–F1 vs umbral + mejor umbral por métrica)
  • Matriz de confusión normalizada (global y por clase)

v0.5 — Probabilidades y comparación

  • Calibración: Brier score + curva de confiabilidad
  • Comparación multi-modelo en un único reporte (tabla “mejor por métrica”)
  • Curvas gain/lift (opcional)

v0.6 — DX, formatos y docs

  • Nuevos formatos de entrada: Parquet/Feather/NPZ
  • Config de proyecto (.evalcards.toml) para defaults (outdir, títulos, idioma)
  • Docs con MkDocs + GitHub Pages (guía, API, ejemplos ejecutables)
  • Plantillas/temas Jinja2 (branding)

Ideas


  • Soporte multi-label
  • Métricas de ranking (MAP/NDCG)
  • Curvas de calibración por bins configurables
  • QQ-plot e histograma de residuales (regresión)
  • i18n ES/EN (mensajes y etiquetas)

Documentación


Guía | Referencia de API | Changelog

Licencia


MIT

Autor


Ricardo Urdaneta

Linkedin

Project details


Download files

Download the file for your platform. If you're not sure which to choose, learn more about installing packages.

Source Distribution

evalcards-0.2.8.tar.gz (12.8 kB view details)

Uploaded Source

Built Distribution

If you're not sure about the file name format, learn more about wheel file names.

evalcards-0.2.8-py3-none-any.whl (9.3 kB view details)

Uploaded Python 3

File details

Details for the file evalcards-0.2.8.tar.gz.

File metadata

  • Download URL: evalcards-0.2.8.tar.gz
  • Upload date:
  • Size: 12.8 kB
  • Tags: Source
  • Uploaded using Trusted Publishing? Yes
  • Uploaded via: twine/6.1.0 CPython/3.12.9

File hashes

Hashes for evalcards-0.2.8.tar.gz
Algorithm Hash digest
SHA256 9b4b15a4f2ca0b08158126eac22433212008d724c5b3c3d6df8829dfa6b5c4e1
MD5 699f6d184073503e9da9a323296d7e63
BLAKE2b-256 29a9e585545016abfad0d2b8c276d96faa972a482872ada521a1d9481fb3eb5d

See more details on using hashes here.

Provenance

The following attestation bundles were made for evalcards-0.2.8.tar.gz:

Publisher: release.yml on Ricardouchub/evalcards

Attestations: Values shown here reflect the state when the release was signed and may no longer be current.

File details

Details for the file evalcards-0.2.8-py3-none-any.whl.

File metadata

  • Download URL: evalcards-0.2.8-py3-none-any.whl
  • Upload date:
  • Size: 9.3 kB
  • Tags: Python 3
  • Uploaded using Trusted Publishing? Yes
  • Uploaded via: twine/6.1.0 CPython/3.12.9

File hashes

Hashes for evalcards-0.2.8-py3-none-any.whl
Algorithm Hash digest
SHA256 5e988449814184a8f95a09a16bebe101911a3cc035e9d46f09fba5dc7a16cede
MD5 5a6500125fe330caa46ae4295d8238c8
BLAKE2b-256 08935c1283816784bd28e139c9dee4138e478c8a42f157db223f854d879aa9da

See more details on using hashes here.

Provenance

The following attestation bundles were made for evalcards-0.2.8-py3-none-any.whl:

Publisher: release.yml on Ricardouchub/evalcards

Attestations: Values shown here reflect the state when the release was signed and may no longer be current.

Supported by

AWS Cloud computing and Security Sponsor Datadog Monitoring Depot Continuous Integration Fastly CDN Google Download Analytics Pingdom Monitoring Sentry Error logging StatusPage Status page