Skip to main content

Reportes de evaluación (clasificación/regresión/forecast) a Markdown con gráficos

Project description

evalcards

PyPI version Python versions Wheel License CI Publish

evalcards es una librería para Python que genera reportes de evaluación para modelos supervisados en Markdown, con métricas y gráficos listos para usar en informes. Soporta:

  • Clasificación: binaria y multiclase (OvR) con curvas ROC/PR por clase.
  • Regresión.
  • Forecasting (series de tiempo): sMAPE (%) y MASE.

Instalación


pip install evalcards

Uso rápido (Python)


from evalcards import make_report

# y_true: etiquetas/valores reales
# y_pred: etiquetas/valores predichos
# y_proba (opcional):
#   - binaria: vector 1D con prob. de la clase positiva
#   - multiclase: matriz (n_samples, n_classes) con prob. por clase

path = make_report(
    y_true, y_pred,
    y_proba=proba,                 # opcional
    path="reporte.md",             # nombre del archivo Markdown
    title="Mi modelo"              # título del reporte
)
print(path)  # ruta del reporte generado

Qué evalúa


  • Clasificación (binaria/multiclase)
    Métricas: accuracy, precision/recall/F1 (macro/weighted),
    AUC: roc_auc (binaria) y roc_auc_ovr_macro (multiclase).
    Gráficos: matriz de confusión, ROC y PR (por clase en multiclase).

  • Regresión
    Métricas: MAE, MSE, RMSE, .
    Gráficos: Ajuste (y vs ŷ) y Residuales.

  • Forecasting
    Métricas: MAE, MSE, RMSE, sMAPE (%), MASE.
    Parámetros extra: season (p.ej. 12) e insample (serie de entrenamiento para MASE).
    Gráficos: Ajuste y Residuales.

Ejemplos


1) Clasificación binaria (scikit-learn)

from sklearn.datasets import make_classification
from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import train_test_split
from evalcards import make_report

X, y = make_classification(n_samples=600, n_features=10, random_state=0)
X_tr, X_te, y_tr, y_te = train_test_split(X, y, test_size=0.3, random_state=0)

clf = LogisticRegression(max_iter=1000).fit(X_tr, y_tr)
y_pred = clf.predict(X_te)
proba = clf.predict_proba(X_te)[:, 1]

make_report(y_te, y_pred, y_proba=proba, path="rep_bin.md", title="Clasificación binaria")

2) Multiclase (OvR)

from sklearn.datasets import load_iris
from sklearn.ensemble import RandomForestClassifier
from sklearn.model_selection import train_test_split
from evalcards import make_report

X, y = load_iris(return_X_y=True)
X_tr, X_te, y_tr, y_te = train_test_split(X, y, test_size=0.3, random_state=0)

clf = RandomForestClassifier(random_state=0).fit(X_tr, y_tr)
y_pred = clf.predict(X_te)
proba = clf.predict_proba(X_te)  # (n_samples, n_classes)

make_report(
    y_te, y_pred, y_proba=proba,
    labels=[f"Clase_{c}" for c in clf.classes_],   # opcional (nombres por clase)
    path="rep_multi.md", title="Multiclase OvR"
)

3) Multi-label

from sklearn.datasets import make_multilabel_classification
from sklearn.linear_model import LogisticRegression
from sklearn.multioutput import MultiOutputClassifier
from evalcards import make_report

X, y = make_multilabel_classification(n_samples=300, n_features=12, n_classes=4, n_labels=2, random_state=42)
clf = MultiOutputClassifier(LogisticRegression(max_iter=1000)).fit(X, y)
y_pred = clf.predict(X)
make_report(y, y_pred, y_proba=proba_matrix, path="rep_multilabel.md", title="Multi-label Example", lang="en",
            labels=[f"Tag_{i}" for i in range(y.shape[1])])

4) Regresión

from sklearn.datasets import make_regression
from sklearn.ensemble import RandomForestRegressor
from sklearn.model_selection import train_test_split
from evalcards import make_report

X, y = make_regression(n_samples=600, n_features=8, noise=10, random_state=0)
X_tr, X_te, y_tr, y_te = train_test_split(X, y, test_size=0.3, random_state=0)

reg = RandomForestRegressor(random_state=0).fit(X_tr, y_tr)
y_pred = reg.predict(X_te)

make_report(y_te, y_pred, path="rep_reg.md", title="Regresión")

5) Forecasting (sMAPE/MASE)

import numpy as np
from evalcards import make_report

rng = np.random.default_rng(0)
t = np.arange(360)
y = 10 + 0.05*t + 5*np.sin(2*np.pi*t/12) + rng.normal(0,1,360)

y_train, y_test = y[:300], y[300:]
y_hat = y_test + rng.normal(0, 1.2, y_test.size)  # predicción de ejemplo

make_report(
    y_test, y_hat,
    task="forecast", season=12, insample=y_train,
    path="rep_forecast.md", title="Forecast"
)

Salidas y PATH


  • Un archivo Markdown con las métricas y referencias a imágenes.
  • Imágenes PNG (confusión, ROC/PR, ajuste, residuales).
  • Por defecto, si path no incluye carpeta, todo se guarda en ./evalcards_reports/.
    Puedes cambiar la carpeta con el argumento out_dir o usando una ruta en path.

Idiomas 'ES/EN'


Genera reportes en español o inglés usando el parámetro lang: "es" (español, default), "en" (inglés).

make_report(y_true, y_pred, path="rep.md", lang="en", title="My Model Report")

Entradas esperadas (formas comunes)


  • Clasificación
    • y_true: enteros 0..K-1 (o etiquetas string).
    • y_pred: del mismo tipo/espacio de clases que y_true.
    • y_proba (opcional):
      • Binaria: vector 1D con prob. de la clase positiva.
      • Multiclase: matriz (n_samples, n_classes) con una columna por clase (mismo orden que tu modelo).
  • Regresión / Forecast
    • y_true, y_pred: arrays 1D de floats.
    • insample (forecast): serie de entrenamiento para MASE; season según la estacionalidad (ej. 12 mensual/anual).

Compatibilidad de modelos


Funciona con cualquier modelo que produzca predict (y opcionalmente predict_proba):

  • scikit-learn, XGBoost/LightGBM/CatBoost, statsmodels, Prophet/NeuralProphet, Keras/PyTorch.
  • Multiclase: y_proba como matriz (una columna por clase) y labels para nombres.

Roadmap


v0.3 — Salida y métricas clave

  • Reporte HTML autocontenido (format="md|html")
  • Export JSON** de métricas/paths (--export-json)
  • Métricas nuevas (clasificación): AUPRC, Balanced Accuracy, MCC, Log Loss
  • Métricas nuevas (regresión): MAPE, MedAE, RMSLE

v0.4 — Multiclase y umbrales

  • ROC/PR micro & macro (multiclase) + roc_auc_macro, average_precision_macro
  • Análisis de umbral (curvas precisión–recobrado–F1 vs umbral + mejor umbral por métrica)
  • Matriz de confusión normalizada (global y por clase)

v0.5 — Probabilidades y comparación

  • Calibración: Brier score + curva de confiabilidad
  • Comparación multi-modelo en un único reporte (tabla “mejor por métrica”)
  • Curvas gain/lift (opcional)

v0.6 — DX, formatos y docs

  • Nuevos formatos de entrada: Parquet/Feather/NPZ
  • Config de proyecto (.evalcards.toml) para defaults (outdir, títulos, idioma)
  • Docs con MkDocs + GitHub Pages (guía, API, ejemplos ejecutables)
  • Plantillas/temas Jinja2 (branding)

Ideas


  • Soporte multi-label (en proceso)
  • Métricas de ranking (MAP/NDCG)
  • Curvas de calibración por bins configurables
  • QQ-plot e histograma de residuales (regresión)
  • i18n ES/EN (mensajes y etiquetas)

Documentación


Guía | Referencia de API | Changelog | Demo Visual

Licencia


MIT

Autor


Ricardo Urdaneta

Linkedin

Project details


Download files

Download the file for your platform. If you're not sure which to choose, learn more about installing packages.

Source Distribution

evalcards-0.2.10.tar.gz (17.2 kB view details)

Uploaded Source

Built Distribution

If you're not sure about the file name format, learn more about wheel file names.

evalcards-0.2.10-py3-none-any.whl (10.6 kB view details)

Uploaded Python 3

File details

Details for the file evalcards-0.2.10.tar.gz.

File metadata

  • Download URL: evalcards-0.2.10.tar.gz
  • Upload date:
  • Size: 17.2 kB
  • Tags: Source
  • Uploaded using Trusted Publishing? Yes
  • Uploaded via: twine/6.1.0 CPython/3.13.7

File hashes

Hashes for evalcards-0.2.10.tar.gz
Algorithm Hash digest
SHA256 f87e078a470a3c7cf4967c0fe4ee2d91dfcb898d17bf63cf99b211b9b344d991
MD5 c39da489397929896e89c2817a312d78
BLAKE2b-256 65770748c486d93047ae5289c9ad4b375560a220efa7001e0a67ecf0d499dab5

See more details on using hashes here.

Provenance

The following attestation bundles were made for evalcards-0.2.10.tar.gz:

Publisher: release.yml on Ricardouchub/evalcards

Attestations: Values shown here reflect the state when the release was signed and may no longer be current.

File details

Details for the file evalcards-0.2.10-py3-none-any.whl.

File metadata

  • Download URL: evalcards-0.2.10-py3-none-any.whl
  • Upload date:
  • Size: 10.6 kB
  • Tags: Python 3
  • Uploaded using Trusted Publishing? Yes
  • Uploaded via: twine/6.1.0 CPython/3.13.7

File hashes

Hashes for evalcards-0.2.10-py3-none-any.whl
Algorithm Hash digest
SHA256 3f1ac51d0e87550dc8f75483068f4ea18cb639203f227568a534b7f5c0decf0e
MD5 b6b91a3eb10bdf2e75acf4dfd44ff702
BLAKE2b-256 5b6abdc4f1b894844f0a250b400783426a9056b29be1b3db6c45fbf6f5a0fca4

See more details on using hashes here.

Provenance

The following attestation bundles were made for evalcards-0.2.10-py3-none-any.whl:

Publisher: release.yml on Ricardouchub/evalcards

Attestations: Values shown here reflect the state when the release was signed and may no longer be current.

Supported by

AWS Cloud computing and Security Sponsor Datadog Monitoring Depot Continuous Integration Fastly CDN Google Download Analytics Pingdom Monitoring Sentry Error logging StatusPage Status page