Intelligenza Artificiale la libreria python italiana dedicata all'I.A.
Project description
🚧 La libreria è ancora in fase di SVILUPPO 🚧
Intelligenza Artificiale
La libreira python creata per neofiti e datascientist che semplifica l'analisi dati e lo sviluppo di modelli di apprendimento automatico e profondo
Intelligenza-Artificiale è l'unica libreria python MADE in ITALY che permette a qualsiasi persona di :
- Leggere, Manipolare, Pulire dataset di ogni tipo
- Analizzare i dati per trasformarli in importanti informazioni
- Creare in meno di 5 righe di codice modelli di ML
- Sviluppare reti neurali
- & molto molto altro ancora
richiamando i metodi in italiano !
Installazione Libreria
La libreria intelligenzaartificiale richiede PYTHON v3.6+
Per installare la libreria puoi usare il comando pip3 .
pip3 install intelligenzaartificiale
se invece utilizzi google colab...
!pip install intelligenzaartificiale
Partizione Libreria
Al momento abbiamo deciso di partizionare la libreria in moduli, per rendere il codice il più portabile e leggero possibile.
Modulo | Import | Utilizzo |
---|---|---|
Dataset | from intelligenzaartificiale import dataset as dt | lettura e manipolazine set di dati ( .csv , .xlsx , .xls , .html , .json , sql ) |
BigDataset | from intelligenzaartificiale import bigdataset as bdt | lettura e manipolazine set di dati molto grandi compresi bigdata |
Statistica | from intelligenzaartificiale import statistica as st | analisi dati |
Preprocessing | from intelligenzaartificiale import preprocessing as pp | pulizia, manipolazione e preprocessing dei dati |
TextPreprocessing | from intelligenzaartificiale import textpreprocessing as tpp | pulizia, manipolazione e preprocessing per dati testuali |
Visualizzazione | from intelligenzaartificiale import visualizzazione as vz | creazione grafici e visualizzazione dati |
Machine Learning | from intelligenzaartificiale import machinelearning as ml | creazione di modelli di apprendimento automatico |
Deep Learning | from intelligenzaartificiale import depplearning as dl | creazione di reti neurali |
NLP | from intelligenzaartificiale import nlp | trattamento delle informazioni testuali |
Esempi
Qui sotto troverai elencati tutti i metodi della libreria con degli esempi
Step 1 --- Modulo Dataset e BigDataset
Con questo modulo potrai leggere qualsiasi tipo di dataset
Leggere un file .csv
from intelligenzaartificiale import dataset as dt
il_mio_dataset = dt.leggi_csv("file_name.csv")
Leggere file .csv enormi
from intelligenzaartificiale import bigdataset as bdt
il_mio_dataset = bdt.leggi_csv("Bigfile.csv")
#per convertire il file molto grande in un file leggibile anche con il modulo DATASET
bdt.salva_feather(il_mio_dataset,"nuovoFile")
from intelligenzaartificiale import dataset as dt
il_mio_dataset = dt.leggi_feather("nuovoFile.feather")
Leggere un file excel
from intelligenzaartificiale import dataset as dt
il_mio_dataset = dt.leggi_xls("file_name.xls")
Leggere un foglio specifico di un file excel
from intelligenzaartificiale import dataset as dt
il_mio_dataset = dt.leggi_sheet("file_name.xls","nome_foglio")
Leggere un file html
from intelligenzaartificiale import dataset as dt
il_mio_dataset = dt.leggi_html("file_name.html")
Leggere un file json
from intelligenzaartificiale import dataset as dt
il_mio_dataset = dt.leggi_json("file_name.json")
Leggere un file sql
from intelligenzaartificiale import dataset as dt
il_mio_dataset = dt.leggi_sql("file_name.sql")
Carica e lavora su oltre 750+ dataset già caricati
from intelligenzaartificiale import dataset as dt
#ritorna la lista dei nomi degli oltre 750 dataset disponibili
print(dt.lista_datasets())
#ritorna la documentazione del dataset scelto
print(dt.documentazione_dataset("iris"))
#ritorna il dataframe del dataset richiesto
il_mio_dataset= dt.importa_dataset("iris")
Ottenere informazioni di base sulle colonne
from intelligenzaartificiale import dataset as dt
il_mio_dataset = dt.leggi_csv("file_name.csv")
print(dt.lista_colonne(il_mio_dataset))
print(dt.tipo_colonne(il_mio_dataset))
Rimuovere una o più colonne
from intelligenzaartificiale import dataset as dt
il_mio_dataset = dt.leggi_csv("file_name.csv")
nuovo_dataset = dt.rimuovi_colonna(il_mio_dataset, "colonna_da_eliminare")
colonne_inutili = ["colonna3", "colonna12" , "colonna33"]
nuovo_dataset = dt.rimuovi_colonne(il_mio_dataset, colonne_inutili)
Separare i vari tipi di dato
from intelligenzaartificiale import dataset as dt
il_mio_dataset = dt.leggi_csv("file_name.csv")
valori_numerici = dt.numerici(il_mio_dataset)
valori_categorici = dt.categorici(il_mio_dataset)
valori_booleani = dt.booleani(il_mio_dataset)
Eseguire semplici query sul dataset
from intelligenzaartificiale import dataset as dt
il_mio_dataset = dt.leggi_csv("file_name.csv")
acquisti_alti = dt.esegui_query(il_mio_dataset,"SELECT * FROM il_mio_dataset")
Step 2 --- Modulo Statistica
Con questo modulo potrai fare statistiche, report e analisi sui tuoi dati
Valori Nulli o Corrotti
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import statistica as st
il_mio_dataset = dt.leggi_csv("file_name.csv")
print(st.valori_nan(il_mio_dataset))
print(st.percentuale_nan(il_mio_dataset))
#nel modulo preprocessing vedremmo come eliminare o sostituire i valori null o corrotti
Statistiche di base
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import statistica as st
il_mio_dataset = dt.leggi_csv("file_name.csv")
#statistiche su tutto il dataset
print(st.valori_nan(il_mio_dataset))
#statistiche su specifica colonna del dataset
print(st.statistiche_colonna(il_mio_dataset,"nome_colonna"))
#contare valori unici di una specifica colonna
print(st.conta_valori_unici(il_mio_dataset,"nome_colonna"))
Statistiche di base su colonna
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import statistica as st
il_mio_dataset = dt.leggi_csv("file_name.csv")
#media
print(st.media(il_mio_dataset,"nome_colonna"))
#varianza
print(st.varianza(il_mio_dataset,"nome_colonna"))
#covarianza
print(st.covarianza(il_mio_dataset,"nome_colonna"))
#quantili
print(st.quantile_25(il_mio_dataset,"nome_colonna"))
print(st.quantile_50(il_mio_dataset,"nome_colonna"))
print(st.quantile_75(il_mio_dataset,"nome_colonna"))
#min e max
print(st.min(il_mio_dataset,"nome_colonna"))
print(st.max(il_mio_dataset,"nome_colonna"))
Analizzare le correlazioni
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import statistica as st
il_mio_dataset = dt.leggi_csv("file_name.csv")
#Correlazione tra i campi del dataset
print(st.correlazione(il_mio_dataset))
#correlazione tra una colonna target e un altra colonna
print(st.correlazione_radio(il_mio_dataset, "colonna" ,"target_colonna"))
#correlazione di Spearman tra una colonna target e un altra colonna
print(st.correlazione_spearman(il_mio_dataset, "colonna" ,"target_colonna"))
#correlazione di Pearson tra una colonna target e un altra colonna
print(st.correlazione_pearson(il_mio_dataset, "colonna" ,"target_colonna"))
#classifica correlazione tra una colonna target e un altra colonna
print(st.classifica_correlazione_colonna(il_mio_dataset, target_colonna"))
Report Automatizzati
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import statistica as st
il_mio_dataset = dt.leggi_csv("file_name.csv")
#Scarica report html
st.report_dataset(il_mio_dataset")
#Salverà nella corrente un report html
#apri il tuo dataset sul web
st.apri_dataframe_nel_browser(il_mio_dataset)
#Ti consigliamo viviamente di provare questa funzione sul tuo set di dati
Step 3 --- Modulo PreProcessing
Con questo modulo potrai pulire, manipolare, standardizzare e scalare i tuoi dati
Gestire Nulli o Corrotti
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import preprocessing as pp
il_mio_dataset = dt.leggi_csv("file_name.csv")
#rimuovere righe con valori nulli o corrotti
il_mio_dataset = pp.rimuovi_nan(il_mio_dataset)
#sostituire valori nulli o corrotti con il valore medio
il_mio_dataset["colonna"] = pp.sostituisci_nan_media(il_mio_dataset,"colonna")
#sostituire valori nulli o corrotti con il valore più frequente
il_mio_dataset["colonna"] = pp.sostituisci_nan_frequenti(il_mio_dataset,"colonna")
#rimuovi una colonna se i valori mancanti sono più di un valore passato
il_mio_dataset = pp.rimuovi_colonna_se_nan(il_mio_dataset,"colonna",500)
Gestire gli outliers
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import preprocessing as pp
il_mio_dataset = dt.leggi_csv("file_name.csv")
#Rimuovere i valori outlier
il_mio_dataset["colonna"] = pp.rimuovi_outliers(il_mio_dataset,"colonna")
#Rimuovere i valori outlier e valori nulli
il_mio_dataset["colonna"] = pp.rimuovi_outliers_nan(il_mio_dataset,"colonna")
Gestire variabili testuali e categoriche
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import preprocessing as pp
il_mio_dataset = dt.leggi_csv("file_name.csv")
#effettuare il labelencoding
il_mio_dataset["nuova_colonna"] = pp.label_encoding(il_mio_dataset,"colonna")
#effettuare il labelencoding su più colonne
il_mio_dataset["nuova_colonna"] = pp.label_encoding(il_mio_dataset,["colonna1", "colonna2"])
#effettuare il labelencoding con sklearn
il_mio_dataset["nuova_colonna"] = pp.label_encoding_sklearn(il_mio_dataset,"colonna")
#effettuare il one hot encoding
il_mio_dataset["nuova_colonna"] = pp.onehot_encoding(il_mio_dataset,"colonna")
#per rimuovere la vecchia colonna
il_mio_dataset = dt.rimuovi_colonna(il_mio_dataset, "colonna")
Normalizzare i dati
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import preprocessing as pp
il_mio_dataset = dt.leggi_csv("file_name.csv")
#normalizza intero datatset
dataset_normalizzato = pp.normalizza(il_mio_dataset,"colonna")
#normalizza una specifica colonna
il_mio_dataset["colonna"] = pp.normalizza_colonne(il_mio_dataset,"colonna")
#standardizza intero datatset
dataset_normalizzato = pp.standardizza(il_mio_dataset,"colonna")
#standardizza una specifica colonna
il_mio_dataset["colonna"] = pp.standardizza_colonne(il_mio_dataset,"colonna")
# dividi i dati in test e train
X_train, X_test, y_train, y_test = pp.dividi_train_test(il_mio_dataset, "target", 0.25 )
Step 3.1 --- Modulo Text-PreProcessing
Con questo modulo potrai pulire, manipolare, standardizzare e scalare i tuoi dati Testuali
Pulizia di Base
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import textpreprocessing as tpp
il_mio_dataset = dt.leggi_csv("file_name.csv")
#pulire l'intera colonna con una riga
il_mio_dataset["testo_email"] = tpp.pulisci_testo(il_mio_dataset,"testo_email")
#trasforma in minuscolo il tetso
il_mio_dataset["testo_email"] = tpp.trasforma_in_minuscolo(il_mio_dataset, "testo_email")
#rimuovi caratteri speciali e cifre !"#$%&\'()*+,-./:;<=>?@[\\]^_`{|}~0123456789
il_mio_dataset["colonna"] = tpp.rimuovi_caratteri_speciali_e_cifre(il_mio_dataset,"colonna")
#rimuovi caratteri speciali !"#$%&\'()*+,-./:;<=>?@[\\]^_`{|}~
il_mio_dataset["colonna"] = tpp.rimuovi_caratteri_speciali(il_mio_dataset,"colonna")
#rimuovi stopwords
il_mio_dataset["colonna"] = tpp.rimuovi_stopwords(il_mio_dataset,"colonna", "english")
Tokenizzazione e vettorizzazione del testo
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import textpreprocessing as tpp
il_mio_dataset = dt.leggi_csv("file_name.csv")
#vettorizzare il testo (tfidf)
il_mio_dataset["testo_vet"] = tpp.vettorizza_testo(il_mio_dataset,"testo_email")
#oppure
il_mio_dataset["testo_vet"] = tpp.vettorizza_testo_sklearn(il_mio_dataset,"testo_email")
#analisi componenti principali
il_mio_dataset["pca"] = tpp.vettorizza_testo_sklearn(il_mio_dataset,"testo_vet")
#tokenizzare il testo
il_mio_dataset["testo_tok"] = tpp.tokenizza_testo(il_mio_dataset,"testo_email")
#oppure
il_mio_dataset["testo_tok"] = tpp.tokenizza_testo_sklearn(il_mio_dataset,"testo_email")
Altre funzioni
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import textpreprocessing as tpp
il_mio_dataset = dt.leggi_csv("file_name.csv")
#Bag of words
il_mio_dataset["wordbags"] = tpp.bag_of_words(il_mio_dataset,"testo_email","italian")
#genera grafico words cloud
crea_wordcloud(il_mio_dataset,"testo_email","english")
Step 4 --- Modulo Visualizzazione
Con questo modulo potrai visualizzare e creare grafici sui tuoi dati molto velocemente
Creare Grafici
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import visualizzazione as vz
il_mio_dataset = dt.leggi_csv("file_name.csv")
# grafico singola colonna
vz.grafico_colonna(il_mio_dataset,"prezzo")
# grafico a punti di due colonne
vz.grafico_scatter(il_mio_dataset,"spesa","reddito")
# grafico a linee di due colonne
vz.grafico_line(il_mio_dataset,"spesa","reddito")
# grafico boxplot di due colonne
vz.grafico_boxplot(il_mio_dataset,"età","reddito")
# histogramma di due colonne
vz.grafico_hist(il_mio_dataset,"acquisti_prodotto_A","acquisti_prodotto_B")
Grafici Automattizati
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import visualizzazione as vz
il_mio_dataset = dt.leggi_csv("file_name.csv")
# creare grafici in modo automatico
vz.grafici(il_mio_dataset)
# creare grafici in modo automatico su la var. di target
vz.grafici_target(il_mio_dataset,"spesa")
Grafici 3d
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import visualizzazione as vz
il_mio_dataset = dt.leggi_csv("file_name.csv")
# creare grafici tridimensionali
vz.grafico_3d(il_mio_dataset, "spesa", "sesso", "reddito")
Step 5 --- Modulo Apprendimento Automatico
Con questo modulo potrai :
- Scoprire l'algoritmo più performante sui tuoi dati
- Implementare e allenare con una riga oltre 20 algoritmi
- Valutare, spiegare, salvare e caricare il tuo modello
- Fare previsioni su nuovi dati con il tuo modello
- & molto molto altro ancora
Scoprire l'algoritmo più performante
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import machinelearning as ml
il_mio_dataset = dt.leggi_csv("file_name.csv")
colonne_x = ["età","sesso","reddito","sconto","data"]
target_reg = "spesa_effettata"
target_cla = "ha_acquistato?"
# scoprire algoritmo di regressione più performante
modello = ml.performance_modelli_regressione(il_mio_dataset, colonne_x, target_reg)
# scoprire algoritmo di classificazione più performante
modello = ml.performance_modelli_classificazione(il_mio_dataset, colonne_x, target_cla)
Creare il modelli di regressione [SEMPLICE]
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import machinelearning as ml
il_mio_dataset = dt.leggi_csv("file_name.csv")
colonne_x = ["età","sesso","reddito","sconto","data"]
target_reg = "spesa_effettata"
# dopo aver scoperto l'algoritmo più performante lo potrai implementare
# in una sola riga
modello1 = ml.regressione_lineare(il_mio_dataset, colonne_x, target_reg)
modello2 = ml.regressione_logistica(il_mio_dataset, colonne_x, target_reg)
modello3 = ml.regressione_SVR(il_mio_dataset, colonne_x, target_reg)
modello4 = ml.regressione_SVC(il_mio_dataset, colonne_x, target_reg)
modello5 = ml.regressione_random_forest(il_mio_dataset, colonne_x, target_reg)
modello6 = ml.regressione_gradient_boosting(il_mio_dataset, colonne_x, target_reg)
modello7 = ml.regressione_decision_tree(il_mio_dataset, colonne_x, target_reg)
modello8 = ml.regressione_knn(il_mio_dataset, colonne_x, target_reg)
modello9 = ml.modello_elastic_net(il_mio_dataset, colonne_x, target_reg)
modello10 = ml.modello_lasso(il_mio_dataset, colonne_x, target_reg)
modello11 = ml.modello_ridge(il_mio_dataset, colonne_x, target_reg)
Creare il modelli di classificazione [SEMPLICE]
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import machinelearning as ml
il_mio_dataset = dt.leggi_csv("file_name.csv")
colonne_x = ["età","sesso","reddito","sconto","data"]
target_cla = "ha_acquistato?"
# dopo aver scoperto l'algoritmo più performante lo potrai implementare
# in una sola riga
modello1 = ml.classificatore_random_forest(il_mio_dataset, colonne_x, target_cla)
modello2 = ml.classificatore_gradient_boosting(il_mio_dataset, colonne_x, target_cla)
modello3 = ml.classificatore_decision_tree(il_mio_dataset, colonne_x, target_cla)
modello4 = ml.classificatore_knn(il_mio_dataset, colonne_x, target_cla)
modello5 = ml.classificatore_logistico(il_mio_dataset, colonne_x, target_cla)
modello6 = ml.classificatore_naivebayes(il_mio_dataset, colonne_x, target_cla)
modello7 = ml.classificatore_svm(il_mio_dataset, colonne_x, target_cla)
Valutare, Prevedere, Salvare e Caricare un modello
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import machinelearning as ml
il_mio_dataset = dt.leggi_csv("file_name.csv")
colonne_x = ["età","sesso","reddito","sconto","data"]
target_reg = "spesa_effettata"
modello1 = ml.regressione_lineare(il_mio_dataset, colonne_x, target_reg)
# Valutare un modello
print(ml.valutazione_modello(modello1,il_mio_dataset, colonne_x, target_reg))
# Spiegare un modello
ml.spiega_modello(modello1,il_mio_dataset, colonne_x, target_reg)
# Previsione con un modello
nuovo_dataset = dt.leggi_csv("nuovo.csv")
previsioni = ml.predizione_y(modello1,nuovo_dataset)
# Salvare e Caricare un modello
ml.salva_modello(modello1,"nome_modello")
ml.carica_modello("nome_modello")
Creare modelli avanzati [AVANZATO]
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import machinelearning as ml
il_mio_dataset = dt.leggi_csv("file_name.csv")
colonne_x = ["età","sesso","reddito","sconto","data"]
target_cla = "ha_acquistato?"
target_reg = "spesa_effettata"
##Tutti i Modelli Avanzati
model1 = ml.regressione_lineare_avanzata(df, lista_colonne_x, colonna_y, fit_intercept=True, normalize='deprecated', copy_X=True, n_jobs=None, positive=False, random_state=None)
modello2 = regressione_logistica_avanzata(df, lista_colonne_x, colonna_y, fit_intercept=True, normalize='deprecated', copy_X=True, n_jobs=None, C=1.0, class_weight=None, max_iter=100, multi_class='ovr', penalty='l2', random_state=None, solver='lbfgs', tol=0.0001, verbose=0, warm_start=False)
modello = ml.regressione_SVR_avanzata(df, lista_colonne_x, colonna_y, fit_intercept=True, normalize='deprecated', copy_X=True, n_jobs=None, C=1.0, epsilon=0.1, gamma='auto', kernel='rbf', max_iter=-1, shrinking=True, tol=0.001, verbose=False)
modello = ml.regressione_SVC_avanzata(df, lista_colonne_x, colonna_y, fit_intercept=True, normalize='deprecated', copy_X=True, n_jobs=None, C=1.0, cache_size=200, class_weight=None, coef0=0.0, decision_function_shape='ovr', degree=3, gamma='auto', kernel='rbf', max_iter=-1, probability=False, random_state=None, shrinking=True, tol=0.001, verbose=False)
modello = ml.regressione_random_forest_avanzata(df, lista_colonne_x, colonna_y, n_estimators=10, criterion='mse', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features='auto', max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=None, random_state=None, verbose=0, warm_start=False)
modello = ml.classificatore_logistico_avanzato(df, lista_colonne_x, colonna_y, penalty='l2', dual=False, tol=0.0001, C=1.0, fit_intercept=True, intercept_scaling=1, class_weight=None, random_state=None, solver='liblinear', max_iter=100, multi_class='ovr', verbose=0, warm_start=False, n_jobs=None)
modello = ml.classificatore_naivebayes_avanzato(df, lista_colonne_x, colonna_y, priors=None)
modello = ml.classificatore_svm_avanzato(df, lista_colonne_x, colonna_y, C=1.0, kernel='rbf', degree=3, gamma='auto', coef0=0.0, shrinking=True, probability=False, tol=0.001, cache_size=200, class_weight=None, verbose=False, max_iter=-1, decision_function_shape='ovr', random_state=None)
modello = ml.classificatore_random_forest_avanzato(df, lista_colonne_x, colonna_y, n_estimators=10, criterion='mse', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features='auto', max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=None, random_state=None, verbose=0, warm_start=False)
modello = ml.regressione_gradient_boosting_avanzato(df, lista_colonne_x, colonna_y, n_estimators=10, criterion='mse', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features='auto', max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=None, random_state=None, verbose=0, warm_start=False)
modello = ml.classificatore_gradient_boosting_avanzato(df, lista_colonne_x, colonna_y, n_estimators=10, criterion='mse', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features='auto', max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=None, random_state=None, verbose=0, warm_start=False)
modello = ml.regressione_decision_tree_avanzato(df, lista_colonne_x, colonna_y, n_estimators=10, criterion='mse', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features='auto', max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=None, random_state=None, verbose=0, warm_start=False)
modello = ml.classificatore_decision_tree_avanzato(df, lista_colonne_x, colonna_y, n_estimators=10, criterion='mse', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features='auto', max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=None, random_state=None, verbose=0, warm_start=False)
modello = ml.regressione_knn_avanzato(df, lista_colonne_x, colonna_y, n_neighbors=5, weights='uniform', algorithm='auto', leaf_size=30, p=2, metric='minkowski', metric_params=None, n_jobs=1, **kwargs)
modello = ml.classificatore_knn_avanzato(df, lista_colonne_x, colonna_y, n_neighbors=5, weights='uniform', algorithm='auto', leaf_size=30, p=2, metric='minkowski', metric_params=None, n_jobs=1, **kwargs)
modello = ml.modello_elastic_net_avanzato(df, lista_colonne_x, colonna_y, alpha=1.0, l1_ratio=0.5, fit_intercept=True, normalize=False, precompute='auto', max_iter=1000, copy_X=True, tol=0.0001, warm_start=False, positive=False, random_state=None, selection='cyclic')
modello = ml.modello_ridge_avanzato(df, lista_colonne_x, colonna_y, alpha=1.0, fit_intercept=True, normalize=False, precompute='auto', copy_X=True, max_iter=1000, tol=0.0001, warm_start=False, positive=False, random_state=None, selection='cyclic')
modello = ml.modello_lasso_avanzato(df, lista_colonne_x, colonna_y, alpha=1.0, fit_intercept=True, normalize=False, precompute='auto', copy_X=True, max_iter=1000, tol=0.0001, warm_start=False, positive=False, random_state=None, selection='cyclic')
Step 6 --- Modulo Apprendimento Profondo
🚧 Questa parte della libreria è ancora in fase di SVILUPPO 🚧
Step7 --- Modulo NLP
🚧 Questa parte della libreria è ancora in fase di SVILUPPO 🚧
Licenza
MIT
© Copyright 2020-2022 Intelligenza Artificiale Italia!
Project details
Release history Release notifications | RSS feed
Download files
Download the file for your platform. If you're not sure which to choose, learn more about installing packages.
Source Distribution
Built Distribution
Hashes for intelligenzaartificiale-0.0.0.27.tar.gz
Algorithm | Hash digest | |
---|---|---|
SHA256 | 5a4abb3831417a891b21ef040ba803d6832c802cca6442c9c2e67caea46a9b8c |
|
MD5 | 1478b65b486d5d929e087385963d86a7 |
|
BLAKE2b-256 | 720ed5e4858eb945fd1336959b5cfb09c9666f60f917fed43d0aff48f154f024 |
Hashes for intelligenzaartificiale-0.0.0.27-py3-none-any.whl
Algorithm | Hash digest | |
---|---|---|
SHA256 | 70e2e9fff18255a078bb5b082d426e30bc95bcc4ecd661e2bfed13596ab6dabc |
|
MD5 | d48a2276fbe8fbbafbde9dde9bf468f2 |
|
BLAKE2b-256 | 43f67ae0d1a9bdb219be85312de7b3bd6dba293d57f88c99188d0ae3d570ab32 |