Deep Learning
Ciao a tutti, sono nuovo di questo mondo e sono un paio di settimane che sto studiando , per la programmazione in python, dei vari framework, logiche, approci da applicare.
Arrivo al dunque spiegando il mio quesito:
Ho una tabella chiamata Dati con i seguenti campi:
• Scadenza : Date > X
• Portaf : String > X
• Tipo_CR : String > X
• Lag : String > X
• Tipo_Doc : String > X
• Tipo_FF : String > X
• Perc : Decimal > X
• Factor : String > X
• Netto_Split : Decimal > X
• Importo1 : Decimal > X
• Importo2 : Decimal > X
• Data_Invio : Date > Y
Da Scadenza a Importo2 sono campi che vanno in X come input e il campo Data_Invio va in Y come output.
Essendo Data_Invio un campo ti tipo Date, lo converto in Booleano ( Target ) , se il campo è valorizzato allora il record è selezionato ( 1 ) altrimenti non è selezionato ( 0 ) .
Fornendo un set di dati input, a seguito dell'apprendimento della tabella, mi dovrà predire quali record verranno selezionati o no
Converto i campi di tipo Date in timestamp e i campi di tipo string con OneHotEncoder, ottendendo il seguente output:
Sto usando tensorflow e sklearn.
Il dataset a disposizione e di circa 3M di record, durante l'addestramento, già al secondo Epoch, ottengo un accuracy di 1
che mi sembra molto strano.
Questa è parte del codice che ho scritto , nella funzione train_model ho settato un Sequential 128, 64, 1 e settando il fit con batch_size=32, validation_split=0.2,
Purtroppo la predizione non è vera, in quanto i parametri usati in input per il test sono relativi a dati realmente selezionati. Quindi tempo di aver sbagliato qualcosa nell'approccio ( considerato la tipologia dei dati a disposizione ) o nella configurazione della NN .
Qualcuno mi saprebbe fornire un supporto in merito?
Grazie mille a tutti.
Mi piace