top of page
Risultati Ricerca Intelligenza Artificiale Italia
Tutti (1151)
Post sul blog (484)
Post sul forum (109)
Prodotti (2)
Altre pagine (317)
Programmi (239)
Filtra per
Tipo
Categoria
109 risultati trovati con una ricerca vuota
- ChatterbotIn Deep Learning12 agosto 2023Grazie! Volevo provare questo progetto anche perché mi sembrava alla mia portata visto che non sono programmatore di professione...ma sono interessato all'AI... siccome ho provato ha installare la libreria chatterbot sia su Google colab che su altri due ambienti di programmazione python ma non si installa e da errore, chiedevo appunto se era ancora attuale e funzionante...10
- Previsione tempi di lavorazioneIn Deep Learning21 febbraio 2024Salve e benvenuto nel forum! Per affrontare il tuo problema di previsione dei tempi di lavorazione degli ordini utilizzando il deep learning, ci sono diverse strategie e considerazioni da tenere in considerazione. 1. Preprocessing dei dati: Prima di alimentare i dati alla rete neurale, è importante eseguire un buon preprocessing per preparare i dati in modo ottimale. Questo può includere la normalizzazione dei dati per ridurre la scala dei valori e rendere più semplice il processo di apprendimento della rete neurale. Ecco un esempio di come potresti normalizzare i tuoi dati utilizzando la libreria scikit-learn in Python: from sklearn.preprocessing import MinMaxScaler scaler = MinMaxScaler() X_train_scaled = scaler.fit_transform(X_train) X_test_scaled = scaler.transform(X_test) 1. Architettura della rete neurale: La scelta dell'architettura della rete neurale è cruciale per il successo del modello. Nel tuo caso, potresti considerare l'utilizzo di reti neurali ricorrenti (RNN) o reti neurali convoluzionali (CNN) in combinazione con strati densi per gestire la sequenzialità dei dati temporali e le caratteristiche spaziali dei dati, rispettivamente. Ecco un esempio di come potresti definire una semplice rete neurale usando TensorFlow e Keras: import tensorflow as tf from tensorflow.keras.models import Sequential from tensorflow.keras.layers import LSTM, Dense model = Sequential([ LSTM(64, input_shape=(X_train.shape[1], X_train.shape[2])), Dense(1) ]) 1. Ottimizzatori e funzioni di perdita: La scelta dell'ottimizzatore e della funzione di perdita può avere un impatto significativo sulle prestazioni del modello. Puoi sperimentare con diversi ottimizzatori come Adam, RMSprop o SGD e diverse funzioni di perdita come la mean squared error (MSE) o la mean absolute error (MAE). Ecco un esempio di come potresti compilare il modello con l'ottimizzatore Adam e la funzione di perdita MSE: model.compile(optimizer='adam', loss='mse') 1. Utilizzo dei dati degli articoli: Hai menzionato di avere dati su ogni singolo articolo contenuto nella commessa. Questi dati possono essere utilizzati per arricchire il set di dati della tua rete neurale. Ad esempio, potresti considerare l'aggiunta di features come il tipo di materiale utilizzato, la complessità dell'articolo, o altre caratteristiche rilevanti che potrebbero influenzare i tempi di lavorazione. 1. Iperparametri della rete neurale: Gli iperparametri sono parametri esterni al modello che influenzano le prestazioni e la complessità del modello. Alcuni esempi di iperparametri per una rete neurale includono il numero di neuroni in ogni strato, il tasso di apprendimento dell'ottimizzatore, il numero di epoche di addestramento, il batch size, e così via. Trovare i valori ottimali per questi iperparametri è fondamentale per ottenere prestazioni ottimali dal tuo modello. # Esempio di definizione degli iperparametri num_neurons_layer1 = 64 num_neurons_layer2 = 64 learning_rate = 0.001 batch_size = 32 epochs = 50 La ricerca degli iperparametri può essere effettuata attraverso tecniche come il grid search, che esamina diverse combinazioni di iperparametri per trovare la migliore. Di seguito un esempio di come puoi implementare il grid search con scikit-learn: from sklearn.model_selection import GridSearchCV from tensorflow.keras.wrappers.scikit_learn import KerasRegressor # Funzione per creare il modello def create_model(num_neurons_layer1=64, num_neurons_layer2=64, learning_rate=0.001): model = Sequential([ LSTM(num_neurons_layer1, input_shape=(X_train.shape[1], X_train.shape[2]), return_sequences=True), Dropout(0.2), LSTM(num_neurons_layer2, return_sequences=False), Dense(1) ]) optimizer = Adam(learning_rate=learning_rate) model.compile(loss='mse', optimizer=optimizer) return model # Creazione del modello Keras per scikit-learn keras_model = KerasRegressor(build_fn=create_model, epochs=epochs, batch_size=batch_size, verbose=0) # Definizione della griglia degli iperparametri param_grid = { 'num_neurons_layer1': [32, 64, 128], 'num_neurons_layer2': [32, 64, 128], 'learning_rate': [0.001, 0.01, 0.1] } # Creazione dell'oggetto GridSearchCV grid_search = GridSearchCV(estimator=keras_model, param_grid=param_grid, scoring='neg_mean_squared_error', cv=3) grid_result = grid_search.fit(X_train, y_train) # Stampa dei risultati del grid search print("Best MSE: {:.4f} using {}".format(grid_result.best_score_, grid_result.best_params_)) In questo esempio, vengono definite diverse combinazioni di iperparametri nella griglia param_grid. La funzione create_model crea un modello Keras con gli iperparametri specificati. L'oggetto GridSearchCV cerca la combinazione ottimale di iperparametri attraverso la validazione incrociata. I risultati, inclusi il miglior punteggio e i migliori parametri, vengono stampati alla fine. Ecco un esempio di come potresti strutturare il tuo codice utilizzando TensorFlow e Keras: import tensorflow as tf from tensorflow.keras.models import Sequential from tensorflow.keras.layers import LSTM, Dense, Dropout from tensorflow.keras.optimizers import Adam # Definizione dell'architettura della rete neurale model = Sequential() model.add(LSTM(64, input_shape=(sequence_length, num_features), return_sequences=True)) model.add(Dropout(0.2)) model.add(LSTM(64, return_sequences=False)) model.add(Dense(1)) # Compilazione del modello optimizer = Adam(learning_rate=0.001) model.compile(loss='mse', optimizer=optimizer) # Addestramento del modello history = model.fit(X_train, y_train, epochs=50, batch_size=32, validation_data=(X_val, y_val)) # Valutazione del modello loss = model.evaluate(X_test, y_test) print("Test Loss:", loss) # Utilizzo del modello per fare previsioni predictions = model.predict(X_test) In questo esempio, si crea un modello sequenziale con due strati LSTM seguiti da un layer densamente connesso per l'output. Si utilizza l'ottimizzatore Adam con una learning rate di 0.001 e la funzione di perdita MSE. Successivamente, il modello viene addestrato sui dati di addestramento per 50 epoche con un batch size di 32, utilizzando i dati di validazione per monitorare le prestazioni durante l'addestramento. Il modello viene valutato sui dati di test e utilizzato per fare previsioni. Assicurati di adattare questo esempio ai tuoi dati specifici, modificando la forma degli input e degli output del modello e scegliendo l'architettura, l'ottimizzatore e la funzione di perdita più adatti al tuo problema. Buona fortuna!20
- Previsione tempi di lavorazioneIn Deep Learning22 febbraio 2024Una elaborazione non può che partire dai dati, se si hanno a disposizioni dati, si può cercare di fare delle previsioni sulle lavorazioni. Io credo che ogni articolo possa avere degli attributi (lavorazioni), gli ordini, possono contenere una eterogenia di articoli, il problema quindi si pone, qualora un articolo, subisse una diversificazione di lavorazioni in riferimento alla commessa, in altre parole, una articolo "A" (semilavorato o meno) subisce X lavorazioni prima di essere evaso nella commessa C, lo stesso articolo però potrebbe subire Y lavorazioni nella commessa C1. In questo caso non credo sia possibile giungere ad una elaborazione affidabile dei dati. Se ad ogni articolo si associano sempre le stesse lavorazioni, allora le cose potrebbero essere messe in relazione, su un database, ovviamente bisogna avere dei dati coerenti con quella tipologia di catalogazione dei dati. Una delle parti più difficili nell'utilizzo del machine learning credo consista proprio nella preparazione dei dati, questo potrebbe essere un caso tipico.0
- Previsione tempi di lavorazioneIn Deep Learning24 febbraio 2024Buongiorno Romeo, La sua analisi è più che corretta. Forse però un paio di precisazioni possono esserci d’aiuto. Ogni articolo è presente solo in una commessa e la lavorazione successiva (sempre la stessa, ovvero la piegatura) è registrata per ogni singolo articolo con un inizio ed una fine. Non ho mai approfondito questa possibilità di calcolo perché non ho idea di come tecnicamente sia possibile fornire l’informazione al motore di calcolo che un prodotto appartenga ad una commessa senza utilizzare un hothandler che creerebbe un infinità di nuove colonne. Riuscirebbe ad aiutarmi in questo aspetto? Perché “sbloccando” questa possibilità allora le opzioni disponibili si ampliano notevolmente! Grazie mille per il tempo che mi sta dedicando!0
- Previsioni prezzo azioni con deep learningIn Deep Learning1 settembre 2021Ciao, grazie mille per averci scritto 🤗 Allora per quanto riguarda il funzionamento del programma da noi proposto ci sono diversi motivi per il quale potrebbe non funzionare, ad esempio il sistema operativo installato... Comunque se sei interessato ad un programmino semplice, che possa girare su windows, non esitare a mandarci una email a python.ai.solution@gmail.com. Ti scriveremo una piccola demo gratuita da far girare anche online se ti dovesse servire . Per quanto riguarda il servizio intelligente sul Trading, capita spesso ultimamente che vada in crash per il troppo traffico. Quando ti fa la rotellina di caricamento non esitare a mandarci una mail o usare la chat del sito per dircelo, risolveremo al più presto. Al momento abbiamo ripristinato il servizio, facci sapere se riesci ad ad accedere. Grazie ancora per averci scritto e scusaci il disagio causato dal momentaneo mancato servizio intelligente del nostro sito 🤗 Per qualsiasi altro problema non esitare ad aprire un altra discussione sul forum o a contattarci direttamente, speriamo di esserti stati di aiuto 🤗30
- Previsioni prezzo azioni con deep learningIn Deep Learning1 settembre 2021Cosa dire, grazie Martina e grazie Moderatori di I.A. Italia! Ho provato il SaaS ed è davvero carino ed ha già tutte le aggiunte che avrei voluto farci, ha funzionato benissimo e velocissimo. Anche il codice di Martina mi potrà essere molto utile, naturalmente dovrò studiare un bel po' prima di capirci davvero qualcosa ma già adesso, grazie a questi 2 esempi, ho le idee molto più chiare su come funziona questa tecnica. Grazie davvero per la disponibilità ed a presto! Mario20
- ChatterbotIn Deep Learning12 agosto 2023Attenzione, lo Stregatto, è disponibile anche senza installare nulla, ma devi far parte della community Discord, Se segui le istruzioni per la installazione in locale, hai bisogno di Docker, come supporto, che in definitiva è la via più semplice. In qualsiasi caso, sono a disposizione per eventuali altre comunicazioni.10
- Cerco AiutoIn Deep Learning25 ottobre 2022Grazie mille!0
- Cerco AiutoIn Deep Learning25 ottobre 2022Ciao Elia, ultimamente anche io mi sono appassionata alla Xai. Da quando ne ho letto su questo sito : https://www.intelligenzaartificialeitalia.net/post/intelligenza-artificiale-spiegabile-come-spiegare-un-modello-al-tuo-capo Per quanto riguarda l'implementazione di un modello BERT ti consiglio vivamente di usare quelli disponibili su HuggingFace, troverai oltre 8mila modelli già allenati, sicuramente ci sarà quello che cerchi. ( https://huggingface.co/models?search=bert ) Per implementare un qualsiasi modello ti serviranno solo 3 righe di codice from transformers import pipeline >>> unmasker = pipeline('fill-mask', model='bert-base-uncased') >>> unmasker("Hello I'm a [MASK] model.") [{'sequence': "[CLS] hello i'm a fashion model. [SEP]", 'score': 0.1073106899857521, 'token': 4827, 'token_str': 'fashion'}, {'sequence': "[CLS] hello i'm a role model. [SEP]", 'score': 0.08774490654468536, 'token': 2535, 'token_str': 'role'}, {'sequence': "[CLS] hello i'm a new model. [SEP]", 'score': 0.05338378623127937, 'token': 2047, 'token_str': 'new'}, {'sequence': "[CLS] hello i'm a super model. [SEP]", 'score': 0.04667217284440994, 'token': 3565, 'token_str': 'super'}, {'sequence': "[CLS] hello i'm a fine model. [SEP]", 'score': 0.027095865458250046, 'token': 2986, 'token_str': 'fine'}] Più nello specifico cosa volevi fare ?00
- Esempio pratico Rilevamento Di Veicoli In Tempo Reale con il Deep Learning ( DL ) , Python e OpenCVIn Deep Learning1 novembre 2022Notavo che le auto più piccole (più lontane) vengono riconosciute più facilmente (ma non tutte!!!!!) rispetto a quelle in primo piano più grandi...10
- Previsione Eventi da un Sistema SconosciutoIn Deep Learning9 marzo 2024Per quanto riguarda i dati, non sappiamo quale sia l'algoritmo generato dal sistema, poichè come abbiamo detto prima, è un sistema chiuso, dal quale preleviamo dati da esso. Sapere però quali potrebbero essere i valori probabili in uscita, considerando un insieme ridotto, ci permetterebbe di integrare una elaborazione successiva su di essi più rapido ed in anticipo.10
- Previsioni prezzo azioni con deep learningIn Deep Learning1 settembre 2021Forse questo codice può esserti utile è uno dei primi che ho trovato quando mi sono avvicinata all'I.A., anche io come te affascinata dalla semplicità di applicazione nell'ambito marketing e finanziario. import pandas as pd import numpy as np import matplotlib.pyplot as plt %matplotlib inline from matplotlib.pylab import rcParams rcParams['figure.figsize']=20,10 from keras.models import Sequential from keras.layers import LSTM,Dropout,Dense from sklearn.preprocessing import MinMaxScaler #carico file datase df=pd.read_csv("FileStoricoAzione.csv") df.head() df["Date"]=pd.to_datetime(df.Date,format="%Y-%m-%d") df.index=df['Date'] #grafico storico plt.figure(figsize=(16,8)) plt.plot(df["Close"],label='Storico prezzo di chiusura') #Ordino, filtro e normalizzo, data e chiusura. data=df.sort_index(ascending=True,axis=0) new_dataset=pd.DataFrame(index=range(0,len(df)),columns=['Date','Close']) for i in range(0,len(data)): new_dataset["Date"][i]=data['Date'][i] new_dataset["Close"][i]=data["Close"][i] scaler=MinMaxScaler(feature_range=(0,1)) final_dataset=new_dataset.values train_data=final_dataset[0:987,:] valid_data=final_dataset[987:,:] new_dataset.index=new_dataset.Date new_dataset.drop("Date",axis=1,inplace=True) scaler=MinMaxScaler(feature_range=(0,1)) scaled_data=scaler.fit_transform(final_dataset) x_train_data,y_train_data=[],[] for i in range(60,len(train_data)): x_train_data.append(scaled_data[i-60:i,0]) y_train_data.append(scaled_data[i,0]) x_train_data,y_train_data=np.array(x_train_data),np.array(y_train_data) x_train_data=np.reshape(x_train_data,(x_train_data.shape[0],x_train_data.shape[1],1)) #Costruisco il Modello neurale lstm_model=Sequential() lstm_model.add(LSTM(units=50,return_sequences=True,input_shape=(x_train_data.shape[1],1))) lstm_model.add(LSTM(units=50)) lstm_model.add(Dense(1)) inputs_data=new_dataset[len(new_dataset)-len(valid_data)-60:].values inputs_data=inputs_data.reshape(-1,1) inputs_data=scaler.transform(inputs_data) #compilo e alleno il modello lstm_model.compile(loss='mean_squared_error',optimizer='adam') lstm_model.fit(x_train_data,y_train_data,epochs=1,batch_size=1,verbose=2) #prendo un periodo di 60 giorni da predirre X_test=[] for i in range(60,inputs_data.shape[0]): X_test.append(inputs_data[i-60:i,0]) X_test=np.array(X_test) X_test=np.reshape(X_test,(X_test.shape[0],X_test.shape[1],1)) predicted_closing_price=lstm_model.predict(X_test) predicted_closing_price=scaler.inverse_transform(predicted_closing_price) #Salvo il modello allenato da poter riutilizzare o vendere lstm_model.save("modello_previsioni_azioni_da_1_milione_di_dollari.h5") #Grafico previsione train_data=new_dataset[:987] valid_data=new_dataset[987:] valid_data['Predictions']=predicted_closing_price plt.plot(train_data["Close"]) plt.plot(valid_data[['Close',"Predictions"]]) Per esempio prova ad usare questo file CSV Spero possa aiutarti nel tuo progetto, buona serata.😀20
- Previsione tempi di lavorazioneIn Deep Learning21 febbraio 2024Un commento "al volo", a mio parere, sarebbe meglio trovare un sistema per fornire degli esempi di lavorazione, partendo da tempistiche singole, ricavate da codice pezzo, dove il pezzo può contenere anche altri dati, tipo lunghezza profilo o rapporto profilo area, lamiera spessore. In qualsiasi caso, dei parametri che possano essere combinati per ricavare una velocità.10
- Previsione Eventi da un Sistema SconosciutoIn Deep Learning9 marzo 20241. Le sequenze numeriche sono diverse tra loro, ma alcuni valori possono essere presenti nelle sequenze successive, ma per qualche ragione a noi attualmente sconosciuta riusciamo a ridurre i probabili valori successivi con il metodo sopra descritto; 2. Andrebbero esclusi solo alcuni, ma non conoscendo l'algoritmo che vi è in questa "black box", non sappiamo quale sia. La sequenza è una specie di "firma", che indica lo stato attuale della macchina, come fosse un indice, ma non è criptografato; 3. Infatti non ha una logica conosciuta, ma questa condizione di esclusione di alcune sequenze precedenti è ripetibile in tutta la storicizzazione di questi valori; Spero di aver fatto luce ai tuoi quesiti.0
- Previsione Eventi da un Sistema SconosciutoIn Deep Learning9 marzo 2024Per quanto riguarda "prepare_data", cosa dovrebbe contenere? In quale forma dovrei preparare i dati? Immagino che X_train dovrebbe contenere una lista la cui dimensione è tipo 2000 array dove ogni array contiene a sua volta 140 array di sequenze numeriche (12 numeri appunto), mentre Y_train dovrebbe contenere un array di 2000 array dove ogni array contiene una sequenza 140 valori booleani. Corretto? Ma X_test e Y_test?0
bottom of page