top of page
Risultati Ricerca Intelligenza Artificiale Italia
Tipo
Categoria
108 elementi trovati per ""
- Cerco aiuto per iniziare un sistema espertoIn Machine Learning5 aprile 2022Ciao Romeo. Ho installato python 3.10.4 e non so nulla di programmazione orientata agli oggetti purtroppo. Diciamo che oltre al basic non conosco altri linguaggi di programmazione. Mi sembra che il basic fosse molto semplice anche da comprendere ma dai pochi esempi di python che ho visto anche questo linguaggio non dovrebbe essere molto ostico. Ho cercato, con poco successo, di far girare quei semplici programmini in python, ma hanno sempre quale errore che non so correggere. Ho molte domande in proposito ma non posso "stressarti" come farebbe un ragazzo con il suo professore, e comunque una cosa te la voglio chiedere: perchè il python non viene eseguito in una finestra? Ormai è passato molto tempo e direi che il mio cervello non è più all'altezza di un tempo per cui mi limito a leggere qualche listato in python cercando di modificarlo per vedere altri usi, in genere con risultati non gratificanti. A presto. Ezio00
- MATEMATICA PER MACHINE LEARNINGIn Machine Learning18 settembre 2021Ciao Eleonora, grazie per aver scritto sul nostro Form, siamo sicuri questa tua domanda possa essere utile a molti iscritti alla community. Possiamo per prima cosa in modo molto grezzo racchiudere i principali argomenti matematici che bisogna conoscere per non avere problemi a capire i modelli statistici - matematici dietro il machine learning. Come detto in modo molto grezzo questi sono i principali argomenti : • Calcolo infinitesimale: gli algoritmi di ottimizzazione (ad esempioGradient Descent) sono ancora la chiave della maggior parte dei modelli di machine learning e questi si basano su concetti di calcolo come derivate e gradienti. ( questi algoritmi permettono al nostro modello di "Imparare") • Algebra lineare: Vettori, matrici e anche tensori, insieme alle varie operazioni (somma, prodotto scalare, prodotto vettoriale) sono veramente molto utilizzati nel machine learning. ( Perchè alcuni problemi ad esempio di classificazione vengono risolti geomtricamente ) • Statistica e Calcolo delle probabilità: il machine learning è parte dalla statistica, quindi questa e calcolo delle probabilità sono conoscenze necessarie per una sua padronanza. A questo punto dopo aver capito che questi argomenti sono i fondamentali per il Deep Learning e Machine Learning, andiamo a vedere dove e come è possibile arrivare a padroneggiare queste aree matematiche. La prima soluzione più tortuosa potrebbe essere quella di comprare un semplice libro di Analisi Matematica e iniziare a capire questi concetti, i principali teoremi, principali formule e dimostrazioni. Quando avrai terminato i capitoli riguardanti i 3 argomenti sopra elencati e imparato le definizioni e i teoremi oltre ad aver imparato ad applicare le formule, Sicuramente già sarai un po più avanti. Per quanto riguarda i libri nello specifico, ad oggi non esiste un libro in italiano che tratti questi argomenti nell'ottica dell'utilizzo per il machine learning. Due letture che solitamente consigliamo, che però sono inglese ( nulla di troppo complesso è molto tecnico, quindi capite le principali parole non dovresti avere quindi problemi nella comprensione ) affrontano proprio la matematica per il Machine Learning. Ti lasciamo i link cosi gli dai uno sguardo. • https://amzn.to/3Cqd5JG • https://amzn.to/2XzT8Ba Passiamo adesso ai corsi. Sinceramente sono ciò che ti consigliamo solo se non hai molto tempo, questo perchè spesso i corsi non contengono esercizi o risorse aggiuntive come un libro, e la matematica principalmente si impara sporcandosi le mani 😂 . Però ci sono molto corsi interessanti in italiano. Ti consigliamo di guardare sulla piattaforma udemy.com , dove potrai trovare oltre che a un infinità di corsi diverse garanzie : 1. Acquisti rimborsabili se il corso non fa al caso tuo 2. Accesso all'indici di tutte le lezioni prima dell'acquisto 3. Possibilità di vedere lezioni esempio per capire se ti piace il modo in cui spiega chi ha creato il corso 4. Prezzi contenuti al momento dell'iscrizione 5. Molte recensione sotto i corsi, che ti permettono di capire se qualcuno nelle tue stesse condizioni è riuscito a risolvere il suo problema. Ad esempio queste sono delle ricerche per i corsi di matematica e machine learning : Corsi Matematica : https://www.udemy.com/courses/search/?courseLabel=5336&q=matematica&sort=relevance&src=ukw Corsi Machine Learning : https://www.udemy.com/courses/search/?src=ukw&q=machine+learning Speriamo di esserti stati di aiuto. Non esitare a fare altre domande se abbiamo scritto qualcosa in modo non chiaro😊00
- Cerco aiuto per iniziare un sistema espertoIn Machine Learning4 aprile 2022Ciao Romeo, grazie per la risposta. Mi piacerebbe avventurarmi con le basi di programmazione in Python ma rivolte a produrre gradualmente un motore inferenziale che mi permettesse di avere delle regole del tipo: se.....allora... molto semplici da scrivere. Grazie. Ezio00
- Cerco aiuto per iniziare un sistema espertoIn Machine Learning6 aprile 2022Per il momento grazie, certo che il sumero mi affascina....scherzo naturalmente. Proverò a comprendere qualcosa del python seguendo le tue indicazioni e leggendo quà e là (ho scoperto che esiste una libreria che si chiama experta appositamente studiata per costruire sistemi esperti !). A presto00
- Cerco aiuto per iniziare un sistema espertoIn Machine Learning5 aprile 2022Come ti ho detto, mi farebbe piacere condividere con te questa esperienza e, visto che conosci poco il linguaggio, ma abbiamo probabilmente in comune una certa età, e visto che io ho smesso tanti anni fa di fare il "professore", diciamo che da moderni "perennial", ci possiamo anche intendere al volo, quindi, compatibilmente con il tempo a mia disposizione, non considero la nostra interazione, una fonte di stress, anzi! Sono sicuro che il nostro percorso assieme, potrà darci delle belle soddisfazioni, ed essere molto interessante per tutti e due. Ora, se vuoi, potremmo anche continuare in questa sede la nostra relazione epistolare di informatica dedicata a python e al tuo progetto, ma se vuoi, puoi anche contattarmi in privato, che per me va altrettanto bene, ma forse, se continuiamo su queste pagine, magari ci sarà anche qualcun'altro che saprà aiutarti meglio di me. In qualsiasi caso, volendo partire dalle basi, e condividendo la mia esperienza, le prime difficoltà con Python le ho incontrate, all'inizio, con la sintassi, ovvero con l'identazione dei comandi. Indentare il codice è una pratica comune in tutti i linguaggi, perché semplifica la lettura del codice e la comprensione della sua struttura, questa scelta ha diversi aspetti positivi, tra cui: il linguaggio risulta più chiaro e leggibile; la struttura del programma coincide sempre con quella dell’indentazione; lo stile di indentazione è necessariamente uniforme in qualsiasi listato. Questo significa che, in Python, l’indentazione è significativa, e che indentare in modo incorretto può portare a comportamenti sbagliati del programma o a errori. Un esempio di codice identato: for i in range(colonne): for j in range(righe): x = matrix1[i,j] y = matrix2[i,j] if x != y: Num_Diff+=1 print("riscontrati N_pixel differenti = ", Num_Diff) l'identazione consiste nei "4 spazi" che vengono anteposti alle righe di programma: in questo caso una semplice procedura di controllo matricale per rilevare la differenza di pixel in due matrici relative a due immagini monocromatiche. Per quanto riguarda l'interfaccia grafica in python, esiste e si chiama tkinter, è un modulo del linguaggio, ma è una cosa che prenderei in considerazione più avanti. Alla mia età correre diventa un po' complicato.... Dimmi se trovi difficoltà nel fare qualche esercizio simile a questo.... che sembra semplice ma non lo è...00
- Cerco aiuto per iniziare un sistema espertoIn Machine Learning8 aprile 2022Ci tengo, fammi sapere e se vuoi contattami pure... Buon lavoro...00
- Cerco aiuto per iniziare un sistema espertoIn Machine Learning5 aprile 2022Sono felice di leggerti, e sicuramente in passato ho condiviso il piacere di usare Mac, il mio primo computer professionale, che vendevo e usavo, il mio mi era costato 7.500.000 lire: un MAC SE, con stampante ecc... anno di grazia 1987.... quando passavo dai negozi di informatica a studio di impianti elettrici e automazioni di cui ho ancora il blog del sito: https://www.cyberservices.it/ ,quindi, tornando a noi, credo che Atom sia proprio indicata allo scopo, credo inoltre che tu abbia installato una versione di Python3, se vuoi mi saprai dire quale, credo inoltre che, sotto il profilo informatico tu sia anche molto più preparato di me, anche se non conosci il linguaggio, che a mio avviso è abbastanza semplice, la sua particolarità principale è "lidentazione", e a mio avviso è sicuramente meno macchinoso di "C++" o altri. Prima di partire a razzo nel mondo della I.A. con particolare riferimento ai classificatori, deep learning, ecc... volevo chiederti se hai confidenza con linguaggi OOP... classi, funzioni ecc... che in python sono di casa.... così come dizionari, tuple, liste... ecc.... se vuoi, a me farebbe proprio piacere poter condividere con te qualche esperienza in questo settore.00
- GIn Machine Learning13 novembre 2022Funziona, funziona, funziona. Quasi riscritto!!!! Grazie e in gamba! Ho dovuto levare /content/. nella parte read data... data = pd.read_csv("Dataset_Terremoti.csv")0
- Cerco aiuto per iniziare un sistema espertoIn Machine Learning12 aprile 2022Ciao, ho una domanda un po' particolare. Faccio girare un sistema esperto e tutti i dialoghi e risultati mi appaiono nella finestra del terminale. Se volessi che apparissero in una finestra aperta ad ok come dovrei modificare lo script del S.E. ? Grazie come sempre. Ezio00
- Bot con conoscenze specificheIn Machine Learning19 giugno 2023Ciao!🤗 L'approccio che hai menzionato utilizza la libreria Langchain e il modulo VectorstoreIndexCreator per creare un indice basato su diversi file PDF. Questo approccio può funzionare, ma ci potrebbero essere alternative che potresti considerare per rendere il tuo bot più intelligente e controllato. Puoi creare agente che utilizzi un approccio zero-shot, dove gli fornisci un prompt e gli chiedi di generare una risposta basata sulle informazioni fornite nei documenti. Puoi configurare il prompt in modo che richieda al modello di fornire una risposta solo se l'informazione è presente nell'indice dei documenti forniti. Puoi anche impostare la temperatura a 0 per rendere le risposte del modello più deterministiche e limitare l'inclusione di informazioni esterne non desiderate. Inoltre, puoi personalizzare ulteriormente il comportamento del tuo bot scrivendo delle regole aggiuntive. Ad esempio, puoi aggiungere una regola che verifichi se l'informazione richiesta è presente nell'indice dei documenti e, in caso contrario, il bot può restituire un messaggio di avviso o richiedere ulteriori informazioni. Ricorda che, nonostante i tuoi sforzi per limitare le risposte del bot alle sole informazioni fornite, l'utilizzo di modelli di linguaggio basati su trasformatori come GPT-3.5 implica una certa capacità di generazione di contenuti basati sulle conoscenze acquisite dal modello durante l'addestramento su Internet. Pertanto, è possibile che il bot fornisca risposte che vanno oltre i documenti forniti, anche se hai impostato restrizioni come la temperatura a 0. Ecco un esempio di come potresti configurare un agente utilizzando Langchain, lo Zero Shot Agent e il Vectorstore come toolkit, basato sulla documentazione che mi hai fornito: from langchain.embeddings.openai import OpenAIEmbeddings from langchain.vectorstores import Chroma from langchain.text_splitter import CharacterTextSplitter from langchain import OpenAI, VectorDB from langchain.document_loaders import TextLoader from langchain.agents.agent_toolkits import ( create_vectorstore_agent, VectorStoreToolkit, VectorStoreInfo, ) # Carica il tuo documento loader = TextLoader("path_to_your_pdf_file.pdf") documents = loader.load() # Suddividi il testo in parti più piccole text_splitter = CharacterTextSplitter(chunk_size=1000, chunk_overlap=0) texts = text_splitter.split_documents(documents) # Crea gli embeddings embeddings = OpenAIEmbeddings() store = Chroma.from_documents(texts, embeddings, collection_name="your_collection_name") # Crea l'agente llm = OpenAI(temperature=0) # Imposta la temperatura a 0 per limitare la generazione di contenuti non pertinenti vectorstore_info = VectorStoreInfo( name="your_vectorstore_name", description="your_vectorstore_description", vectorstore=store, ) toolkit = VectorStoreToolkit(vectorstore_info=vectorstore_info) agent = create_vectorstore_agent(llm=llm, toolkit=toolkit, verbose=True) In questo esempio, l'agente è configurato per utilizzare solo le informazioni nel tuo documento PDF. Se l'agente non trova le informazioni nel tuo documento, non dovrebbe generare una risposta. Tuttavia, potrebbe essere necessario personalizzare ulteriormente l'agente per gestire specificamente i casi in cui non trova le informazioni richieste. Facci sapere se ti è stato utile 🤗00
- Previsione Eventi da un Sistema SconosciutoIn Deep Learning9 marzo 2024non conoscendo il contesto, con le informazioni che hai fornito, potrei pensare ad una codificazione di errori, e tempi ma in quel caso ci dovrebbe essere una sequenza "parlata"... della serie, primi ttt.code = tempo secondi zzz.code= classe errore terzi yyy.code = tipo di errore... vi saranno delle conversioni da qualche parte, se è una macchina vi sarà un libretto tecnico.... ecc...10
- Esempio pratico Rilevamento Di Veicoli In Tempo Reale con il Deep Learning ( DL ) , Python e OpenCVIn Deep Learning1 novembre 2022Grazie cmq!10
- ChatterbotIn Deep Learning12 agosto 2023Grazie! Volevo provare questo progetto anche perché mi sembrava alla mia portata visto che non sono programmatore di professione...ma sono interessato all'AI... siccome ho provato ha installare la libreria chatterbot sia su Google colab che su altri due ambienti di programmazione python ma non si installa e da errore, chiedevo appunto se era ancora attuale e funzionante...10
- Previsione tempi di lavorazioneIn Deep Learning21 febbraio 2024Salve e benvenuto nel forum! Per affrontare il tuo problema di previsione dei tempi di lavorazione degli ordini utilizzando il deep learning, ci sono diverse strategie e considerazioni da tenere in considerazione. 1. Preprocessing dei dati: Prima di alimentare i dati alla rete neurale, è importante eseguire un buon preprocessing per preparare i dati in modo ottimale. Questo può includere la normalizzazione dei dati per ridurre la scala dei valori e rendere più semplice il processo di apprendimento della rete neurale. Ecco un esempio di come potresti normalizzare i tuoi dati utilizzando la libreria scikit-learn in Python: from sklearn.preprocessing import MinMaxScaler scaler = MinMaxScaler() X_train_scaled = scaler.fit_transform(X_train) X_test_scaled = scaler.transform(X_test) 1. Architettura della rete neurale: La scelta dell'architettura della rete neurale è cruciale per il successo del modello. Nel tuo caso, potresti considerare l'utilizzo di reti neurali ricorrenti (RNN) o reti neurali convoluzionali (CNN) in combinazione con strati densi per gestire la sequenzialità dei dati temporali e le caratteristiche spaziali dei dati, rispettivamente. Ecco un esempio di come potresti definire una semplice rete neurale usando TensorFlow e Keras: import tensorflow as tf from tensorflow.keras.models import Sequential from tensorflow.keras.layers import LSTM, Dense model = Sequential([ LSTM(64, input_shape=(X_train.shape[1], X_train.shape[2])), Dense(1) ]) 1. Ottimizzatori e funzioni di perdita: La scelta dell'ottimizzatore e della funzione di perdita può avere un impatto significativo sulle prestazioni del modello. Puoi sperimentare con diversi ottimizzatori come Adam, RMSprop o SGD e diverse funzioni di perdita come la mean squared error (MSE) o la mean absolute error (MAE). Ecco un esempio di come potresti compilare il modello con l'ottimizzatore Adam e la funzione di perdita MSE: model.compile(optimizer='adam', loss='mse') 1. Utilizzo dei dati degli articoli: Hai menzionato di avere dati su ogni singolo articolo contenuto nella commessa. Questi dati possono essere utilizzati per arricchire il set di dati della tua rete neurale. Ad esempio, potresti considerare l'aggiunta di features come il tipo di materiale utilizzato, la complessità dell'articolo, o altre caratteristiche rilevanti che potrebbero influenzare i tempi di lavorazione. 1. Iperparametri della rete neurale: Gli iperparametri sono parametri esterni al modello che influenzano le prestazioni e la complessità del modello. Alcuni esempi di iperparametri per una rete neurale includono il numero di neuroni in ogni strato, il tasso di apprendimento dell'ottimizzatore, il numero di epoche di addestramento, il batch size, e così via. Trovare i valori ottimali per questi iperparametri è fondamentale per ottenere prestazioni ottimali dal tuo modello. # Esempio di definizione degli iperparametri num_neurons_layer1 = 64 num_neurons_layer2 = 64 learning_rate = 0.001 batch_size = 32 epochs = 50 La ricerca degli iperparametri può essere effettuata attraverso tecniche come il grid search, che esamina diverse combinazioni di iperparametri per trovare la migliore. Di seguito un esempio di come puoi implementare il grid search con scikit-learn: from sklearn.model_selection import GridSearchCV from tensorflow.keras.wrappers.scikit_learn import KerasRegressor # Funzione per creare il modello def create_model(num_neurons_layer1=64, num_neurons_layer2=64, learning_rate=0.001): model = Sequential([ LSTM(num_neurons_layer1, input_shape=(X_train.shape[1], X_train.shape[2]), return_sequences=True), Dropout(0.2), LSTM(num_neurons_layer2, return_sequences=False), Dense(1) ]) optimizer = Adam(learning_rate=learning_rate) model.compile(loss='mse', optimizer=optimizer) return model # Creazione del modello Keras per scikit-learn keras_model = KerasRegressor(build_fn=create_model, epochs=epochs, batch_size=batch_size, verbose=0) # Definizione della griglia degli iperparametri param_grid = { 'num_neurons_layer1': [32, 64, 128], 'num_neurons_layer2': [32, 64, 128], 'learning_rate': [0.001, 0.01, 0.1] } # Creazione dell'oggetto GridSearchCV grid_search = GridSearchCV(estimator=keras_model, param_grid=param_grid, scoring='neg_mean_squared_error', cv=3) grid_result = grid_search.fit(X_train, y_train) # Stampa dei risultati del grid search print("Best MSE: {:.4f} using {}".format(grid_result.best_score_, grid_result.best_params_)) In questo esempio, vengono definite diverse combinazioni di iperparametri nella griglia param_grid. La funzione create_model crea un modello Keras con gli iperparametri specificati. L'oggetto GridSearchCV cerca la combinazione ottimale di iperparametri attraverso la validazione incrociata. I risultati, inclusi il miglior punteggio e i migliori parametri, vengono stampati alla fine. Ecco un esempio di come potresti strutturare il tuo codice utilizzando TensorFlow e Keras: import tensorflow as tf from tensorflow.keras.models import Sequential from tensorflow.keras.layers import LSTM, Dense, Dropout from tensorflow.keras.optimizers import Adam # Definizione dell'architettura della rete neurale model = Sequential() model.add(LSTM(64, input_shape=(sequence_length, num_features), return_sequences=True)) model.add(Dropout(0.2)) model.add(LSTM(64, return_sequences=False)) model.add(Dense(1)) # Compilazione del modello optimizer = Adam(learning_rate=0.001) model.compile(loss='mse', optimizer=optimizer) # Addestramento del modello history = model.fit(X_train, y_train, epochs=50, batch_size=32, validation_data=(X_val, y_val)) # Valutazione del modello loss = model.evaluate(X_test, y_test) print("Test Loss:", loss) # Utilizzo del modello per fare previsioni predictions = model.predict(X_test) In questo esempio, si crea un modello sequenziale con due strati LSTM seguiti da un layer densamente connesso per l'output. Si utilizza l'ottimizzatore Adam con una learning rate di 0.001 e la funzione di perdita MSE. Successivamente, il modello viene addestrato sui dati di addestramento per 50 epoche con un batch size di 32, utilizzando i dati di validazione per monitorare le prestazioni durante l'addestramento. Il modello viene valutato sui dati di test e utilizzato per fare previsioni. Assicurati di adattare questo esempio ai tuoi dati specifici, modificando la forma degli input e degli output del modello e scegliendo l'architettura, l'ottimizzatore e la funzione di perdita più adatti al tuo problema. Buona fortuna!20
- Previsione tempi di lavorazioneIn Deep Learning22 febbraio 2024Una elaborazione non può che partire dai dati, se si hanno a disposizioni dati, si può cercare di fare delle previsioni sulle lavorazioni. Io credo che ogni articolo possa avere degli attributi (lavorazioni), gli ordini, possono contenere una eterogenia di articoli, il problema quindi si pone, qualora un articolo, subisse una diversificazione di lavorazioni in riferimento alla commessa, in altre parole, una articolo "A" (semilavorato o meno) subisce X lavorazioni prima di essere evaso nella commessa C, lo stesso articolo però potrebbe subire Y lavorazioni nella commessa C1. In questo caso non credo sia possibile giungere ad una elaborazione affidabile dei dati. Se ad ogni articolo si associano sempre le stesse lavorazioni, allora le cose potrebbero essere messe in relazione, su un database, ovviamente bisogna avere dei dati coerenti con quella tipologia di catalogazione dei dati. Una delle parti più difficili nell'utilizzo del machine learning credo consista proprio nella preparazione dei dati, questo potrebbe essere un caso tipico.0
bottom of page