top of page
Risultati Ricerca Intelligenza Artificiale Italia
Tipo
Categoria
108 elementi trovati per ""
- MATEMATICA PER MACHINE LEARNINGIn Machine Learning ·17 settembre 2021Spero che qualcuno possa darmi una mano visto che non ho trovato molto da me a riguardo. Studio già per conto mio e in università il mondo dell'AI, del data mining. ma ho un problema: ho delle carenze matematiche che mi impediscono di andare affondo alla materia come vorrei. Conoscete per caso un corso (anche a pagamento) o un libro che possa aiutarmi a colmare questa lacuna?21490
- GIn Machine Learning13 novembre 2022Esiste un modo per convertire file py in ipynb, senza dannarsi l'anima? Da Colab basta scarica in py...11
- PytorchIn Machine Learning4 marzo 2023Io sto seguendo questo libro... https://pytorchstepbystep.com/ Se è interessato possiamo organizzarci x condividere lo studio (prevalentemente la sera). Se ha già fatto implementazioni anche su rpi sarebbe interessante... Io stavo pensando di fare un progetto pilota per adottare NN pytorch su un piccolo drone terrestre fatto con Raspberry... Ma credo che la parte di addestramento si possa fare con un simulatore tipo il vecchio vrep...1
- PytorchIn Machine Learning6 marzo 2023Ciao Andrea 🤗! Grazie per aver condiviso la tua idea di creare un gruppo di studio su PyTorch, siamo completamente d'accordo con te che sia un'ottima idea! Siamo anche disponibili ad aiutare a promuovere l'esistenza di questo gruppo. In effetti, come hai giustamente notato, ci sono pochi contenuti disponibili su PyTorch e ci siamo impegnati a colmare questa lacuna pubblicando recentemente un articolo introduttivo su PyTorch per principianti. ( https://www.intelligenzaartificialeitalia.net/post/introduzione-a-pytorch-per-principianti ) Se hai già creato un gruppo su Telegram o WhatsApp, saremmo lieti di includerlo nell'articolo, in modo che chi leggerà l'articolo possa unirsi al tuo gruppo. Ci farebbe piacere collaborare con te e aiutarti a creare una comunity attiva e motivata intorno a PyTorch. Facci sapere! 💻🤝📚11
- Dataset machine learning: quale scegliere?In Machine Learning ·31 gennaio 2023Buonasera, Sto facendo un progetto di machine learning e sono alla ricerca di un dataset. Ho cercato all'interno del sito kaggle ma alcuni sono complessi per via delle numerose variabili presenti oppure della difficoltà di esporre i dati. Nello specifico il mio progetto si basa su cleaning ed esplorazione dei dati, scelta di modello e algoritmo di classificazione, comparazione di due o più modelli mediante l'utilizzo dello strumento di orange datamining. Al momento ho preso questo dataset che però a parer mio sembra essere troppo semplice e poco esplicativo per via delle poche e generali variabili inserite. (https://www.kaggle.com/datasets/jahnveenarang/cvdcvd-vd) Premesso che sono uno studente di psicologia che si approccia la prima volta in un progetto e nella manipolazione di dati all'interno dell'area di machine learning, sapreste darmi un tipo di dataset magari più affine oppure darmi qualche consiglio su come approfondire il dataset sopra citato? Sarebbe interessante prendere un dataset che comunque abbia una prediction e un tipo di classificazione binaria. Grazie mille dell'eventuale risposta e proposta1198
- ML apprendimento tabella DBIn Deep Learning·18 luglio 2024Ciao a tutti, sono nuovo di questo mondo e sono un paio di settimane che sto studiando , per la programmazione in python, dei vari framework, logiche, approci da applicare. Arrivo al dunque spiegando il mio quesito: Ho una tabella chiamata Dati con i seguenti campi: • Scadenza : Date > X • Portaf : String > X • Tipo_CR : String > X • Lag : String > X • Tipo_Doc : String > X • Tipo_FF : String > X • Perc : Decimal > X • Factor : String > X • Netto_Split : Decimal > X • Importo1 : Decimal > X • Importo2 : Decimal > X • Data_Invio : Date > Y Da Scadenza a Importo2 sono campi che vanno in X come input e il campo Data_Invio va in Y come output. Essendo Data_Invio un campo ti tipo Date, lo converto in Booleano ( Target ) , se il campo è valorizzato allora il record è selezionato ( 1 ) altrimenti non è selezionato ( 0 ) . Fornendo un set di dati input, a seguito dell'apprendimento della tabella, mi dovrà predire quali record verranno selezionati o no Converto i campi di tipo Date in timestamp e i campi di tipo string con OneHotEncoder, ottendendo il seguente output: Sto usando tensorflow e sklearn. Il dataset a disposizione e di circa 3M di record, durante l'addestramento, già al secondo Epoch, ottengo un accuracy di 1 che mi sembra molto strano. Questa è parte del codice che ho scritto , nella funzione train_model ho settato un Sequential 128, 64, 1 e settando il fit con batch_size=32, validation_split=0.2, Purtroppo la predizione non è vera, in quanto i parametri usati in input per il test sono relativi a dati realmente selezionati. Quindi tempo di aver sbagliato qualcosa nell'approccio ( considerato la tipologia dei dati a disposizione ) o nella configurazione della NN . Qualcuno mi saprebbe fornire un supporto in merito? Grazie mille a tutti.0436
- ML apprendimento tabella DBIn Deep Learning18 luglio 2024Ciao Salvatore! Sono Paolo dalla redazione di IntelligenzaArtificialeItalia.net. Ho dato un'occhiata alla tua situazione e vedo che ci sono un paio di cose che potremmo migliorare insieme per far funzionare al meglio il tuo modello di deep learning. 🚀 * Checkup iniziale: Prima di tutto, facciamo un rapido controllo sulla pulizia dei dati. Assicurati che non ci siano valori mancanti o incoerenti, specialmente nelle date convertite in timestamp. Un piccolo errore qui può rovinare tutto il dataset! * Riduci l'Overfitting: Hai notato un'accuratezza perfetta troppo presto, il che grida overfitting. Potremmo semplificare il modello. Magari inizia con meno neuroni per strato, tipo 64 e 32, e vedi come va. Aggiungi anche Dropout tra gli strati per aiutare a prevenire l'overfitting: from tensorflow.keras.layers import Dropout # Aggiungendo Dropout model.add(Dropout(0.5)) # Dove 0.5 è la frazione di input da annullare * Bilancia il Dataset: Se i tuoi dati sono sbilanciati (troppe istanze di una classe rispetto all'altra), il modello potrebbe diventare prevenuto. Usa tecniche di bilanciamento come il SMOTE o prova a pesare le classi nel tuo modello. * Validazione e Metriche: Cambia la tua metrica di successo. Oltre all'accuratezza, considera di utilizzare la precisione, il recall, e l'AUC-ROC per avere un quadro più chiaro di come il modello performa su classi diverse. * Cross-Validation: Per assicurarti che il modello sia stabile e generalizzi bene, implementa una cross-validation. Questo evita che il modello si "memorizzi" i tuoi dati di training. * Debugging e Log: Dai un'occhiata ai log di training. Se il modello ha sempre le stesse metriche ad ogni epoch, potrebbe essere un segno che non sta imparando nulla di nuovo. Potrebbe essere utile anche visualizzare i dati in input al modello proprio prima del training per assicurarsi che tutto sia in ordine. * Regolarizzazione: Considera di aggiungere una regolarizzazione L1 o L2 alle tue reti per penalizzare i pesi troppo grandi e ridurre l'overfitting: python Copia codice from tensorflow.keras.regularizers import l2 # Aggiungendo la regolarizzazione L2 model.add(Dense(64, activation='relu', kernel_regularizer=l2(0.01))) Per darci dentro, ecco un esempio di come potresti strutturare il tuo modello con queste modifiche: from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense, Dropout from tensorflow.keras.regularizers import l2 model = Sequential([ Dense(64, activation='relu', kernel_regularizer=l2(0.001)), Dropout(0.3), Dense(32, activation='relu', kernel_regularizer=l2(0.001)), Dropout(0.3), Dense(1, activation='sigmoid') ]) model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy', 'AUC']) Questi passaggi dovrebbero aiutarti a ottenere un modello più robusto e affidabile. Comunque senza divagarci in chiacchere, ho provato ad aggiungere io per te qualche cosetta, fammi sapere se con questo codice le cose migliorano. E' il file allegato Salvatore.txt Se hai bisogno di ulteriori dettagli o vuoi discutere altri aspetti, sono qui per aiutarti! 💪21
- Domanda sulla correttezza dei miei 2 prompt per le informazioni sulle fotografie del tramonto sul mareIn Deep Learning5 aprile 2024Grazie per la risposta molto esaustiva e più che soddisfacente! Proverò a informarmi al link che mi ha fornito. La saluto.1
- Domanda sulla correttezza dei miei 2 prompt per le informazioni sulle fotografie del tramonto sul mareIn Deep Learning4 aprile 2024I prompt potrebbero essere considerati come dei comandi che, funzionano in maniera diversa, in relazione al tipo di LLM utilizzato. Quindi, se io volessi far rispondere correttamente, in maniera esaustiva ad una domanda su un argomento specifico, non utilizzerei un LLM generico, ma, ad esempio un framework come Cheshire cat A.I., in quanto, potrebbe rispondere usufruendo di documentazione locale specifica, cosa che un LLM generico non potrebbe fare. Per ulteriori informazioni: https://github.com/cheshire-cat-ai11
- Previsione Eventi da un Sistema SconosciutoIn Deep Learning9 marzo 2024Partire da una black box, per estrarre delle previsioni direi che, se non si hanno cognizioni su chi genere l'output, è come giocare con dei pseudorandom. Come dire fare dei calcoli sulla previsione del gioco del Lotto, conoscendo quali sono state le vincite in passato. La mia domanda è quindi: sicuri che i numeri estratti debbano essere diversi da quelli estratti precedentemente? in qualsiasi caso, vi può essere una logica nascosta? < Io e il mio Team avremmo bisogno di prevedere la sequenza successiva, analizzando le sequenze precedenti.> ... escludendole? le sequenze, contengono dei dati temporali... criptografati? Su che cosa devo interpretare la frase < Ma sappiamo che è impossibile. Ma noi abbiamo trovato una "sorta" di logica.> che, per me risuona come una contraddizione logica? Io potrei dire che in questo caso, la statistica non aiuta e faccio riferimento a questo: http://progettomatematica.dm.unibo.it/Prob2/2calcolocombinatorio.html in qualsiasi caso, ma solo per ragioni tecniche, suggerisco questo: https://it.mathworks.com/discovery/lstm.html Buona fortuna.11
- Previsione Eventi da un Sistema SconosciutoIn Deep Learning9 marzo 2024Ciao! non sono un ssuper esperto di IA ma ho fattto diversi corsi con intelligenzaartificialeitalia.net e provo a rispondere alla tua domanda sperando di essere di aiuto. Partendo dal fatto che la tua richiesta è piuttosto complessa e richiede una soluzione avanzata di deep learning. Ecco qualche consiglio che posso fornirti alcune linee guida su come affrontare il problema utilizzando Python e librerie di deep learning come TensorFlow o PyTorch. ( Sulla base delle mie esperienze passate ) 1. Preparazione dei dati - Converti le sequenze esadecimali in array numerici per facilitare l'elaborazione. - Crea un dataset di addestramento e di test suddividendo i dati storici disponibili. - Normalizza i dati per migliorare le prestazioni del modello. ( Questo passaggio non è obbligatorio ma ti consiglio di fare dei test ) Come dicono sempre i ragazzi di IntelligenzaArtificialeItalia.net lo sviluppo di applicativi come questi è pura ricerca ! 2. Testare un Modello di sequenza - Poiché si tratta di un problema di previsione di sequenze, potresti considerare l'utilizzo di reti neurali ricorrenti (RNN) come le LSTM (Long Short-Term Memory) o le GRU (Gated Recurrent Unit). - Queste architetture sono particolarmente adatte per elaborare sequenze di dati e apprendere le dipendenze a lungo termine tra gli elementi. 3. Architettura del modello ( Complessa da stimare su due piedi, solitamente ci vogliono settimane di test ) - L'architettura potrebbe consistere in uno strato di input che accetta le sequenze di 140 insiemi di 12 valori. - Questo strato di input potrebbe essere collegato a uno o più strati LSTM o GRU per elaborare le sequenze. - L'output del modello dovrebbe essere un array di 140 valori booleani che rappresentano la previsione per la sequenza successiva. 4. Addestramento del modello - Utilizza l'algoritmo di backpropagation attraverso il tempo (BPTT) per addestrare il modello sui dati storici. - Ottimizza una funzione di perdita appropriata, come la cross-entropy binaria per le previsioni booleane. - Applica tecniche come il dropout e la regolarizzazione per evitare l ov.erfitting. Ecco un esempio di codice Python semplificato che potrebbe essere un punto di partenza: --- import numpy as np from tensorflow.keras.models import Sequential from tensorflow.keras.layers import LSTM, Dense # Preparazione dei dati X_train, y_train, X_test, y_test = prepare_data(historical_data) # Definizione del modello model = Sequential() model.add(LSTM(64, input_shape=(140, 12))) model.add(Dense(140, activation='sigmoid')) # Compilazione del modello model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy']) # Addestramento del modello model.fit(X_train, y_train, epochs=50, batch_size=32, validation_data=(X_test, y_test)) # Previsione su nuovi dati new_sequence = np.array([[...]]) # Preparazione dei nuovi dati prediction = model.predict(new_sequence) --- Questo è solo un esempio di base e richiederà sicuramente ulteriori ottimizzazioni e personalizzazioni per adattarsi ai tuoi dati specifici e ai requisiti di prestazioni. Per aiutarti sarebbe utile avere più informazioni sul sistema e sui dati disponibili per migliorare l'accuratezza del modello. Ad esempio, se ci sono eventuali pattern noti o proprietà delle sequenze che potrebbero essere sfruttate come caratteristiche aggiuntive. Comunque il problema che hai descritto è fattibile da affrontare utilizzando tecniche di deep learning, ma richiede una comprensione approfondita dei dati e delle architetture di rete neurale appropriate. Spero di essere stato un minimo di aiuto 🙏31
- Previsione tempi di lavorazioneIn Deep Learning22 febbraio 2024Buongiorno, anzitutto grazie per le risposte. Ho tentato le soluzioni proposte ma il risultato rimane comunque alto, sicuramente a causa della scarsa quantità di dati in mio possesso al momento (solo 300). L'idea di inserire i pezzi nel motore di ML è molto interessante, ma non saprei come inserirli in quanto non ho un tempo di produzione per ogni singolo articolo, ma solo dell'intero ordine. Il nostro processo è il seguente: Commessa (che contiene più ordini - tutti con lo stesso inizio) > Ordini (Inizi uguali per commessa - Fine diverse) > Articoli (Ciascuno inserito in una commessa ed appartenente ad un ordine). Vorrei creare una tabella contenente gli articoli (circa 10000) in cui sono presenti: • Orario di inizio (preso da Commessa) • Orario di fine (preso da ordine - uguale per tutti gli articoli del medesimo ordine) • Tutti i dati del singolo artcolo • Numero di commessa Però mi si pongono due problemi, ovvero: • Il numero di commessa dovrebbe essere un valore categoriale, ma trattandolo come un one_hot_encoded_data avrei 300 colonne in più e non credo siano funzionali • Posto che questo ragionamento funzioni, per fare una previsione corretta dovrei inserire nel motore di previsione tutti gli articoli che vorrei inserire in una commessa, ma come si fa a dare al motore più righe in contemporanea? Grazie a chi mi vorrà aiutare!14
- Previsione tempi di lavorazioneIn Deep Learning22 febbraio 2024Sarà che sto diventando vecchio e non ho più l'intuito che serve per capire bene il contesto del discorso, ma ci sono delle cose che non mi sono chiare: se l'obbiettivo è quello di calcolare i tempi di lavorazione in base ad un ordine, ci sono dei dati che servono alla elaborazione e dei dati "etichetta", che servono solo come riferimento. I dati che sono variabili nel processo di lavoro sono, se non ho capito male: Numero e tipologia dei fogli contestuali all'ordine, che avranno dimenzioni x e y standard (lamiere) e z (spessore) variabile in relazione ai pezzi da produrre per quell'ordine. Le componenti che costituiscono le variabili inerenti il lavoro quindi sono riferibili ad una classificazione dei pezzi in relazione allo spessore. Lo spessore determina la velocità di avanzamento dell'utensile. spessori diversi = velocità diverse. La lavorazione di un pezzo dipende dalla lunghezza del perimetro di taglio e dallo spessore della lamiera. quindi, il tempo impiegato per la lavorazione, dipende dal numero di pezzi classificati, per dimensioni e per tipologia. in altre parole: lamiere tipo 1 => velocità 1v lamiere tipo 2 => velocità 2v ... pezzi tipo P1A, P1B, P1C.... P1N.. pezzi diversificati per perimetro ma appartenenti alla classe delle lamiere tipo 1 pezzi tipk P2A, P2B, P2C ... pezzi diversificati per perimetro ma appartenenti alla classe delle lamiere tipo 2 ecc. il nesting si ottiene mediante un software CAM (Computer Aided Manufacturing, produzione assistita da computer) che crea strutture nidificate ("nest") e prepara le parti per il taglio. Il nesting è il processo che consente di posizionare in modo efficiente più forme in un'area di superficie specificata. Pertanto, la soluzione migliore è la creazione di strutture di nesting per raggruppare il maggior numero possibile di parti. Questo processo massimizza l'utilizzo, diminuisce gli sprechi e riduce al minimo i costi dei materiali, quindi se noi abbiamo il percorso di nesting per un ordine riferito alle lamiere, dovremmo avere anche il tempo netto di lavorazione della macchina. Sino a qui la mia analisi è valida?0
- Previsione tempi di lavorazioneIn Deep Learning22 febbraio 2024Buonasera Romeo, la sua analisi è corretta, tranne che per noi lo spessore è uno solo quindi i pezzi sono tutti all'interno delle lamiere tipo 1. Il nostro plasma fa il nesting, ma oltre al taglio ci sono molte altre lavorazioni successive che allungano i tempi di completamento dell'ordine. L'ideale sarebbe non calcolare le tempistiche non dalla commessa ma dal singolo ordine, ma non ho la minima idea di come creare un machine learning che "veda" l'ordine come un insieme di articoli, per questo ho cercato questa via. Grazie mille per il tempo che mi ha dedicato per questa risposta!0
- Regolamento Del ForumIn Benvenuto nel forum·5 ottobre 2020Ciao e benvenuto, ti porto qui le 17 Regole, le quali se non rispettate causeranno l'espulsione diretta dalla community : E’ vietato insultare e/o offendere altri utenti o scrivere messaggi che causino litigi e contrastino con il buon vivere civile. E’ vietato deridere, insultare e attaccare pubblicamente altri siti/community e/o aziende, i loro utenti e i loro servizi. È vietato inoltre discutere pubblicamente su esperienze con negozi online di qualunque genere. E’ vietato denigrare culture, razze, religioni, stili di vita, aziende e istituzioni. E’ vietato propagandare partiti politici, religiosi e antireligiosi. E’ vietato discutere di materiale protetto da copyright, keygen o crack per software commerciali. E’ vietato diffondere materiale contenente virus, malware, trojan e codice nocivo per la sicurezza e la privacy di terzi. E’ vietato pubblicare materiale informativo e/o software che possono causare danni economici ad aziende e/o privati. Ogni tipo di pubblicità è severamente vietato. Sono concessi link esterni per: citazione della fonte, link informativi, link a download diretti. E’ vietato vendere prodotti e servizi in cambio di valuta reale all’interno delle sezioni del forum. Sono concesse formule di collaborazione tramite retribuzione (es. cercasi webmaster, grafico, programmatore etc…). E’ vietato sviare l'argomento principale della discussione o scrivere messaggi insensati. E’ vietato pubblicare video e foto che non rientrino nelle regole del dominio pubblico E’ vietato pubblicare conversazioni private senza espressa autorizzazione delle due parti - censurate o meno. E’ vietato utilizzare la reputazione e il mi piace come merce di scambio. E’ vietato riaprire un topic chiuso da un moderatore senza aver adottato le precauzioni necessarie fornite nel motivo della chiusura. E’ vietato il multiposting/crossposting. È vietato far polemica pubblica sull’operato dello Staff. E’ assolutamente proibito violare le leggi dello Stato Italiano e della Comunità Europea. Grazie mille per la comprensione30114
bottom of page