top of page
Risultati Ricerca Intelligenza Artificiale Italia
Tipo
Categoria
108 elementi trovati per ""
- Da Xml a dataFrame di pandasIn Machine Learning20 dicembre 2020Perfetto grazie mille.😉🤗2
- Da Xml a dataFrame di pandasIn Machine Learning20 dicembre 2020Grazie per la segnalazione abbiamo risolto.2
- Esempio pratico Rilevamento Di Veicoli In Tempo Reale con il Deep Learning ( DL ) , Python e OpenCVIn Deep Learning1 novembre 2022Grazie! Siete dei GENI!!! 😍2
- GIn Machine Learning10 novembre 2022Ciao Fortunato😊 grazie mille per aver un post sul forum. Si esatto anche questa volta è un semplice errore di librerie. Ti basterà usate questa riga prima di tutte le altre, e una volta runnata dovrai fare il RESTART DELLA RUNTIME. !pip install basemap Però crediamo che su colab potrebbe darti altri problemi di compatibilità tra numpy e tensorflow. Domani ti inviamo il codice esclusivamente x colab 😊03
- Da Xml a dataFrame di pandasIn Machine Learning20 dicembre 2020Attenzione, in Firefox il codice esce tradotto in italiano....12
- GIn Machine Learning10 novembre 2022Infatti...0
- Cerco AiutoIn Deep Learning25 ottobre 2022Ciao Martina, grazie mille per quanto hai scritto. Vorrei allenare un modello BERT sul testo biblico (il Dataset ce l'ho) per poi chiedergli di completare delle frasi tratte da una parte di testo biblico sul quale non si è allenato. Vorrei poi analizzare le sue risposte tramite XAI (individuando risposte alternative sulla base di counterfactual explanation) per individuare dei pattern che mi aiuterebbero a comprendere il comportamento delle parole in base al contesto in cui si trovano. Vorrei poi rendere il tutto disponibile attraverso un'interfaccia web. Ho controllato non sembra esserci nulla sul testo biblico12
- ChatterbotIn Deep Learning12 agosto 2023In linea di massima non è cambiato molto, però, se si vuole sfruttare al meglio le possibilità di una chat-bot, non legato espressamente ad un LLM, a mio avviso, in questo momento, la miglior piattaforma per effettuare un salto di qalità in questo ambito è senza dubbio : https://github.com/cheshire-cat-ai Per un approfondimento su questo tema, consiglio inoltre un mio testo introduttivo, disponibile anche in formato digitale:12
- Cerco aiuto per iniziare un sistema espertoIn Machine Learning8 aprile 2022Ciao Romeo, sono riuscito a trovare alcuni sistemi esperti in python qui: https://github.com/topics/pyknow ed è esattamente quello che desideravo perchè posso sperimentare cambiamenti ed ottenere quello che mi aspettavo. Sono felice per questo. A presto con nuove notizie....(se non ti disturbo) Ezio01
- Da Xml a dataFrame di pandasIn Machine Learning20 dicembre 2020Risposta miglioreXML è un linguaggio di markup utilizzato per rappresentare e distribuire strutture di dati che possono essere spesso difficili da creare utilizzando formati tabulari più standard. Fondamentalmente, il formato XML è simile all'HTML (che è un altro linguaggio di markup, appunto), in quanto i dati sono organizzati in elementi, che definiscono il tipo di informazioni esposte, e ogni elemento contiene il valore effettivo sotto forma di contenuto o attributi. La pagina XML su Wikipedia offre una n visione completa di tutti i dettagli e aspetti tecnici di questo formato, ma i concetti chiave sono semplici. Ogni informazione è delimitata da un tag specifico, come questo: john@mail.com A 16 alice@mail.com B 17 bob@mail.com < / email> C 16 hannah@mail.com A 17 In questo esempio, ogni studente è rappresentato da un elemento, che ha un nameattributo contenente il nome di uno studente specifico. Ciascuno di questi elementi ha quindi sottoelementi definiti dai tag , e ; tra questi tag è presente il contenuto effettivo dei dati riferiti allo studente dato. Supponiamo che questi dati vengano salvati in un file XML chiamato "students.xml". Possiamo pensare a questa struttura come a un DataFrame panda in cui ogni studente rappresenta un'osservazione, con il suo nameattributo che è l'identificatore principale e i sottoelementi sono altre caratteristiche dell'osservazione. Una rappresentazione tabulare di questi dati sarebbe come questa: Quindi vogliamo trovare un modo per convertire i dati strutturati in XML in una tabella più funzionale. Data la struttura dei file XML, possiamo rappresentarli come un albero, e questo è l'approccio utilizzato dal modulo xml.etree.ElementTree Python. L'analisi del nostro file "students.xml" inizia dalla radice dell'albero, ovvero l' elemento, che contiene l'intera struttura dati. import xml.etree.ElementTree as et xtree = et.parse("students.xml") xroot = xtree.getroot() Ora possiamo iterare attraverso ogni nodo dell'albero, il che significa che otterremo ogni elemento studente e prenderemo il suo nameattributo e tutti i suoi sottoelementi per costruire il nostro dataframe. for node in xroot: s_name = node.attrib.get("name") s_mail = node.find("email").text s_grade = node.find("grade").text s_age = node.find("age").text Per ottenere l' nameattributo utilizziamo la attrib.get()funzione, mentre il contenuto testuale di ogni elemento può essere recuperato utilizzando la find()funzione dei nodi. Ogni iterazione restituirà un set di dati che può essere pensato come un'osservazione in un DataFrame panda; possiamo costruire questa procedura come segue: import pandas as pd import xml.etree.ElementTree as et xtree = et.parse("students.xml") xroot = xtree.getroot() df_cols = ["name", "email", "grade", "age"] rows = [] for node in xroot: s_name = node.attrib.get("name") s_mail = node.find("email").text if node is not None else None s_grade = node.find("grade").text if node is not None else None s_age = node.find("age").text if node is not None else None rows.append({"name": s_name, "email": s_mail, "grade": s_grade, "age": s_age}) out_df = pd.DataFrame(rows, columns = df_cols) Lo svantaggio di questo approccio è che devi conoscere in anticipo la struttura del file XML e devi codificare i nomi delle colonne di conseguenza. Possiamo provare a convertire questo codice in una funzione più utile e versatile, senza dover codificare alcun valore: import pandas as pd import xml.etree.ElementTree as et def parse_XML (xml_file, df_cols): "" "Analizza il file XML di input e memorizza il risultato in un DataFrame panda con le colonne indicate. Il primo elemento di df_cols dovrebbe essere la variabile identificatore , che è un attributo di ogni elemento del nodo nei dati XML; altre caratteristiche verranno analizzate dal contenuto di testo di ogni sottoelemento. "" " xtree = et.parse(xml_file) xroot = xtree.getroot() rows = [] for node in xroot: res = [] res.append(node.attrib.get(df_cols[0])) for el in df_cols[1:]: if node is not None and node.find(el) is not None: res.append(node.find(el).text) else: res.append(None) rows.append({df_cols[i]: res[i] for i, _ in enumerate(df_cols)}) out_df = pd.DataFrame(rows, columns=df_cols) return out_df Un pezzo di codice interessante è la comprensione dei dettami in: {df_cols [i]: res [i] for i, _ in enumerate (df_cols)} dove viene creato un dizionario nel nome della colonna del modulo: il valore del nodo e aggiunto all'elenco delle righe. Questi verranno infine utilizzati per creare il dataframe completo. Utilizziamo ora la funzione parse_XML("students.xml", ["name", "email", "grade", "age"]) Questa è un'implementazione più efficiente della funzione di analisi XML, sebbene abbiamo ancora bisogno di conoscere la struttura di base del documento XML di input che vogliamo analizzare. Grazie per aver fatto qui la tua domanda, fammi sapere se funziona.11
- Deep learnign e python : Object Recognition e Object Predict esempio pratico in 13 righe di codiceIn Machine Learning31 ottobre 2022Eccoci qui 🤗 Non preoccuparti fai benissimo a fare queste domande, ci teniamo molto a fornire solo materiale di qualità e funzionante. Allora è stato molto complesso trovare tutte le dipendenze precise ma ce l'abbiamo fatta. Copia e incolla queste righe al posto delle celle prima di "from imageai.Detection import ObjectDetection" !pip install tensorflow==2.4.0 !pip install keras==2.4.3 numpy==1.19.3 pillow==7.0.0 scipy==1.4.1 h5py==2.10.0 matplotlib==3.3.2 opencv-python keras-resnet==0.2.0 !pip install imageai --upgrade il risultato finale dovrà essere questo : Facci sapere se il problema è risolto 😉01
- GIn Machine Learning11 novembre 2022Allora ecco il codice completo per colab : !pip install basemap e poi import numpy as np import pandas as pd import matplotlib.pyplot as plt import datetime import time from mpl_toolkits.basemap import Basemap from keras.models import Sequential from keras.layers import Dense from keras.wrappers.scikit_learn import KerasClassifier import tensorflow as tf from sklearn.model_selection import GridSearchCV #read data data = pd.read_csv("/content/Dataset_Terremoti.csv") data = data[['Date', 'Time', 'Latitude', 'Longitude', 'Depth', 'Magnitude']] data.head() #preprocessing dati timestamp = [] for d, t in zip(data['Date'], data['Time']): try: ts = datetime.datetime.strptime(d+' '+t, '%m/%d/%Y %H:%M:%S') timestamp.append(time.mktime(ts.timetuple())) except ValueError: # print('ValueError') timestamp.append('ValueError') timeStamp = pd.Series(timestamp) data['Timestamp'] = timeStamp.values final_data = data.drop(['Date', 'Time'], axis=1) final_data = final_data[final_data.Timestamp != 'ValueError'] final_data.head() #display data m = Basemap(projection='mill',llcrnrlat=-80,urcrnrlat=80, llcrnrlon=-180,urcrnrlon=180,lat_ts=20,resolution='c') longitudes = data["Longitude"].tolist() latitudes = data["Latitude"].tolist() #m = Basemap(width=12000000,height=9000000,projection='lcc', #resolution=None,lat_1=80.,lat_2=55,lat_0=80,lon_0=-107.) x,y = m(longitudes,latitudes) fig = plt.figure(figsize=(12,10)) plt.title("All affected areas") m.plot(x, y, "o", markersize = 2, color = 'blue') m.drawcoastlines() m.fillcontinents(color='coral',lake_color='aqua') m.drawmapboundary() m.drawcountries() plt.show() #train and test data X = final_data[['Timestamp', 'Latitude', 'Longitude']] y = final_data[['Magnitude', 'Depth']] from sklearn.model_selection import train_test_split X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) print(X_train.shape, X_test.shape, y_train.shape, X_test.shape) from keras.models import Sequential from keras.layers import Dense def create_model(neurons, activation, optimizer, loss): model = Sequential() model.add(Dense(neurons, activation=activation, input_shape=(3,))) model.add(Dense(neurons, activation=activation)) model.add(Dense(2, activation='softmax')) model.compile(optimizer=optimizer, loss=loss, metrics=['accuracy']) return model #find best parameters model = KerasClassifier(build_fn=create_model, verbose=0) #neurons = [16, 64, 128, 256] neurons = [16] #batch_size = [10, 20, 50, 100] batch_size = [10] epochs = [10] # activation = ['relu', 'tanh', 'sigmoid', 'hard_sigmoid', 'linear', 'exponential'] activation = ['sigmoid', 'relu'] # optimizer = ['SGD', 'RMSprop', 'Adagrad', 'Adadelta', 'Adam', 'Adamax', 'Nadam'] optimizer = ['SGD', 'Adadelta'] loss = ['squared_hinge'] param_grid = dict(neurons=neurons, batch_size=batch_size, epochs=epochs, activation=activation, optimizer=optimizer, loss=loss) #GridSearchCV grid = GridSearchCV(estimator=model, param_grid=param_grid, n_jobs=-1, cv=3) #convert from Numpy array to tensor X_train = X_train.values.astype('float32') y_train = y_train.values.astype('float32') X_test = X_test.values.astype('float32') y_test = y_test.values.astype('float32') grid_result = grid.fit(X_train, y_train) #sequential model model = Sequential() model.add(Dense(16, activation='relu', input_shape=(3,))) model.add(Dense(16, activation='relu')) model.add(Dense(2, activation='softmax')) model.compile(optimizer='SGD', loss='squared_hinge', metrics=['accuracy']) model.fit(X_train, y_train, epochs=10, batch_size=10, verbose=1) #test score = model.evaluate(X_test, y_test, batch_size=10) print(score) FACCI SAPERE SE FUNZIONA :)0
- Cerco aiuto per iniziare un sistema espertoIn Machine Learning16 aprile 2022Ciao Romeo, sono nuovamente a chiederti un aiuto. Ho fatto alcuni esperimenti su un sistema esperto medico aggiungendo una malattia con relativi sintomi ma purtroppo mi da sempre errore che non riesco a capire. Ho semplicemente aggiunto una regola e la relativa nuova malattia. Ti allego il dettaglio dell'errore. Purtroppo non riesco a caricare i due script python. Chiedo scusa ma non riesco a venirne a capo. Grazie01
- Esempio pratico Rilevamento Di Veicoli In Tempo Reale con il Deep Learning ( DL ) , Python e OpenCVIn Deep Learning1 novembre 2022Eccoci 🤗 Allora se usi google colab prova questo codice : #solo per google colab from google.colab.patches import cv2_imshow import cv2 cars_cascade = cv2.CascadeClassifier('haarcascade_car.xml') def detect_cars(frame): cars = cars_cascade.detectMultiScale(frame, 1.15, 4) for (x, y, w, h) in cars: cv2.rectangle(frame, (x, y), (x+w,y+h), color=(0, 255, 0), thickness=2) return frame def Simulator(): CarVideo = cv2.VideoCapture('cars.mp4') while CarVideo.isOpened(): ret, frame = CarVideo.read() controlkey = cv2.waitKey(1) if ret: cars_frame = detect_cars(frame) #se stai programmando in locale #cv2.imshow('frame', cars_frame) #se usi colab cv2_imshow(cars_frame) else: break if controlkey == ord('q'): break CarVideo.release() cv2.destroyAllWindows() Simulator() Facci sapere se così funziona 😊11
- Cerco AiutoIn Deep Learning25 ottobre 2022Bhe si in effetti trovare un modello allenato su testi biblici è un po difficile, però hugging face ti permette di allenare i modelli con i tuoi dati Come puoi vedere in alto a destra trovi un bottoncino TRAIN per ogni modello esistente. Segui questa guida fatto molto bene , che mi ha aiutato ad allenare il mio primo modello tramite hugging face. -> https://huggingface.co/blog/how-to-train0
bottom of page