top of page

Risultati Ricerca Intelligenza Artificiale Italia

452 risultati trovati per "intelligenza-artificlae"

  • Cos'è un data warehouse ?

    Pertanto, DW fungerà da motore di back-end per gli strumenti di Business Intelligence che mostrano report di data warehouse è operativo, un'azienda ottiene i seguenti vantaggi: Miglioramento della business intelligence Molteplici fonti di business intelligence Accesso ai dati in tempo reale Intelligenza del passato Eccezionale (BI) , come applicarla alla tua impresa Esempi di Dashboard Power BI I Migliori Libri Sull’ Intelligenza Artificiale in Italiano da Leggere 2022 Big Data, Data Science e Machine Learning i Migliori Libri per

  • Strumenti e Tool Di Visualizzazione Dati usati nella Data Science

    I Big Data e l'accesso sempre crescente che abbiamo a più informazioni sono la forza trainante dell'intelligenza artificiale e l'ondata di cambiamento tecnologico che sta investendo tutti i settori. set di dati in rapida evoluzione utilizzati nelle operazioni di Big Data, comprese le applicazioni di intelligenza artificiale e di apprendimento automatico, grazie all'integrazione con un gran numero di soluzioni di funzionalità di visualizzazione e esplorazione dei dati, Qlik offre potenti funzionalità di business intelligence

  • Come funziona il Deep Learning o Apprendimento Profondo ?

    Nella disciplina dell'intelligenza artificiale (AI) nota come deep learning, lo stesso si può dire per le macchine alimentate da hardware e software di intelligenza artificiale. La portata e la portata di queste sfide richiedono un nuovo livello di intelligenza reso possibile dal visive catturate da quegli occhi sta portando a un'esplosione di applicazioni di intelligenza artificiale scikit-learn Corso Gratis su Python e Machine Learning Scikit Learn e Python Tutorial Per Creare Modelli di Intelligenza

  • Cos'è il Machine Learning in 3 minuti! Spiegato in modo semplice

    Una sotto area dell'Intelligenza Artificiale , ed è definito come la capacità di una macchina di imitare il modo umano intelligente di apprendere dai dati. ( Noi utilizziamo il cervello biologico, le macchine

  • Previsioni meteo con python e machine learning

    Nella Data Science , le previsioni meteorologiche sono un'applicazione del machine learning sulle serie temporali dove utilizziamo dati temporali e algoritmi per fare previsioni per un determinato periodo di tempo. Se vuoi imparare a prevedere il tempo usando le tue competenze di Data Science, questo articolo è per te. Ti guiderò attraverso nelle previsione metereologiche usando Python e un algoritmo di Machine learning. Previsioni meteo con python e machine learning La previsione meteorologica è il compito di prevedere le condizioni meteorologiche per una data posizione e ora. Con l'uso di dati meteorologici e algoritmi, è possibile prevedere le condizioni meteorologiche per il numero di n giorni successivo. Per la previsione del tempo utilizzando Python, abbiamo bisogno di un set di dati contenente dati meteorologici storici basati su una posizione particolare. Ho trovato un set di dati su Kaggle basato sui dati meteorologici giornalieri. Possiamo utilizzare questo set di dati per il compito di previsioni meteorologiche. È possibile scaricare il set di dati da qui sotto oppure nella sezione Dataset cercando "DatiTemperatura.csv" Nella sezione seguente imparerai come analizzare e prevedere il tempo usando Python. Ora iniziamo questa attività importando le librerie Python necessarie e il set di dati di cui abbiamo bisogno: import pandas as pd import numpy as np import matplotlib.pyplot as plt import seaborn as sns import plotly.express as px data = pd.read_csv("DatiTemperatura.csv") print(data.head()) Output: date meantemp humidity wind_speed meanpressure 0 2013-01-01 10.000000 84.500000 0.000000 1015.666667 1 2013-01-02 7.400000 92.000000 2.980000 1017.800000 2 2013-01-03 7.166667 87.000000 4.633333 1018.666667 3 2013-01-04 8.666667 71.333333 1.233333 1017.166667 4 2013-01-05 6.000000 86.833333 3.700000 1016.500000 Diamo un'occhiata alle statistiche descrittive di questi dati prima di andare avanti: print(data.describe()) Output: meantemp humidity wind_speed meanpressure count 1462.000000 1462.000000 1462.000000 1462.000000 mean 25.495521 60.771702 6.802209 1011.104548 std 7.348103 16.769652 4.561602 180.231668 min 6.000000 13.428571 0.000000 -3.041667 25% 18.857143 50.375000 3.475000 1001.580357 50% 27.714286 62.625000 6.221667 1008.563492 75% 31.305804 72.218750 9.238235 1014.944901 max 38.714286 100.000000 42.220000 7679.333333 Ora diamo un'occhiata alle informazioni su tutte le colonne nel set di dati: print(data.info()) Output: RangeIndex: 1462 entries, 0 to 1461 Data columns (total 5 columns): # Column Non-Null Count Dtype --- ------ -------------- ----- 0 date 1462 non-null object 1 meantemp 1462 non-null float64 2 humidity 1462 non-null float64 3 wind_speed 1462 non-null float64 4 meanpressure 1462 non-null float64 dtypes: float64(4), object(1) memory usage: 57.2+ KB La colonna della data in questo set di dati non ha un tipo di dati datetime. Lo cambieremo quando richiesto. Diamo un'occhiata alla temperatura media nel corso degli anni: figure = px.line(data, x="date", y="meantemp", title='Mean Temperature Over the Years') figure.show() Output: Ora diamo un'occhiata all'umidità nel corso degli anni: figure = px.line(data, x="date", y="humidity", title='Humidity Over the Years') figure.show() Output: Ora diamo un'occhiata alla velocità del vento nel corso degli anni: figure = px.line(data, x="date", y="wind_speed", title='Wind Speed Over the Years') figure.show() Output: Fino al 2015, la velocità del vento era maggiore durante agosto, settembre, dicembre e gennaio. Dopo il 2015 non si sono verificate anomalie nella velocità del vento durante agosto, settembre, dicembre e gennaio. Ora diamo un'occhiata al rapporto tra temperatura e umidità: figure = px.scatter(data_frame = data, x="humidity", y="meantemp", size="meantemp", trendline="ols", title = "Relationship Between Temperature and Humidity") figure.show() Output: C'è una correlazione negativa tra temperatura e umidità. Significa che una temperatura più alta comporta una bassa umidità e una temperatura più bassa comporta un'umidità elevata. Analisi del cambiamento di temperatura con Python Ora analizziamo il cambiamento di temperatura nel corso degli anni. Per questa attività, convertirò prima il tipo di dati della colonna della data in datetime. Quindi aggiungerò due nuove colonne nel set di dati per i valori di anno e mese. Ecco come possiamo modificare il tipo di dati ed estrarre i dati di anno e mese dalla colonna della data: data["date"] = pd.to_datetime(data["date"], format = '%Y-%m-%d') data['year'] = data['date'].dt.year data["month"] = data["date"].dt.month print(data.head()) Output: date meantemp humidity wind_speed meanpressure year month 0 2013-01-01 10.000000 84.500000 0.000000 1015.666667 2013 1 1 2013-01-02 7.400000 92.000000 2.980000 1017.800000 2013 1 2 2013-01-03 7.166667 87.000000 4.633333 1018.666667 2013 1 3 2013-01-04 8.666667 71.333333 1.233333 1017.166667 2013 1 4 2013-01-05 6.000000 86.833333 3.700000 1016.500000 2013 1 Ora diamo un'occhiata al cambiamento di temperatura nel corso degli anni: plt.style.use('fivethirtyeight') plt.figure(figsize=(15, 10)) plt.title("Temperature Change Over the Years") sns.lineplot(data = data, x='month', y='meantemp', hue='year') plt.show() Output: Sebbene il 2017 non sia stato l'anno più caldo dell'estate, possiamo vedere un aumento della temperatura media ogni anno. Previsioni meteo con Python Passiamo ora al compito delle previsioni del tempo. Userò il modello del profeta di Facebook per questo compito. Il modello del profeta di Facebook è una delle migliori tecniche per la previsione delle serie temporali. Se non hai mai utilizzato questo modello prima, puoi installarlo sul tuo sistema utilizzando il comando menzionato di seguito nel prompt dei comandi o nel terminale: pip install prophet Il modello prophet accetta dati temporali denominati "ds" ed etichettati come "y". Quindi convertiamo i dati in questo formato: forecast_data = data.rename(columns = {"date": "ds", "meantemp": "y"}) print(forecast_data) Output: ds y humidity wind_speed meanpressure year month 0 2013-01-01 10.000000 84.500000 0.000000 1015.666667 2013 1 1 2013-01-02 7.400000 92.000000 2.980000 1017.800000 2013 1 2 2013-01-03 7.166667 87.000000 4.633333 1018.666667 2013 1 3 2013-01-04 8.666667 71.333333 1.233333 1017.166667 2013 1 4 2013-01-05 6.000000 86.833333 3.700000 1016.500000 2013 1 ... ... ... ... ... ... ... 1457 2016-12-28 17.217391 68.043478 3.547826 1015.565217 2016 12 1458 2016-12-29 15.238095 87.857143 6.000000 1016.904762 2016 12 1459 2016-12-30 14.095238 89.666667 6.266667 1017.904762 2016 12 1460 2016-12-31 15.052632 87.000000 7.325000 1016.100000 2016 12 1461 2017-01-01 10.000000 100.000000 0.000000 1016.000000 2017 1 [1462 rows x 7 columns] Di seguito è riportato come possiamo utilizzare il modello del profeta di Facebook per le previsioni del tempo utilizzando Python: from prophet import Prophet from prophet.plot import plot_plotly, plot_components_plotly model = Prophet() model.fit(forecast_data) forecasts = model.make_future_dataframe(periods=365) predictions = model.predict(forecasts) plot_plotly(model, predictions) Output: E' così che puoi analizzare e prevedere il meteo usando Python. Riepilogo sulle Previsioni meteo con python e machine learning La previsione meteo è il compito di prevedere le condizioni meteorologiche per una data posizione e ora. Con l'uso di dati meteorologici e algoritmi, è possibile prevedere le condizioni meteorologiche per il numero di n giorni successivi. Spero che questo articolo sull'analisi e le previsioni meteorologiche utilizzando Python ti sia piaciuto. Sentiti libero di porre domande nella sezione commenti qui sotto.

  • BrainControl lancia SMART, per una riabilitazione e una diagnostica personalizzata

    BrainControl, marchio senese di dispositivi medici basati sull’Intelligenza Artificiale, amplia la propria

  • Creare Chatbot Efficaci con l'IA: La Guida Definitiva

    È qui che entrano in gioco i chatbot alimentati dall'intelligenza artificiale. progettazione dell'esperienza utente e, ovviamente, una solida conoscenza delle ultime tecnologie di intelligenza artificiale. Ottimizzazione Prestazionale Tecniche di Machine Learning e Intelligenza Artificiale Nel contesto dell'ottimizzazione prestazionale dei chatbot, l'utilizzo di tecniche avanzate di Machine Learning e Intelligenza Artificiale

  • Come usare l’IA per imparare nuove lingue in modo facile e divertente

    La risposta potrebbe essere l’intelligenza artificiale (IA). L’IA è la capacità delle macchine di svolgere compiti che normalmente richiedono intelligenza umana, MosaChat-AI: MosaChat-AI è il nostro tutor linguistico con intelligenza artificiale, che ti aiuta a imparare

  • Quanto guadagna un data scientist in Italia ?

    Lo scopo di questo articolo è mostrare lo stipendio medio di un data scientist in Italia e quanto questa cifra sia cambiata negli ultimi anni. Introduzione su Quanto guadagna un data scientist in Italia Il termine “data scientist” è un termine molto generico e molto impreciso. La definizione di data scientist si sta evolvendo e ci sono diversi approcci a questo concetto. In questo articolo, il data scientist sarà definito come una persona che si occupa di dati, ha un background informatico ed è in grado di utilizzare strumenti statistici per estrarre informazioni dai dati. Lo stipendio medio di un data scientist è un argomento molto importante. In Italia, lo stipendio medio di un data scientist è cresciuto molto velocemente negli ultimi anni. Il primo problema è che è molto difficile conoscere lo stipendio medio di un data scientist perché non esiste un database di tutti i data scientist con i loro relativi stipendi. E molte aziende non vogliono rivelare quanto pguadagano i loro data scientist L'unica fonte di dati sullo stipendio dei data scientist in Italia è l'indagine sugli stipendi dell'Istituto italiano di statistica (ISTAT). L'Indagine salariale ISTAT raccoglie gli stipendi di circa 600000 persone che lavorano in Italia. L'indagine salariale suddivide gli stipendi dei lavoratori in 10 diverse categorie, dalla più bassa alla più alta. Nel sondaggio, un data scientist potrebbe essere classificato nella 6° categoria, che comprende gli stipendi compresi tra 18000 e 43000 euro. Il sondaggio mostra che lo stipendio di un data scientist in Italia è aumentato negli ultimi 10 anni del 22%. Chi è il data scientist? I data scientist sono persone che hanno un background informatico e sono in grado di utilizzare strumenti statistici per estrarre informazioni dai dati. Il lavoro di un data scientist non è un singolo compito, ma un insieme di compiti diversi. Il primo compito di un data scientist è raccogliere dati. Il data scientist raccoglie i dati da molte fonti diverse. Il data scientist deve verificare la qualità dei dati. Il secondo compito di un data scientist è pulire i dati. Il data scientist deve verificare la qualità dei dati, rimuovere i valori anomali, correggere gli errori, controllare la coerenza dei dati e assicurarsi che tutti i dati siano nello stesso formato. Il terzo compito di un data scientist è organizzare i dati. Il data scientist deve organizzare i dati in modo che possano essere utilizzati da strumenti statistici. Il quarto compito di un data scientist è esplorare i dati. Il data scientist deve esplorare i dati e utilizzare strumenti statistici per estrarre informazioni dai dati. Il quinto compito di un data scientist è analizzare i dati. Il data scientist deve analizzare i dati ed estrarre informazioni dai dati significanti per lo sviluppo di modelli e previsioni. Il sesto compito di un data scientist è creare uno o più modelli per tentare di fare previsioni o cercare correlazioni. Il settimo compito di un data scientist è comunicare i risultati. Il data scientist deve comunicare i risultati al cliente e spiegarli alle persone che utilizzeranno i dati. L'ottavo compito di un data scientist è gestire il progetto. Il data scientist deve gestire il progetto e gestire le persone coinvolte nel progetto. Quanto guadagna un data scientist in Italia? Lo stipendio medio di un data scientist in Italia è di circa 35000 euro all'anno. Ma questo può variare molto in base agli anni di esperienza, titoli di studi e dimensioni dell'azienda. Lo stipendio medio di un data scientist è cresciuto negli ultimi 10 anni del 22%. Se andiamo però a vedere ricerche su campioni più piccoli, notiamo che attualmente un data scientist in Italia guadagna di media : Quindi ricapitolando , in Italia non ci sono dati ufficiali sullo stipendio medio dei data scientist, ma ci sono molti studi che lo stimano. In particolare, nel 2022, lo stipendio dei data scientist in Italia è stato stimato intorno ai 35.000 euro. I data scientist sono solitamente assunti nel settore IT, che è un settore importante in Italia. Tuttavia, non sono assunti solo in questo settore. I data scientist sono assunti in tutti i settori, dalla pubblica amministrazione alle aziende private, dagli ospedali alle università. Quanto guadagna un senior data scientist in Italia? Lo stipendio medio per un data scientist in Italia è di € 35.000 all'anno o € 17,95 all'ora. Lo stipendio annuo per le posizioni junior data scientist è di € 32.250, mentre i dipendenti senior data scientist possono guadagnare fino a € 70.500. Quanto guadagna un data scientist fuori dall'Italia? "Negli Stati Uniti, lo stipendio medio per i data scientist è di 43.400 dollari, mentre lo stipendio medio per un ingegnere informatico è di 38.000 dollari". "In India, lo stipendio medio per i data scientist è di 11.000 dollari, mentre lo stipendio medio per un ingegnere informatico è di 9.800 dollari". "In Cina, lo stipendio medio per i data scientist è di 2.800 dollari, mentre lo stipendio medio per un ingegnere informatico è di 2.500 dollari". "In Germania, lo stipendio medio per i data scientist è di 28.800 euro, mentre lo stipendio medio per un ingegnere informatico è di 25.500 euro". "In Francia, lo stipendio medio per i data scientist è di 33.000 euro, mentre lo stipendio medio per un ingegnere informatico è di 30.000 euro". "In Spagna, lo stipendio medio per i data scientist è di 29.200 euro, mentre lo stipendio medio per un ingegnere informatico è di 25.500 euro". "In Giappone, lo stipendio medio per i data scientist è di 45.500 euro, mentre lo stipendio medio per un ingegnere informatico è di 35.000 euro". "In Brasile, lo stipendio medio per i data scientist è di 19.000 dollari, mentre lo stipendio medio per un ingegnere informatico è di 17.000 dollari". "In Corea del Sud, lo stipendio medio per i data scientist è di 26.500 dollari, mentre lo stipendio medio per un ingegnere informatico è di 24.500 dollari". "In Australia, lo stipendio medio per i data scientist è di 51.000 dollari, mentre lo stipendio medio per un ingegnere informatico è di 45.000 dollari".

  • Deep Learning Definizioni Chiave

    si adatta al lavoro su problemi molto complessi come "risolvere la pace nel mondo" Deep learning e intelligenza artificiale non sono sinonimi Il deep learning può fornire moltissimo alla scienza dei dati sotto forma Reti neurali artificiali L'architettura dell'apprendimento automatico è stata originariamente ispirata In realtà, le sole reti neurali artificiali (ANN) (la varietà non profonda) esistono da molto tempo e per creare modelli di deep learning Le Differenze tra Machine Learning (ML) e Deep Learning (DL) e Intelligenza

  • Come costruire il tuo portfolio da data scientist

    Prerequisiti : Se non sai cosa è un datas cientist, clicca qui Se non sai come diventare data scientist freelance , clicca qui Se non conosci le librerie più usate nella data science, clicca qui Se non sai come diventare Data Scientist, clicca qui Completa piccoli progetti mirati e dimostra le tue abilità Un portfolio viene in genere utilizzato da web designer e architetti per mostrare esempi di lavori precedenti a potenziali clienti e datori di lavoro. Design, arte e fotografia sono esempi in cui il prodotto del lavoro è creativo ed empirico, dove dire a qualcuno che puoi farlo non ha lo stesso valore di mostrarlo. In questo post, ti convincerò che la creazione di un portfolio di machine learning ha valore per te, per gli altri e per la community. Scoprirai cos'è esattamente un portfolio di machine learning , i tipi di progetti che possono essere inclusi e come fare in modo che il tuo portfolio funzioni davvero per te. Noi del Team di I.A. Italia vogliamo sottolineare quanto sia importante avere una bacheca progetti, da inserire anche nel curriculum, quindi segui attentamente la guida. Vantaggi dell'avere portfolio di Data Science o Machine Learning Se hai appena iniziato come principiante nell'apprendimento automatico o sei un veterano incallito, un portfolio di apprendimento automatico può tenerti in carreggiata e dimostrare le tue abilità. La creazione di un portfolio di machine learning è un esercizio prezioso per te e per gli altri. Portfolio di Data Science : Vantaggi per te La creazione di una raccolta di progetti di apprendimento automatico completati può mantenerti concentrato, motivato e sfruttare i progetti futuri. Focus : ogni progetto ha uno scopo e un punto finale ben definiti. I piccoli progetti limitati negli sforzi e nelle risorse possono mantenere alta la velocità. Base di conoscenza : il corpus di progetti completati fornisce una base di conoscenza su cui riflettere e sfruttare mentre si spinge in progetti più lontani dalle zone di comfort. Traiettoria : ci sono così tante cose brillanti su cui indagare, ricordando a te stesso che stai cercando una raccolta coerente, i progetti possono essere usati come leva per tenerti in carreggiata. Portfolio di Data Science : Vantaggi per gli altri Un portafoglio di progetti completati può essere utilizzato da altri come indicatore di abilità specifiche, capacità di comunicare e dimostrazione di impulso. Competenze : un progetto può dimostrare le tue capacità in relazione a un dominio specifico del problema, uno strumento, uno stack tecnologico di libreria o un algoritmo. Comunicazione : un progetto deve essere compreso almeno in termini di scopo e risultati. La cura di un buon portfolio richiede ottime capacità comunicative che dimostrino tautologicamente la tua capacità di comunicare bene argomenti tecnici. Motivazione : lavorare e completare progetti collaterali, indipendentemente dalle dimensioni dell'ambito, richiede un certo livello di autodisciplina. Il fatto che tu sia riuscito a mettere insieme un portfolio è un monumento al tuo interesse per l'argomento e alla capacità di gestire il tuo tempo. Portfolio di Data Science : Vantaggi per la Comunità La condivisione dei tuoi progetti in pubblico estende i vantaggi alla più ampia comunità di machine learning. Coinvolgimento : un progetto pubblico può ottenere feedback da terze parti che possono fornire estensioni e miglioramenti da cui sia tu che la comunità stessa potete imparare. Punto di partenza : un progetto di portfolio pubblico può fornire il punto di partenza da cui gli altri possono imparare e costruire, magari per il loro piccolo progetto o qualcosa di serio. Caso di studio : un progetto pubblico può fornire un punto di studio forse per un comportamento di un algoritmo unico o interessante o per la scomposizione di un problema, la vera fonte di innovazione. Spero di averti convinto che la creazione di un portfolio di machine learning ha alcuni vantaggi che ti interessano. Successivamente, esamineremo cos'è esattamente un portfolio di machine learning. Come creare un portfolio di Data science o machine learning Un portfolio di data science è una raccolta di progetti indipendenti completati, ognuno dei quali utilizza in qualche modo l'apprendimento automatico. Il folio presenta la raccolta di progetti e consente la revisione dei singoli progetti. Cinque proprietà di un efficace portfolio di machine learning includono: Accessibile : sostengo di rendere pubblico il portfolio sotto forma di una pagina Web pubblicamente accessibile o di una raccolta di repository di codice pubblico. Vuoi che le persone trovino, leggano, commentino e utilizzino il tuo lavoro, se possibile. Piccolo : ogni progetto dovrebbe avere una portata ridotta in termini di impegno, risorse e, soprattutto, tempo (10-20 ore). Sei impegnato ed è difficile mantenere la concentrazione. Vedi la mia metodologia per i piccoli progetti. Completato : i piccoli progetti ti aiutano ad avere progetti finiti. Stabilisci un obiettivo di progetto modesto e raggiungilo. Come i mini-esperimenti, presenti i risultati dei tuoi successi e dei tuoi fallimenti, sono tutti insegnamenti utili. Indipendente : ogni progetto dovrebbe essere indipendente in modo che possa essere compreso isolatamente. Questo non significa che non puoi sfruttare il lavoro precedente, significa che il progetto ha senso da solo come pezzo di lavoro autonomo. Comprensibile : ogni progetto deve comunicare in modo chiaro ed efficace il suo scopo e i suoi risultati (almeno). Dedica un po' di tempo e assicurati che un nuovo paio di occhi capisca cosa hai fatto e perché è importante. Quattro tipi di idee per piccoli progetti che potrebbero ispirarti includono: Esaminare una proprietà di uno strumento di apprendimento automatico o di una libreria. Indagare il comportamento di un algoritmo di apprendimento automatico. Indagare e caratterizzare un set di dati o un problema di apprendimento automatico. Implementa un algoritmo di apprendimento automatico nel tuo linguaggio di programmazione preferito. Alcune idee per progetti che probabilmente non pensavi fossero pezzi di portfolio includono: Lavori del corso : la presentazione chiara degli appunti e dei compiti per un corso relativo all'apprendimento automatico (come un MOOC). Revisione del libro : la presentazione chiara degli appunti dalla lettura e dalla revisione di un libro di apprendimento automatico. Revisione del software : la tua presentazione chiara ed esempi funzionanti per l'utilizzo di uno strumento o una libreria software relativi all'apprendimento automatico. Partecipazione alla competizione : vengono presentati chiaramente note e risultati per la partecipazione a una competizione di apprendimento automatico, come Kaggle . Commento : un saggio in risposta a un post sul blog a tema di apprendimento automatico o la tua risposta dettagliata a una domanda relativa all'apprendimento automatico su un sito di domande e risposte come Quora o sul nostro forum Ora che sai cos'è un portfolio di machine learning e hai alcune idee sui progetti, diamo un'occhiata a come dare vita a cose straordinarie nel tuo portfolio. Come Rendere fantastico il tuo portfolio da datascientist Per far brillare il tuo portfolio, devi fare un po' di marketing leggero. Non preoccuparti, non è niente di viscido, è solo il buon vecchio stile che passa la voce. portafolio Data science : Utilizza un Archivio per il del codice Prendi in considerazione l'utilizzo di un repository di codice sorgente pubblico come GitHub o BitBucket che elenca naturalmente i tuoi progetti pubblici. Questi siti ti incoraggiano a fornire un file readme nella radice di ogni progetto che descriva di cosa tratta il progetto. Utilizzare questa funzione per descrivere chiaramente lo scopo e i risultati di ciascun progetto. Non aver paura di includere immagini, grafici, video e link. Fornire istruzioni univoche per scaricare il progetto e ricreare i risultati (se sono coinvolti codice o sperimentazione). Vuoi che le persone eseguano nuovamente il tuo lavoro, lo rendano il più semplice possibile (cioè digita questo per scaricare, quindi digita questo per compilarlo ed eseguirlo). portafolio Data science : Progetti curati Puoi mettere insieme qualsiasi vecchio progetto su GitHub, ma includere solo il tuo lavoro migliore, più chiaro e interessante nel tuo portfolio di machine learning. Cura i tuoi progetti come una galleria. Scegli quelli che dimostrano al meglio le tue capacità, interessi e capacità. Mostra quello che sai fare e quello che hai fatto. Queste idee di autopromozione possono alimentare i progetti che potresti voler affrontare. Sii chiaro nella tua visione, dove vuoi essere e quali progetti vuoi affrontare che ti aiuteranno ad arrivarci. portafolio Data science : Risultati presenti Dedica molto tempo a scrivere i risultati. Spiega come si relazionano con gli obiettivi del progetto. Spiega l'impatto che hanno o potrebbero avere nel dominio. Elenca le opportunità per le estensioni che vorresti o potresti esplorare se avessi un altro mese o un anno per approfondire il progetto. Crea tabelle, grafici e qualsiasi altra bella immagine che ti aiuti a raccontare la tua storia. Scrivi le tue scoperte come un post sul blog. Per i punti bonus, crea un breve cast dello schermo che mostra come hai ottenuto i risultati e una piccola presentazione in power point per cosa significa, pubblicalo su YouTube. Questo video può essere incorporato nel tuo post sul blog e collegato al file readme del repository del tuo progetto. A seconda dei risultati che hai e di quanto sono importanti per te (come fare bene in una competizione Kaggle), puoi considerare di creare un rapporto tecnico e caricarlo su scribd e caricare le tue diapositive su SlideShare. portafolio Data science : Promuovi il tuo lavoro Puoi condividere i dettagli di ogni progetto mentre lo finisci. Potresti completarne uno a settimana a seconda del numero di ore libere che puoi trovare per studio e/o lavoro. La condivisione di link sui social media è un buon inizio, come twitter, facebook e Google+. Ti esorto ad aggiungere ogni progetto (o solo i tuoi migliori progetti) come " progetti " su LinkedIn. Esempi di Portfolio da data scientist Che tu sia un analista di dati appena qualificato o un esperto di dati, avrai bisogno di un portafoglio che si apre. Sebbene i portafogli di analisi dei dati tradizionalmente mettano in risalto il tuo lavoro, devono anche mostrare la tua personalità, le tue capacità comunicative e il tuo marchio personale. Abbiamo per questo raccolto quelli che secondo noi sono i migliori portfolio di vari Data Scientist : Claudia ten Hoope Harrison Jansma Naledi Hollbruegge Tim Hopper Ger Inberg James Le Yan Holtz Anubhav Gupta Jessie-Raye Bauer Ti basterà cercarli su google per vedere sempre il loro portfolio aggiornato Il futuro dei Data scientist freelance L'idea di un portfolio di codici non è nuova, è stata inserita in GitHub. Ciò che è interessante è che nelle recenti interviste con data scientist e manager , vengono richiesti portfolio anche desiderati insieme alla partecipazione a concorsi di machine learning e al completamento della formazione online. Come il codice di esempio nelle interviste di programmazione, i portafogli di Machine Learning stanno diventando una parte seria delle assunzioni. Cerca esempi di portfolio di apprendimento automatico validi (o almeno compilati). Cerca persone che ottengono buoni risultati nelle competizioni di apprendimento automatico, in genere hanno una straordinaria raccolta di progetti descritti sui loro blog e nei loro repository di codice pubblici. Cerca collaboratori per progetti di apprendimento automatico open source, possono avere tutorial, applicazioni ed estensioni straordinarie per il software sui loro blog e repository di codice pubblico. Inizia ora. Scava tra i tuoi progetti e mettili insieme in una storia che spieghi le tue conoscenze, interessi o abilità che possiedi nell'apprendimento automatico. Grazie per la lettura Hai completato un progetto di machine learning o hai un portfolio di progetti? Lascia un commento e mostrali.

  • Falcon AI il modello LLM open source , cos'è e come usarlo

    rilascio di nuovi modelli generativi di linguaggi di grandi dimensioni, l'IA ha continuato ad avvicinarsi all'intelligenza codice con questi metodi. from langchain import PromptTemplate, LLMChain template = """ You are a intelligent Cos'è l'intelligenza artificiale di Falcon?

  • Come risolvere l'Overfitting con Python e Capire cosa è l' Overfitting

    CHE COS'È L'OVERFITTING? L'overfitting è un problema comune che i data scientist devono affrontare durante la creazione di modelli con elevata complessità. Si verifica quando un modello si adatta molto bene ai dati di addestramento e successivamente si comporta male quando viene testato su nuovi dati. Questo problema si verifica più spesso quando si costruiscono modelli di rete neurale profonda, che è un modello statistico che rappresenta in modo approssimativo la connettività nel cervello. Questi modelli tendono ad essere complessi poiché possono contenere da centinaia a migliaia di parametri. A causa dell'elevata complessità, questi modelli possono rilevare il rumore casuale come vere tendenze, causando scarse prestazioni quando si effettuano inferenze su nuovi dati. L'overfitting è una grande preoccupazione per qualsiasi azienda che utilizza modelli di deep learning per fare previsioni. Ad esempio, se un'azienda desidera prevedere la fidelizzazione dei clienti, un modello di overfit può rappresentare rumore casuale e valori anomali nei dati come tendenze statistiche significative. Di conseguenza, il modello avrà prestazioni scadenti se utilizzato per prevedere se un cliente effettuerà un acquisto ripetuto in futuro, con conseguente significativa perdita di entrate per l'azienda. Diversi metodi sono comunemente usati per prevenire l'overfitting nei modelli di deep learning. La regressione lazo, chiamata anche regolarizzazione L1, è un metodo popolare per prevenire l'overfitting in modelli complessi come le reti neurali. La regolarizzazione L1 funziona aggiungendo un termine di penalità al modello. Questa penalità fa sì che alcuni dei coefficienti nel modello vadano a zero, che puoi interpretare come l'eliminazione dei pesi del modello assegnati a rumore casuale, valori anomali o qualsiasi altra relazione statisticamente insignificante trovata nei dati. In generale, la regolarizzazione L1 è utile per la fase di selezione delle caratteristiche del processo di creazione del modello. In particolare, puoi usarlo per rimuovere caratteristiche che non sono predittori forti. Ad esempio, quando si prevede la fidelizzazione dei clienti, potremmo avere accesso a funzioni che non sono molto utili per fare previsioni accurate come il nome e l'e-mail del cliente. Un altro metodo di regolarizzazione è la regressione della cresta, chiamata anche regolarizzazione L2. La regressione della cresta funziona riducendo uniformemente i pesi assegnati alle feature nel modello. Questo metodo è utile quando nel modello sono presenti feature altamente correlate. Negli esempi di fidelizzazione dei clienti, le funzionalità altamente correlate possono essere i dollari spesi per l'ultimo acquisto o il numero di articoli acquistati. Queste due caratteristiche sono altamente correlate perché più articoli un cliente acquista, più soldi spendono. Anche la presenza di feature collineari può influire negativamente sulle prestazioni del modello. La libreria Python Keras semplifica la creazione di modelli di deep learning. La libreria di deep learning può essere utilizzata per creare modelli per attività di classificazione, regressione e clustering non supervisionate. Inoltre, Keras semplifica anche l'applicazione dei metodi di regolarizzazione L1 e L2 a questi modelli statistici. Sia la regolarizzazione L1 che L2 possono essere applicate ai modelli di deep learning specificando un valore di parametro in una singola riga di codice. Qui, utilizzeremo i dati di abbandono delle telecomunicazioni per costruire un modello di rete neurale profonda che predice la fidelizzazione dei clienti. I dati contengono informazioni su una società di telecomunicazioni fittizia. Preparazione dei dati Per iniziare, importiamo la libreria Pandas e leggiamo i dati di abbandono di Teclo in un frame di dati Pandas: import pandas as pd df = pd.read_csv('telco_churn.csv') Successivamente, mostriamo le prime cinque righe di dati: print(df.head()) l'output sarà questo : Per costruire il nostro modello di abbandono, dobbiamo convertire la colonna di abbandono nei nostri dati in valori leggibili dalla macchina. Dove l'abbandono ha un valore di "no", assegneremo un'etichetta "zero" e dove l'abbandono ha un valore di "sì", assegneremo l'etichetta "uno". Importiamo il pacchetto Numpy e usiamo il metodo where() per etichettare i nostri dati: import numpy as np df['Churn'] = np.where(df['Churn'] == 'Yes', 1, 0) Molti dei campi nei dati sono categoriali. Dobbiamo convertire questi campi in codici categoriali leggibili dalla macchina in modo da poter addestrare il nostro modello. Scriviamo una funzione che prenda un elenco di nomi di colonne categoriali e modifichi il nostro frame di dati per includere i codici categoriali per ogni colonna: def convert_categories(cat_list):for col in cat_list: df[col] = df[col].astype('category') df[f'{col}_cat'] = df[f'{col}_cat'].cat.codes Definiamo il nostro elenco di colonne categoriali: category_list = [gender, 'Partner', 'Dependents', 'PhoneService', 'MultipleLines', 'InternetService', 'OnlineSecurity', 'OnlineBackup', 'DeviceProtection', 'TechSupport', 'StreamingTV', 'StreamingMovies', 'Contract', 'PaperlessBilling', 'PaymentMethod'] Successivamente, chiamiamo la nostra funzione con questo elenco e visualizziamo le prime cinque righe di dati: convert_categories(category_list) print(df.head()) l'output sarà questo: Possiamo vedere che il nostro frame di dati ora contiene codici categoriali per ogni colonna categoriale. Quindi, definiamo il nostro input e output: X = df[['gender_cat', 'Partner_cat', 'Dependents_cat', 'PhoneService_cat', 'MultipleLines_cat', 'InternetService_cat', 'OnlineSecurity_cat', 'OnlineBackup_cat', 'DeviceProtection_cat', 'TechSupport_cat', 'StreamingTV_cat', 'StreamingMovies_cat', 'Contract_cat', 'PaperlessBilling_cat', 'PaymentMethod_cat','MonthlyCharges''TotalCharges', 'SeniorCitizen', 'tenure']] y= df['Churn'] Successivamente, importiamo il metodo split train/test per il modulo di selezione del modello in Scikit-learn. Dividiamo i nostri dati per allenamento e test from sklearn.model_selection import train_test_split X_train, X_test_hold_out, y_train, y_test_hold_out = train_test_split(X, y, test_size=0.33) Reti neurali per la regressione Per iniziare a costruire il nostro modello di rete neurale di regressione, importiamo la classe del layer denso dal modulo layer in Keras. Importiamo anche la classe sequenziale dal modulo models in Keras e il metodo di accuratezza dal modulo metric in Scikit-learn: from tensorflow.keras.layers import Dense from tensorflow.keras.models import Sequential from sklearn.metrics import accuracy_score Ora definiamo e adattiamo il nostro modello e adattiamo il modello ai nostri dati di addestramento. Costruiremo una rete neurale con due strati nascosti e 32 neuroni. Utilizzeremo anche 20 epoche, che corrispondono al numero di passaggi attraverso i dati di addestramento. Definiamo il nostro oggetto modello. model = Sequential() Quindi, aggiungiamo uno strato denso usando il metodo add. Dobbiamo passare il numero di caratteristiche, che è la lunghezza dell'elenco delle colonne, e l'input, che è una tupla con la lunghezza dell'elenco delle colonne. Verranno inoltre inizializzati i valori di peso secondo una distribuzione normale e utilizzando una funzione di attivazione dell'unità lineare rettificata (ReLu). La funzione di attivazione è ciò che simula l'attivazione dei neuroni: model.add(Dense(len(cols),input_shape=(len(cols),), kernel_initializer='normal', activation='relu')) Successivamente, aggiungeremo due livelli nascosti usando il metodo add. Questi strati avranno 32 neuroni e utilizzeranno anche una funzione di attivazione ReLu: model.add(Dense(32, activation='relu')) model.add(Dense(32, activation='relu')) Dobbiamo quindi aggiungere il livello di output, che avrà un neurone e una funzione di attivazione softmax. Ciò consentirà al nostro modello di produrre probabilità di classe per prevedere se un cliente abbandonerà: model.add(Dense(1, activation='softmax')) model.compile(optimizer = 'adam',loss='binary_crossentropy', metrics =['accuracy']) model.fit(X_train, y_train,epochs =20) l'output sarà questo: Possiamo vedere che, ad ogni epoca, la perdita generalmente diminuisce e la precisione aumenta. Ora generiamo previsioni. L'output della previsione è un elenco di probabilità di abbandono corrispondente a ciascun input nei dati del test. Possiamo convertire le previsioni in punteggi binari, dove i valori di probabilità maggiori del 50 percento (0,5) saranno classificati come abbandono, con un'etichetta di uno. In caso contrario, sarà classificato con un'etichetta pari a zero, che corrisponde al cliente che soggiorna presso l'azienda: y_pred = model.predict(X_test) y_pred = np.where(y_pred > 0.5, 1, 0) Calcoliamo anche la precisione del nostro modello: print("Accuracy: ", accuracy_score(y_pred, y_test)) Vediamo che la precisione del nostro modello è del 77,9 percento, il che è abbastanza buono. Vediamo se possiamo migliorare le prestazioni con la regressione lazo. Regressione lazo (regolarizzazione L1) Keras semplifica l'implementazione della regressione lazo con i modelli di rete neurale. Il pacchetto regolarizzatori in Keras ha un metodo che possiamo chiamare, chiamato l1, negli strati della nostra rete neurale. Ciò applicherà termini di penalità ai pesi negli strati che aiuteranno a prevenire il sovradattamento. In genere, la regressione lazo invia i pesi delle caratteristiche insignificanti a zero, consentendo al modello di includere le caratteristiche più importanti per fare previsioni accurate. Importiamo il pacchetto regolarizzatore da Keras: from tensorflow.keras import regularizers Successivamente, definiamo un nuovo oggetto modello, che chiameremo model_lasso. model_lasso = Sequential() Nel livello di input, passeremo un valore per kernel_regularizer usando il metodo l1 dal pacchetto regolarizzatori: model_lasso.add(Dense(len(cols),input_shape=(len(cols),), kernel_initializer='normal', activation='relu', kernel_regularizer = regularizers.l1(1e-6))) Le prossime righe di codice sono identiche al nostro modello di rete neurale iniziale. L'unica differenza è che stiamo lavorando con l'oggetto modello model_lasso, invece del modello: model_lasso.add(Dense(32, activation='relu')) model_lasso.add(Dense(32, activation='relu')) model_lasso.add(Dense(1, activation='sigmoid')) model_lasso.compile(optimizer = 'adam',loss='binary_crossentropy', metrics =['accuracy']) model_lasso.fit(X_train, y_train,epochs =20) y_pred = model_lasso.predict(X_test) y_pred = np.where(y_pred > 0.5, 1, 0) print("Accuracy With Lasso: ", accuracy_score(y_pred, y_test)) La regressione con lazo è un'ottima opzione se nel modello sono presenti molte funzionalità che non contribuiscono positivamente alle prestazioni. Per questo motivo, è utile come strumento di selezione delle funzionalità. Regressione Ridge (L2) Anche applicare la regressione della cresta ai modelli di rete neurale è facile in Keras. Simile al metodo lazo, dobbiamo semplicemente chiamare un nome di metodo l2 negli strati della nostra rete neurale. La differenza tra lazo e ridge è che il primo tende a scartare del tutto valori insignificanti, mentre ridge riduce semplicemente l'entità dei pesi nella nostra rete neurale su tutte le caratteristiche. Definiamo un nuovo oggetto modello chiamato model_ridge: model_ridge = Sequential() E nel livello di input, useremo il metodo l2: model_ridge.add(Dense(len(cols),input_shape=(len(cols),), kernel_initializer='normal', activation='relu', kernel_regularizer = regularizers.l2(1e-6))) Il resto è simile a quello che abbiamo fatto sopra: model_ridge.add(Dense(32, activation='relu')) model_ridge.add(Dense(32, activation='relu')) model_ridge.add(Dense(1, activation='sigmoid')) model_ridge.compile(optimizer = 'adam',loss='binary_crossentropy', metrics =['accuracy']) model_ridge.fit(X_train, y_train,epochs =20) y_pred = model_lasso.predict(X_test) y_pred = np.where(y_pred > 0.5, 1, 0) print("Accuracy With Ridge: ", accuracy_score(y_pred, y_test)) Con ridge, la precisione è leggermente migliore rispetto alla prima rete neurale che abbiamo costruito e alla rete neurale con lazo. La scelta del miglior metodo di regolarizzazione da utilizzare dipende dal caso d'uso. Se l'utilizzo di tutte le funzionalità di input nel modello è importante, la regressione della cresta potrebbe essere una scelta migliore per la regolarizzazione. Questo può essere il caso in cui alcune funzionalità devono essere mantenute per addestrare il nostro modello. Ad esempio, una caratteristica debole può essere ancora utile come leva per un'azienda. Potrebbero voler vedere come cambiano le previsioni del modello quando cambia il valore della caratteristica debole anche se non contribuisce fortemente alle prestazioni. Il codice di questo post è disponibile nella Sezione Progetti Conclusioni Prevenire l'overfitting dei modelli è importante per i team di data science che utilizzano modelli complessi come le reti neurali. L'overfitting può avere un impatto significativo sui ricavi di un'azienda se non preso in considerazione. I modelli con molti parametri, come le reti neurali, sono particolarmente inclini all'overfitting e possono dare ai ricercatori un falso senso di buone prestazioni del modello. In genere, i modelli overfit mostrano prestazioni elevate quando vengono testati sui dati attuali e possono funzionare molto male una volta che il modello viene presentato con nuovi dati. Ad esempio, in caso di abbandono, un modello di overfit può essere in grado di prevedere con elevata precisione se un cliente non effettuerà un acquisto ripetuto. Quando vengono presentati nuovi dati sui clienti, tuttavia, il modello di overfit avrà prestazioni scadenti e non sarà più in grado di prevedere l'abbandono dei clienti. Questa imprecisione può far sì che le aziende sprechino una notevole quantità di denaro e risorse mirando ai clienti sbagliati con annunci e promozioni, ignorando i clienti che potrebbero effettivamente abbandonare. Per questo motivo, avere una buona conoscenza di come utilizzare la regressione lazo e ridge per prevenire l'overfitting di modelli complessi è un'abilità importante per ogni data scientist.

  • Release 2.0 per BrainControl AAC: l’IA al servizio dell’interazione tra pazienti e il mondo esterno

    BrainControl AAC*, la gamma di dispositivi medici basati sull’Intelligenza Artificiale, è da oggi presente

  • TensorFlow la libreria Python per il Deep Learning

    Conclusione su TensorFlow la libreria Python per il Deep Learning TensorFlow è uno strumento di intelligenza artificiale di primo piano e se vuoi lavorare nell'intelligenza artificiale o nell'apprendimento automatico L'apprendimento automatico e l'intelligenza artificiale sono due esempi di applicazioni tecnologiche

bottom of page