Risultati Ricerca Intelligenza Artificiale Italia
124 elementi trovati per "data-science"
- Apprendimento Profondo o Deep Learning
Andiamo a capire nel dettaglio uno dei tanti strumenti del data scientist. L'apprendimento profondo è ad oggi utilizzato e richiesto nella maggior parte delle aziende che trattano dati
- Normalizzazione Min-Max in Python
funzionalità in un determinato intervallo: from sklearn.preprocessing import MinMaxScaler import numpy as np data # creiamo lo scaler method scaler = MinMaxScaler(feature_range=(0,1)) # Scaliamo e trasformiamo i dati scaled_data = scaler.fit_transform(data) print(scaled_data) # [[0.3 0.03448276] # [1. 1. ] # [0.9 0.4137931 ] # [0. 0. ]] Come puoi vedere, i nostri dati
- Analista di dati vs scienziato di dati
Dopo aver visto in modo generico chi è e cosa fa un Data scientist, capiamo che possano sorgere dei dubbi sulle differenze con un Data Analyst per questo in questa sezione andiamo a sviscerare punto punto ogni
- FINANZA
La scienza dei dati può essere applicata alla finanza in diversi modi, alcuni esempi includono la prevenzione Utilizzando tecniche di apprendimento automatico e analisi di big data, le banche e altre società di La scienza dei dati aiuta le aziende a trovare modi migliori per misurare e gestire il rischio all'interno dell'organizzazione, utilizzando l'analisi dei big data e l'apprendimento automatico per consentire Con l'aiuto della scienza dei dati, possono ottenere informazioni sul comportamento dei clienti in tempo
- Codifica one-hot
LabelEncoder ci aiuterà a creare una codifica intera di etichette dai nostri dati eOneHotEncoder creerà numpy as np from sklearn.preprocessing import OneHotEncoder, LabelEncoder # definiamo un esempio data warm', 'hot']) # creiamo integer encode label_encoder = LabelEncoder() # alleniamo e trasformia i dati integer_encoded = label_encoder.fit_transform(data) print(integer_encoded) # creiamo one-hot encode (len(integer_encoded), 1) # alleniamo e trasformia i dati onehot_encoded = onehot_encoder.fit_transform
- Distribuzione Normale dei Dati
Nel capitolo precedente abbiamo imparato a creare un array completamente casuale, di una data dimensione , e tra due dati valori. In questo capitolo impareremo come creare un array in cui i valori sono concentrati attorno a un dato dei dati , o distribuzione dei dati gaussiana , dal matematico Carl Friedrich Gauss che ha inventato la formula di questa distribuzione dei dati.
- Che cos'è il Feature Engineering ?
delle feature si riferisce a un processo di selezione e trasformazione di variabili/funzioni nel set di dati i tuoi dati negli algoritmi di apprendimento automatico. Altrimenti, sarà difficile ottenere buone informazioni sui tuoi dati. Indagine CrowdFlower Secondo un sondaggio condotto da CrowdFlower su 80 Data Scientist, i Data Scientist passano il 60% del loro tempo a pulire e organizzare i dati.
- Distribuzione dei dati
Nel mondo reale, i set di dati sono molto più grandi, ma può essere difficile raccogliere dati del mondo Come possiamo ottenere grandi set di dati? serie di metodi per creare set di dati casuali, di qualsiasi dimensione. disegnare un istogramma con i dati che abbiamo raccolto. Distribuzioni di Big Data Un array contenente 250 valori non è considerato molto grande, ma ora sai come
- Confronto Abilità e Soft Skill
analisti dei dati, ma le differenze principali sono che gli scienziati dei dati in genere utilizzano dei dati in genere utilizzano Excel e gli scienziati dei dati utilizzano l'apprendimento automatico. alcuni analisti avanzati possono utilizzare linguaggi di programmazione o avere familiarità con i big data Per comprendere meglio le differenze tra analisti di dati e scienziati di dati, ecco alcune delle abilità lavorative comuni di analisti di dati e scienziati di dati.
- Valore più comune
. # Sostituisci i valori nulli con la media delle colonne di appartenenza data['column_name'].fillna (data['column_name'].value_counts().idxmax(). inplace=True) Qui utilizziamo il metodo value_counts()
- VIAGGI & TRASPORTI
) che fa emergere i data scientist. Offerte veramente personalizzate Oggi le agenzie di viaggio utilizzano i big data per creare una visione Se la tua compagnia aerea ha investito in big data, ti offrirà opportunità di cross-selling e up-selling Efficienza migliorata Oltre ai sensori, i data scientist stanno estraendo informazioni da tutti gli angoli suo motore di ricerca come inizio, la start-up di viaggi Hopper mira a utilizzare algoritmi di big data
- Standardizzazione in Python
una deviazione standard di 1 : from sklearn.preprocessing import StandardScaler import numpy as np data , 4], [1, 11]]) # creiamo lo scaler method scaler = StandardScaler() # Scaliamo e trasformiamo i dati scaled_data = scaler.fit_transform(data) print(scaled_data) # [[-0.60192927 -0.79558708] # [ 1.08347268
- Riduzione della Dimensionalità
della dimensionalità Negli ultimi 4-5 anni, c'è stato un aumento esponenziale nell'acquisizione dei dati le organizzazioni di ricerca non solo stanno arrivando con nuove fonti, ma stanno anche catturando i dati Ad esempio: le aziende di e-commerce stanno acquisendo più dettagli sui clienti come i loro dati demografici Come data scientist, i dati che ci vengono offerti consistono anche di molte funzionalità, questo suona Implementiamo un Algoritmo di riduzione della dimensionalità sui dei dati e vediamo le differenze
- Che cosa è il Machine Learning (ML)
possibile fornirgli degli esempi accurati e ben lavorati riguardanti un determinato campo ( ad esempio dati riguardanti le case, dati riguardanti cartelle cliniche) allora questo sarebbe stato in grado, tramite algoritmi complessi, di fare delle stime o delle classificazioni su dati che non aveva mai visto, basandosi solo sui dati degli esempi iniziali. Una seconda definizione è stata data da Tom Michael Mitchell, direttore del dipartimento Machine Learning
- Differenze tra Machine Learning e Deep Learning ?
Il modo principale in cui differiscono è nel modo in cui ogni algoritmo apprende e nella quantità di dati Questa capacità sarà particolarmente interessante quando inizieremo a esplorare maggiormente l'uso di dati , che di solito richiedono dati più strutturati per l'apprendimento. Osservando i modelli nei dati, un modello di apprendimento profondo può raggruppare gli input in modo , mentre un modello di apprendimento automatico si basa su meno dati data la struttura dei dati sottostante