top of page

Risultati Ricerca Intelligenza Artificiale Italia

124 elementi trovati per "data-science"

  • Imputazione media o mediana

    Questa strategia può essere applicata a una feature che contiene dati numerici. # Sostituisci i valori nulli con la media delle colonne di appartenenza data = data.fillna(data.median()) Nell'esempio sopra , usiamo il metodo mediano per riempire i valori mancanti nel set di dati.

  • Analista di dati vs scienziato di dati

    Dopo aver visto in modo generico chi è e cosa fa un Data scientist, capiamo che possano sorgere dei dubbi sulle differenze con un Data Analyst per questo in questa sezione andiamo a sviscerare punto punto ogni

  • FINANZA

    La scienza dei dati può essere applicata alla finanza in diversi modi, alcuni esempi includono la prevenzione Utilizzando tecniche di apprendimento automatico e analisi di big data, le banche e altre società di La scienza dei dati aiuta le aziende a trovare modi migliori per misurare e gestire il rischio all'interno dell'organizzazione, utilizzando l'analisi dei big data e l'apprendimento automatico per consentire Con l'aiuto della scienza dei dati, possono ottenere informazioni sul comportamento dei clienti in tempo

  • Distribuzione Normale dei Dati

    Nel capitolo precedente abbiamo imparato a creare un array completamente casuale, di una data dimensione , e tra due dati valori. In questo capitolo impareremo come creare un array in cui i valori sono concentrati attorno a un dato dei dati , o distribuzione dei dati gaussiana , dal matematico Carl Friedrich Gauss che ha inventato la formula di questa distribuzione dei dati.

  • Normalizzazione Min-Max in Python

    funzionalità in un determinato intervallo: from sklearn.preprocessing import MinMaxScaler import numpy as np data # creiamo lo scaler method scaler = MinMaxScaler(feature_range=(0,1)) # Scaliamo e trasformiamo i dati scaled_data = scaler.fit_transform(data) print(scaled_data) # [[0.3 0.03448276] # [1. 1. ] # [0.9 0.4137931 ] # [0. 0. ]] Come puoi vedere, i nostri dati

  • Che cos'è il Feature Engineering ?

    delle feature si riferisce a un processo di selezione e trasformazione di variabili/funzioni nel set di dati i tuoi dati negli algoritmi di apprendimento automatico. Altrimenti, sarà difficile ottenere buone informazioni sui tuoi dati. Indagine CrowdFlower Secondo un sondaggio condotto da CrowdFlower su 80 Data Scientist, i Data Scientist passano il 60% del loro tempo a pulire e organizzare i dati.

  • Confronto Abilità e Soft Skill

    analisti dei dati, ma le differenze principali sono che gli scienziati dei dati in genere utilizzano dei dati in genere utilizzano Excel e gli scienziati dei dati utilizzano l'apprendimento automatico. alcuni analisti avanzati possono utilizzare linguaggi di programmazione o avere familiarità con i big data Per comprendere meglio le differenze tra analisti di dati e scienziati di dati, ecco alcune delle abilità lavorative comuni di analisti di dati e scienziati di dati.

  • Codifica one-hot

    LabelEncoder ci aiuterà a creare una codifica intera di etichette dai nostri dati eOneHotEncoder creerà numpy as np from sklearn.preprocessing import OneHotEncoder, LabelEncoder # definiamo un esempio data warm', 'hot']) # creiamo integer encode label_encoder = LabelEncoder() # alleniamo e trasformia i dati integer_encoded = label_encoder.fit_transform(data) print(integer_encoded) # creiamo one-hot encode (len(integer_encoded), 1) # alleniamo e trasformia i dati onehot_encoded = onehot_encoder.fit_transform

  • Standardizzazione in Python

    una deviazione standard di 1 : from sklearn.preprocessing import StandardScaler import numpy as np data , 4], [1, 11]]) # creiamo lo scaler method scaler = StandardScaler() # Scaliamo e trasformiamo i dati scaled_data = scaler.fit_transform(data) print(scaled_data) # [[-0.60192927 -0.79558708] # [ 1.08347268

  • Valore più comune

    . # Sostituisci i valori nulli con la media delle colonne di appartenenza data['column_name'].fillna (data['column_name'].value_counts().idxmax(). inplace=True) Qui utilizziamo il metodo value_counts()

  • Distribuzione dei dati

    Nel mondo reale, i set di dati sono molto più grandi, ma può essere difficile raccogliere dati del mondo Come possiamo ottenere grandi set di dati? serie di metodi per creare set di dati casuali, di qualsiasi dimensione. disegnare un istogramma con i dati che abbiamo raccolto. Distribuzioni di Big Data Un array contenente 250 valori non è considerato molto grande, ma ora sai come

  • Riduzione della Dimensionalità

    della dimensionalità Negli ultimi 4-5 anni, c'è stato un aumento esponenziale nell'acquisizione dei dati le organizzazioni di ricerca non solo stanno arrivando con nuove fonti, ma stanno anche catturando i dati Ad esempio: le aziende di e-commerce stanno acquisendo più dettagli sui clienti come i loro dati demografici Come data scientist, i dati che ci vengono offerti consistono anche di molte funzionalità, questo suona Implementiamo un Algoritmo di riduzione della dimensionalità sui dei dati e vediamo le differenze

  • VIAGGI & TRASPORTI

    ) che fa emergere i data scientist. Offerte veramente personalizzate Oggi le agenzie di viaggio utilizzano i big data per creare una visione Se la tua compagnia aerea ha investito in big data, ti offrirà opportunità di cross-selling e up-selling Efficienza migliorata Oltre ai sensori, i data scientist stanno estraendo informazioni da tutti gli angoli suo motore di ricerca come inizio, la start-up di viaggi Hopper mira a utilizzare algoritmi di big data

  • Creare Grafici Dinamici e Interattivi con Python

    Raccontare una storia con i dati è una funzione fondamentale per qualsiasi Data Scientist e creare visualizzazioni di dati che siano allo stesso tempo illuminanti e accattivanti può essere difficile. dei dati. Lavoreremo con il set di dati NIFTY-50 . Il set di dati è apertamente disponibile su Kaggle , ma utilizzeremo un sottoinsieme dei dati contenente

  • Che cosa è il Machine Learning (ML)

    possibile fornirgli degli esempi accurati e ben lavorati riguardanti un determinato campo ( ad esempio dati riguardanti le case, dati riguardanti cartelle cliniche) allora questo sarebbe stato in grado, tramite algoritmi complessi, di fare delle stime o delle classificazioni su dati che non aveva mai visto, basandosi solo sui dati degli esempi iniziali. Una seconda definizione è stata data da Tom Michael Mitchell, direttore del dipartimento Machine Learning

bottom of page