top of page

Risultati Ricerca Intelligenza Artificiale Italia

475 elementi trovati per ""

  • I migliori generatori di contenuti e testo con intelligenza artificiale IA gratis e non

    Hai pensato di utilizzare un generatore di contenuti con IA gratuito per scrivere un email, o per scrivere l'introduzione della tua presentazione ? Gli strumenti di intelligenza artificiale sono l'ultima tendenza nella scrittura di contenuti, nei blog e nel copywriting in generale. Alcune persone come gli scrittori di contenuti potrebbero essere spaventati da questa tecnologia, ma l'intelligenza artificiale può aiutarti a creare un lavoro di alta qualità con uno sforzo minimo! Che cos'è la generazione di testo con l'intelligenza artificiale? La generazione del testo è il processo di creazione di un testo significativo e coerente in linguaggio naturale. Il testo generato può essere sotto forma di un articolo completo, un paragrafo, un breve commento, una singola frase, una domanda o un titolo. La generazione del testo può essere ottenuta in due modi: Manualmente : questo viene fatto da un esperto umano, che ha la conoscenza e l'esperienza necessarie per scrivere il testo. Automaticamente : questo viene fatto utilizzando algoritmi e apprendimento automatico. L'intelligenza artificiale è una branca dell'informatica che si concentra sullo sviluppo di algoritmi per far "pensare e agire" le macchine come gli umani. La generazione di testo con l'intelligenza artificiale è un sottoinsieme dell'intelligenza artificiale che si concentra sulla generazione di testo significativo utilizzando algoritmi e apprendimento automatico. L'intelligenza artificiale è stata utilizzata per generare testo sotto forma di titoli di notizie, brevi domande e risposte e persino articoli completi. Negli ultimi anni, la comunità dell'IA ha compiuto progressi significativi nello sviluppo di tecniche di generazione di testo basate sull'intelligenza artificiale. Aziende che utilizzano la generazione di testo con l'intelligenza artificiale Esistono diversi marchi che hanno utilizzato con successo l'intelligenza artificiale per generare testo sotto forma di articoli, notizie e titoli. Di seguito sono riportati alcuni dei marchi che hanno utilizzato l'intelligenza artificiale per la generazione di testo. Wikipedia : Wikipedia è un'enciclopedia online gratuita e open-source. È uno dei siti Web più popolari al mondo. La Wikipedia inglese è la Wikipedia più grande. La Wikipedia inglese contiene oltre 6 milioni di articoli scritti da 300.000 collaboratori. Gli articoli sono generati da bot che utilizzano l'intelligenza artificiale. Microsoft : Microsoft è una società tecnologica multinazionale che fornisce software, hardware e servizi basati su cloud. Microsoft utilizza l'intelligenza artificiale per generare titoli di notizie dal 2016. I titoli generati dall'intelligenza artificiale sono disponibili sul loro sito Web . Twitter : Twitter è un servizio di social networking e microblogging online che consente agli utenti di inviare e leggere post di testo fino a 280 caratteri. Twitter utilizza l'intelligenza artificiale per generare titoli per i propri tweet dal 2018. Yahoo : Yahoo è una società tecnologica multinazionale americana che fornisce servizi e prodotti relativi a Internet. Yahoo utilizza l'intelligenza artificiale per generare titoli per i propri articoli di notizie dal 2019. I titoli generati dall'intelligenza artificiale sono disponibili sul loro sito Web . Youtube : YouTube è un sito web americano di condivisione di video che presenta video generati dagli utenti. YouTube utilizza l'IA per generare titoli per i propri video dal 2019. I titoli generati dall'IA sono disponibili sul loro sito web . Suggerimenti per migliorare la generazione di testo con l'intelligenza artificiale La qualità del testo generato dall'intelligenza artificiale migliora ogni giorno. In questa sezione, discuteremo alcune delle tecniche che possono essere utilizzate per migliorare il processo di generazione del testo. Aumentare la dimensione del set di dati : la qualità del testo generato dall'intelligenza artificiale dipende dalla dimensione del set di dati utilizzato per addestrare il modello. Pertanto, l'aumento delle dimensioni del set di dati può portare a risultati migliori. Usa un modello con training preliminare : un modello con training preliminare è un modello che è stato addestrato su un set di dati di grandi dimensioni. Un modello preaddestrato può essere utilizzato per la generazione del testo. I modelli preaddestrati sono disponibili in molte lingue. Pertanto, è importante utilizzare un modello preaddestrato durante la generazione di testo in una lingua non supportata dal modello. Usa l'ultimo modello di intelligenza artificiale : ogni anno, la comunità di intelligenza artificiale sviluppa nuovi e migliori modelli di intelligenza artificiale. Pertanto, è importante utilizzare l'ultimo modello AI per generare testo. Usa un esperto umano : gli esperti umani possono essere utilizzati per valutare il testo generato dall'IA. L'esperto umano può approvare o rifiutare il testo. Il testo approvato può essere pubblicato online, mentre il testo rifiutato può essere ulteriormente migliorato utilizzando le tecniche sopra menzionate. Migliori generatori di contenuti e testo con intelligenza artificiale : Jasper Copysmith Writesonic Kafkai Article Forge Articoolo Rytr CopyAI Peppertype ora vediamoli uno per uno... 1. Jasper Jasper è un eccezionale generatore di contenuti AI con più di 52 modelli di scrittura di breve e lunga durata . Che tu stia scrivendo una biografia personale , una didascalia di una foto di Instagram, una descrizione di un prodotto Amazon o un annuncio immobiliare, Jasper può sistemarti con contenuti progettati (e dimostrati per) convertire. Il paragrafo Jasper Blog Post Intro è particolarmente utile per superare il blocco dello scrittore mentre capisci come scrivere contenuti per il tuo sito web. Dì a Jasper di cosa tratta il tuo articolo e otterrai un launchpad che ti aiuterà a immergerti in profondità nel tuo post. Con il piano Boss Mode , puoi dare istruzioni ancora più dettagliate a Jasper. Al di là dei modelli brillanti, Jasper sa che lavorare con un nuovo compagno di squadra IA può essere un po' una curva di apprendimento. Quindi il software viene fornito con un'impressionante selezione di risorse di formazione approfondite e documenti di aiuto che ti guidano attraverso il modo in cui Jasper pensa e come ottenere il meglio dal software. Prezzi: 40€ al mese , i nuovi utenti ottengono 10.000 crediti quando si iscrivono. 2. Copysmith Copysmith è progettato per aiutare i marchi e le aziende a raggiungere i loro obiettivi di contenuto. Questo scrittore di intelligenza artificiale ha oltre 30 modelli , tra cui testi dell'annuncio di Facebook , presenta te stesso, comunicato stampa dell'evento e riscrittore di contenuti. Utilizza questi modelli per creare inserzioni Facebook accattivanti, presentare te stesso e i tuoi servizi, diffondere la voce sul tuo evento e riscrivere i contenuti per una maggiore brillantezza. Con Copysmith, puoi organizzare e archiviare i tuoi contenuti in cartelle , in modo da sapere dove si trova il lavoro di ogni cliente. È anche facile testare il software, poiché puoi accedere a una prova gratuita di 3 giorni e provare tutte le funzionalità (con alcuni limiti di credito). Se utilizzi Chrome, puoi trarre vantaggio dall'utilizzo dell'estensione del browser Copysmith per Chrome . Copysmith sta inoltre implementando funzionalità collaborative al loro livello di appartenenza più alto, che consentirà ai team di lavorare insieme alla generazione di contenuti. Prezzi: A partire da 19€ , con limiti di credito. I nuovi utenti possono ottenere una prova gratuita di 3 giorni. 3. Writesonic Strumento di copywriting AI, Writesonic mira a creare una copia che coinvolga i tuoi lettori e porti a vendite e traffico per la tua attività. Fornisce due offerte di generatori di contenuti . Una selezione di modelli è orientata ai copywriter, con opzioni per scrivere pagine di destinazione, e-mail di vendita e descrizioni dei prodotti, oltre a verificare la leggibilità e la grammatica corretta. L'altro set di modelli supporta la scrittura di articoli di lunga durata e consente di redigere post di blog, riassumere il contenuto e riformulare secondo necessità. Writesonic offre anche una prova gratuita e un sistema di crediti Pay-As-You-Go per gli utenti che non sono ancora pronti a impegnarsi in un abbonamento mensile o annuale. Prezzi: A partire da 15€ al mese. Prova gratuita disponibile per i nuovi utenti. 4. Kafkai Kafkai è il più antico generatore di contenuti AI orientato specificamente alla creazione di contenuti rilevanti per la SEO. Il software funziona con un sistema di nicchia di scrittura, al contrario dei modelli tipici. Attualmente offre la scrittura di articoli in 37 nicchie , tra cui salute, sport, cani, SEO e software. Come con la maggior parte dei generatori di contenuti AI, puoi essere certo di articoli unici con Kafkai. Il punto debole, nel senso della lunghezza, è tra le 500 e le 900 parole per gli articoli generati da Kafkai. Kafkai offre una prova gratuita di 3 giorni con una garanzia di rimborso di 30 giorni . Se non sei soddisfatto della generazione di articoli sull'app Kafkai, puoi scaricare il loro plug-in WordPress e scrivere direttamente su WordPress per un flusso di lavoro più fluido. Hai bisogno di tradurre i tuoi contenuti in una lingua diversa? Kafkai può presentare il tuo lavoro in altre sette lingue. Prezzi: ‍ A partire da 27€ al mese per 100 articoli 5. Article Forge Questo strumento di scrittura AI crea contenuti SEO originali in meno di un minuto utilizzando il deep learning. Feed articolo Forgia la tua parola chiave e qualsiasi altra informazione pertinente e creerà un articolo completo di sottotitoli, immagini, video e collegamenti pertinenti. L'interfaccia di Article Forge è intuitiva da usare e ti consente di personalizzare i dettagli principali come la lunghezza dell'articolo, le parole chiave secondarie e i sottotitoli. L'obiettivo di questa intelligenza artificiale è aiutare i tuoi contenuti a posizionarsi sui motori di ricerca. La maggior parte dei generatori di contenuti AI ti consente di tradurre i contenuti generati in diverse lingue. Tuttavia, Article Forge ti consente di creare contenuti di alta qualità direttamente in un massimo di sette lingue straniere . Prezzi: 57€ al mese, fatturati mensilmente o 27€ al mese fatturati annualmente. Ti offrono anche una prova gratuita di 5 giorni e una garanzia di rimborso di 30 giorni. 6. Articoolo Articoloolo opera sulla base dell'acquisto di articoli; i lettori pagano per generare un numero fisso di articoli al mese o piano . Dopo aver inserito la parola chiave, il software genera un breve articolo, in genere inferiore a 500 parole. Se ti piace lavorare con i modelli, nota che non ce ne sono da trovare con questo programma. Con Articoolo invece puoi creare nuovi articoli, riscrivere vecchi articoli, generare titoli, riassumere articoli e trovare immagini e citazioni a supporto dei tuoi articoli . Gli utenti di WordPress apprezzeranno il plugin WordPress di Articoolo che consente un processo di creazione e condivisione senza soluzione di continuità. Prezzi: da 19€ per 10 articoli (nessun limite di utilizzo) e gli abbonamenti mensili partono da 29€ per 30 articoli. 7. Rytr Rytr è un semplice assistente alla scrittura e generatore di contenuti con oltre 30 modelli e casi d'uso. Ha lo scopo di aiutare i copywriter e i marketer dei contenuti a generare testi per annunci, pagine di destinazione, descrizioni di prodotti e altro ancora. Con Rytr, puoi regolare il tono in modo che suoni perfettamente scegliendo tra oltre 20 toni di scrittura disponibili . Ti consente inoltre di scrivere per un pubblico più ampio consentendo l'input in oltre 25 lingue. Durante la scrittura, puoi chiedere a Rytr di espandere, accorciare o riformulare le frasi. Se desideri portare i tuoi contenuti direttamente da Rytr al tuo CMS preferito, puoi sfruttare le ampie opzioni di formattazione per rendere il tuo testo più leggibile. Per assicurarti che i tuoi contenuti rimangano originali al 100%, utilizza il controllo antiplagio di Rytr per una rapida revisione. Prezzi: Piano gratuito disponibile. Il premio costa $ 29 al mese e $ 290 all'anno. 8. CopyAI CopyAI è un altro popolare software di scrittura di intelligenza artificiale. Con oltre 90 strumenti per la scrittura di contenuti e il copywriting , non c'è da meravigliarsi che lo strumento abbia oltre 1 milione di utenti. Questo software ha anche diversi modelli ciascuno per post di blog, contenuti di social media, e-mail, copia di siti Web, case study, video, contenuti aziendali generali e persino modelli per divertimento. Con pochissimi input da parte dell'utente, CopyAI può generare rapidamente contenuti e testi unici che seguono le migliori pratiche di scrittura e marketing. Ad esempio, il modello First Draft Wizard richiede solo un titolo del blog, parole chiave, l'obiettivo del post del blog e una selezione del tono di voce. L'intelligenza artificiale quindi crea uno schema del post sul blog, genera punti di discussione per ogni intestazione e quindi scrive il contenuto su ciascuno di quei punti. CopyAI, che è disponibile in oltre 25 lingue , ha anche un editor di lunga durata e consente progetti illimitati in modo da poter tenere insieme i contenuti AI correlati. Prezzi: CopyAI ha un piano gratuito che va bene per un utilizzo leggero o per testare lo strumento prima di decidere se vuoi essere pagato o meno. Per quanto riguarda i suoi piani a pagamento, i prezzi partono da $ 49 al mese. 9. Peppertype L'ultimo è Peppertype, che è stato creato da uno dei più grandi mercati di contenuti del mondo: Pepper Content. Utilizzando GPT-3, questo assistente alla scrittura AI aiuta con la generazione di idee per i contenuti e tutti i tipi di contenuti e copie. Con quasi 50 modelli tra cui scegliere, può aiutarti a scrivere di tutto, dalle biografie personali e le descrizioni dei video di Youtube alle descrizioni dei prodotti e Quora Answers. Sebbene questo strumento fornisca risultati concisi ed è, quindi, il migliore per la scrittura in forma breve come la copia pubblicitaria, ha alcuni modelli utili anche per il lavoro in forma lunga. Ad esempio, i modelli Content Rewriter, Content Expander e Content Simplifier possono essere utili durante l'aggiornamento del contenuto esistente. Inoltre, Paragraph Writer e Blog Heading Expander possono aiutarti a creare post di blog, articoli, case study, white paper e molto altro sezione per sezione. Un vantaggio di Peppertype sono le sue caratteristiche di squadra. Molti autori di intelligenza artificiale limitano la possibilità di aggiungere utenti a piani di livello superiore e/o costringono tutti gli utenti a condividere un limite di una singola parola. Questo strumento, tuttavia, consente utenti aggiuntivi anche sul suo piano Starter e ogni utente può generare fino a 50.000 parole al mese . Inoltre, nel piano di crescita, ci sono ancora più funzionalità di collaborazione come la condivisione dei risultati e il controllo degli accessi. Prezzi: Il prezzo di Peppertype parte da 35€ al mese. Il suo piano di livello intermedio ha un prezzo di 199€ al mese e, per le funzionalità aziendali, puoi richiedere prezzi personalizzati. Qualche considerazione finale sui migliori generatori di contenuti e testo con intelligenza artificiale IA gratis Certo, non tutti i contenuti o le copie possono essere pronti per la pubblicazione o addirittura completamente redatti in 10 minuti. Dovresti sempre controllare i contenuti AI e potresti anche voler modificare o aggiungere agli output. Tuttavia, un assistente alla scrittura di intelligenza artificiale come Jasper può darti un punto di partenza e un vantaggio tanto necessari con la creazione di contenuti. Ricorda solo che gli scrittori di intelligenza artificiale lavorano con te , non contro di te o al posto tuo . Rendono il lavoro più veloce e ampliano i tuoi orizzonti.

  • Quanto guadagna un data scientist in Italia ?

    Lo scopo di questo articolo è mostrare lo stipendio medio di un data scientist in Italia e quanto questa cifra sia cambiata negli ultimi anni. Introduzione su Quanto guadagna un data scientist in Italia Il termine “data scientist” è un termine molto generico e molto impreciso. La definizione di data scientist si sta evolvendo e ci sono diversi approcci a questo concetto. In questo articolo, il data scientist sarà definito come una persona che si occupa di dati, ha un background informatico ed è in grado di utilizzare strumenti statistici per estrarre informazioni dai dati. Lo stipendio medio di un data scientist è un argomento molto importante. In Italia, lo stipendio medio di un data scientist è cresciuto molto velocemente negli ultimi anni. Il primo problema è che è molto difficile conoscere lo stipendio medio di un data scientist perché non esiste un database di tutti i data scientist con i loro relativi stipendi. E molte aziende non vogliono rivelare quanto pguadagano i loro data scientist L'unica fonte di dati sullo stipendio dei data scientist in Italia è l'indagine sugli stipendi dell'Istituto italiano di statistica (ISTAT). L'Indagine salariale ISTAT raccoglie gli stipendi di circa 600000 persone che lavorano in Italia. L'indagine salariale suddivide gli stipendi dei lavoratori in 10 diverse categorie, dalla più bassa alla più alta. Nel sondaggio, un data scientist potrebbe essere classificato nella 6° categoria, che comprende gli stipendi compresi tra 18000 e 43000 euro. Il sondaggio mostra che lo stipendio di un data scientist in Italia è aumentato negli ultimi 10 anni del 22%. Chi è il data scientist? I data scientist sono persone che hanno un background informatico e sono in grado di utilizzare strumenti statistici per estrarre informazioni dai dati. Il lavoro di un data scientist non è un singolo compito, ma un insieme di compiti diversi. Il primo compito di un data scientist è raccogliere dati. Il data scientist raccoglie i dati da molte fonti diverse. Il data scientist deve verificare la qualità dei dati. Il secondo compito di un data scientist è pulire i dati. Il data scientist deve verificare la qualità dei dati, rimuovere i valori anomali, correggere gli errori, controllare la coerenza dei dati e assicurarsi che tutti i dati siano nello stesso formato. Il terzo compito di un data scientist è organizzare i dati. Il data scientist deve organizzare i dati in modo che possano essere utilizzati da strumenti statistici. Il quarto compito di un data scientist è esplorare i dati. Il data scientist deve esplorare i dati e utilizzare strumenti statistici per estrarre informazioni dai dati. Il quinto compito di un data scientist è analizzare i dati. Il data scientist deve analizzare i dati ed estrarre informazioni dai dati significanti per lo sviluppo di modelli e previsioni. Il sesto compito di un data scientist è creare uno o più modelli per tentare di fare previsioni o cercare correlazioni. Il settimo compito di un data scientist è comunicare i risultati. Il data scientist deve comunicare i risultati al cliente e spiegarli alle persone che utilizzeranno i dati. L'ottavo compito di un data scientist è gestire il progetto. Il data scientist deve gestire il progetto e gestire le persone coinvolte nel progetto. Quanto guadagna un data scientist in Italia? Lo stipendio medio di un data scientist in Italia è di circa 35000 euro all'anno. Ma questo può variare molto in base agli anni di esperienza, titoli di studi e dimensioni dell'azienda. Lo stipendio medio di un data scientist è cresciuto negli ultimi 10 anni del 22%. Se andiamo però a vedere ricerche su campioni più piccoli, notiamo che attualmente un data scientist in Italia guadagna di media : Quindi ricapitolando , in Italia non ci sono dati ufficiali sullo stipendio medio dei data scientist, ma ci sono molti studi che lo stimano. In particolare, nel 2022, lo stipendio dei data scientist in Italia è stato stimato intorno ai 35.000 euro. I data scientist sono solitamente assunti nel settore IT, che è un settore importante in Italia. Tuttavia, non sono assunti solo in questo settore. I data scientist sono assunti in tutti i settori, dalla pubblica amministrazione alle aziende private, dagli ospedali alle università. Quanto guadagna un senior data scientist in Italia? Lo stipendio medio per un data scientist in Italia è di € 35.000 all'anno o € 17,95 all'ora. Lo stipendio annuo per le posizioni junior data scientist è di € 32.250, mentre i dipendenti senior data scientist possono guadagnare fino a € 70.500. Quanto guadagna un data scientist fuori dall'Italia? "Negli Stati Uniti, lo stipendio medio per i data scientist è di 43.400 dollari, mentre lo stipendio medio per un ingegnere informatico è di 38.000 dollari". "In India, lo stipendio medio per i data scientist è di 11.000 dollari, mentre lo stipendio medio per un ingegnere informatico è di 9.800 dollari". "In Cina, lo stipendio medio per i data scientist è di 2.800 dollari, mentre lo stipendio medio per un ingegnere informatico è di 2.500 dollari". "In Germania, lo stipendio medio per i data scientist è di 28.800 euro, mentre lo stipendio medio per un ingegnere informatico è di 25.500 euro". "In Francia, lo stipendio medio per i data scientist è di 33.000 euro, mentre lo stipendio medio per un ingegnere informatico è di 30.000 euro". "In Spagna, lo stipendio medio per i data scientist è di 29.200 euro, mentre lo stipendio medio per un ingegnere informatico è di 25.500 euro". "In Giappone, lo stipendio medio per i data scientist è di 45.500 euro, mentre lo stipendio medio per un ingegnere informatico è di 35.000 euro". "In Brasile, lo stipendio medio per i data scientist è di 19.000 dollari, mentre lo stipendio medio per un ingegnere informatico è di 17.000 dollari". "In Corea del Sud, lo stipendio medio per i data scientist è di 26.500 dollari, mentre lo stipendio medio per un ingegnere informatico è di 24.500 dollari". "In Australia, lo stipendio medio per i data scientist è di 51.000 dollari, mentre lo stipendio medio per un ingegnere informatico è di 45.000 dollari".

  • Creare un sistema di raccomandazione notizie con Python

    Un sistema di raccomandazione è un'applicazione popolare della Data Science. Quasi tutti i siti Web popolari che visiti utilizzano sistemi di raccomandazione. Come suggerisce il nome, un sistema di raccomandazione di notizie è un'applicazione che consiglia articoli di notizie in base alle notizie che un utente sta già leggendo. Quindi, se vuoi imparare come creare un sistema di raccomandazione di notizie, questo articolo è per te. In questo articolo, ti illustrerò come creare un sistema di raccomandazione di notizie utilizzando Python. Introduzione ai sistemi di raccomandazione Negli ultimi decenni, con l'ascesa di Youtube, Amazon, Netflix e molti altri servizi web simili, i sistemi di raccomandazione hanno preso sempre più posto nelle nostre vite. Dall'e-commerce (suggerire agli acquirenti articoli che potrebbero interessarli) alla pubblicità online (suggerire agli utenti i contenuti giusti, abbinandoli alle loro preferenze), i sistemi di raccomandazione sono oggi inevitabili nei nostri viaggi online quotidiani. In modo molto generale, i sistemi di raccomandazione sono algoritmi volti a suggerire elementi rilevanti agli utenti (oggetti come film da guardare, testo da leggere, prodotti da acquistare o qualsiasi altra cosa a seconda dei settori). I sistemi di raccomandazione sono davvero critici in alcuni settori in quanto possono generare un'enorme quantità di entrate quando sono efficienti o anche essere un modo per distinguersi in modo significativo dalla concorrenza. A riprova dell'importanza dei sistemi di raccomandazione, possiamo ricordare che, alcuni anni fa, Netflix ha organizzato una sfida (il "premio Netflix") in cui l'obiettivo era quello di produrre un sistema di raccomandazione che funzionasse meglio del proprio algoritmo con un premio di 1 milione di dollari da vincere. Come funziona un sistema di raccomandazione delle notizie? Quando visiti un sito Web, consiglia contenuti simili in base a ciò che stai già guardando o leggendo. La raccomandazione del contenuto basata sul contenuto che l'utente sta già consumando è una tecnica per creare un sistema di consigli noto come filtro basato sul contenuto. Tutti i siti Web di notizie popolari utilizzano sistemi di raccomandazione basati sui contenuti progettati per trovare somiglianze tra le notizie che stai leggendo e altri articoli di notizie sul loro sito Web per consigliare gli articoli di notizie più simili. Spero che ora tu abbia capito come funziona un sistema di raccomandazione delle notizie. Nella sezione seguente, ti illustrerò come creare un sistema di raccomandazione di notizie utilizzando il linguaggio di programmazione Python. Creare un sistema di raccomandazione notizie con Python Il set di dati che sto usando per creare un sistema di raccomandazione di notizie è di Microsoft. Poiché i dati richiedevano molta pulizia e preparazione, ho scaricato i dati e li ho preparati per creare un sistema di consigli basato sul contenuto. Ora iniziamo con l'importazione delle librerie Python necessarie e del set di dati di cui abbiamo bisogno per costruire un sistema di raccomandazione delle notizie: import numpy as np import as pd from sklearn.feature_extraction import text from sklearn.metrics.pairwise import cosine_similarity import plotly.express as px import plotly.graph_objects as go Nel caso non hai installato queste librerie in locale lancia questo comando sul terminale. #per python pip install numpy pandas sklearn plotly #per python >= 3 pip install numpy pandas sklearn plotly #per google colab pip install numpy pandas sklearn plotly ora carichiamo i dati data = pd.read_csv("/content/News.csv") print(data.head()) Output: ID News Category Title \ 0 N88753 lifestyle The Brands Queen Elizabeth, Prince Charles, an... 1 N45436 news Walmart Slashes Prices on Last-Generation iPads 2 N23144 health 50 Worst Habits For Belly Fat 3 N86255 health Dispose of unwanted prescription drugs during ... 4 N93187 news The Cost of Trump's Aid Freeze in the Trenches... Summary Unnamed: 4 Unnamed: 5 \ 0 Shop the notebooks, jackets, and more that the... NaN NaN 1 Apple's new iPad releases bring big deals on l... NaN NaN 2 These seemingly harmless habits are holding yo... NaN NaN 3 NaN NaN NaN 4 Lt. Ivan Molchanets peeked over a parapet of s... NaN NaN Unnamed: 6 Unnamed: 7 0 NaN NaN 1 NaN NaN 2 NaN NaN 3 NaN NaN 4 NaN NaN Non molto chiaro , ma abbiamo 4 colonne : ID News Categoria Titolo Riepilogo Diamo un'occhiata alle categorie di notizie in questo set di dati: categories = data["News Category"].value_counts() label = categories.index counts = categories.values figure = px.bar(data, x=label, y = counts, title="Types of News Categories") figure.show() Output: Esistono due modi per creare un sistema di raccomandazioni utilizzando questo set di dati: Se scegliamo la colonna Categoria notizie come feature che utilizzeremo per trovare somiglianze, i consigli potrebbero non aiutare ad attirare l'attenzione dell'utente per un periodo di tempo più lungo. Supponiamo che un utente stia leggendo notizie sugli sport in base a una partita di cricket e riceva consigli su altri sport come il wrestling, l'hockey, il calcio ecc., che potrebbero essere inappropriati in base al contenuto che l'utente sta leggendo. L'altro modo è utilizzare il titolo o il riepilogo come funzionalità per trovare somiglianze. Fornirà consigli più accurati poiché il contenuto consigliato sarà basato sul contenuto che l'utente sta già leggendo. Quindi possiamo utilizzare il titolo o il riepilogo dell'articolo di notizie per trovare somiglianze con altri articoli di notizie. Qui userò la colonna del titolo. Se desideri utilizzare la colonna di riepilogo, elimina prima le righe con valori nulli, poiché la colonna di riepilogo contiene più di 5000 valori nulli. Di seguito è riportato come possiamo trovare somiglianze tra gli articoli di notizie convertendo i testi della colonna del titolo in vettori numerici e quindi trovando somiglianze tra i vettori numerici utilizzando l'algoritmo di similarità del coseno: feature = data["Title"].tolist() tfidf = text.TfidfVectorizer(input=feature, stop_words="english") tfidf_matrix = tfidf.fit_transform(feature) similarity = cosine_similarity(tfidf_matrix) Ora imposterò la colonna del titolo come indice dei dati in modo da poter cercare consigli sui contenuti fornendo il titolo come input: indices = pd.Series(data.index, index=data['Title']).drop_duplicates() Di seguito è riportato come creare un sistema di suggerimenti per le notizie: def news_recommendation(Title, similarity = similarity): index = indices[Title] similarity_scores = list(enumerate(similarity[index])) similarity_scores = sorted(similarity_scores, key=lambda x: x[1], reverse=True) similarity_scores = similarity_scores[0:10] newsindices = [i[0] for i in similarity_scores] return data['Title'].iloc[newsindices] Ora vediamo come usare questa magica funzione per ottenere suggerimenti sulla base di un titolo dato come input : print(news_recommendation("Walmart Slashes Prices on Last-Generation iPads")) Output: 1 Walmart Slashes Prices on Last-Generation iPads 2132 CEO slashes own salary to pay employees $70K 9377 Meet the Next Generation of Texas Pit Masters 15042 Gas Prices Drop Across Michigan 4511 Next-generation Kia Optima spied for the first... 6108 Six pack abs are the biggest scam of our gener... 10469 Kirby Corp. profits rise as it slashes manufac... 3131 NASA to show world next generation spacesuit d... 5240 10 Amazing Things at Walmart You Can't Buy Any... 7261 How To Judge The Prices Of Collector Cars Name: Title, dtype: object Ecco come puoi creare un sistema di raccomandazione di notizie usando il linguaggio di programmazione Python. Riepilogo su come Creare un sistema di raccomandazione notizie con Python Tutti i siti Web di notizie popolari utilizzano sistemi di raccomandazione basati sui contenuti progettati per trovare somiglianze tra le notizie che stai leggendo e altri articoli di notizie sul loro sito Web per consigliare gli articoli di notizie più simili. Spero che questo articolo ti sia piaciuto su come creare un sistema di raccomandazione di notizie usando Python. Sentiti libero di porre domande preziose nella sezione commenti qui sotto.

  • Le migliori piattaforme per creare chatbot gratis e non aggiornate al 2023

    Cosa è un chatBot ? Un chatbot è un software per computer che utilizza l'intelligenza artificiale (AI) per conversare con le persone, tramite input audio o di testo. I chatbot sono creati dai programmatori per replicare realisticamente il modo in cui gli esseri umani dialogano tra loro. I chatbot sono sempre più utilizzati dalle aziende per interagire con i clienti e vendere i loro prodotti. I chatbot di intelligenza artificiale offrono un valore aggiuntivo al marketing digitale dei marchi con la loro capacità di guidare gli acquirenti attraverso il funnel di vendita, mantenere le persone interessate dopo la vendita e dare personalità a un'attività specifica. Le migliori piattaforme di chatbot per le aziende 1. EBI.AI EBI.AI ha sviluppato la propria solida piattaforma di IA conversazionale, disponibile gratuitamente. Questo gruppo di esperti crea assistenti AI innovativi che aiutano le persone con una varietà di compiti, come la ricerca di ricette, la prenotazione di appuntamenti o biglietti e l'organizzazione di piani di viaggio al volo. Con assistenti AI che vanno ben oltre il tuo bot FAQ medio, EBI.AI crea nuove interazioni vocali e chat su tutti i canali. Puoi creare un AI helper online e le prime due settimane di utilizzo del sistema sono gratuite, quindi puoi testare come preferisci. 2. ProProfs Chat Connettiti, interagisci e converti con il software di chat dal vivo che funziona 24 ore al giorno, 7 giorni alla settimana. ProProfs Chat è stato creato pensando alle aziende che necessitano di vendite e servizi in tempo reale per i loro siti. Gli utenti possono utilizzare il programma per creare chatbot unici che automatizzano l'assistenza, convertono i lead e aumentano le vendite. ProProfs non richiede conoscenze di programmazione per creare chatbot. In pochi minuti, puoi personalizzare facilmente il flusso di conversazione. Crea inviti di chat pop-up, personalizza i saluti e includi tour dei prodotti. Invia benvenuti personalizzati o promozioni di prodotti personalizzate utilizzando il chatbot per coinvolgere i clienti in modo proattivo. 3. Chatfuel Chatfuel è un'altra piattaforma straordinaria e semplice da usare per la creazione di bot di Facebook senza programmazione. La piattaforma, fondata nel 2015, fornisce vari strumenti di modifica per personalizzare i tuoi chatbot e ti consente di creare regole di chat sull'interfaccia. Il bot utilizzerà l'elaborazione del linguaggio naturale (NLP) per interpretare e riconoscere le frasi e rispondere agli utenti con risposte preprogrammate. Un chatbot può essere utilizzato come rappresentante del servizio clienti, assistente per eventi o avatar personale. 4. MobileMonkey Sebbene MobileMonkey sia un'azienda digitale, interagisce con Chatfuel e Botsify nello spazio dei chatbot rivolgendosi agli utenti non tecnici. Sebbene MobileMonkey sia semplice da usare per i principianti, offre anche funzionalità avanzate che possono essere utilizzate per creare comportamenti complessi. Può, ad esempio, salvare la risposta della persona a una query in una variabile che può essere successivamente utilizzata nelle risposte del tuo bot. 5. Aivo Aivo è stata fondata nel 2012 in Argentina da un gruppo di imprenditori alla ricerca di un metodo per ridefinire il modo in cui le aziende comunicano con i propri clienti. Ora è una delle reti di chatbot AI più grandi e di maggior successo al mondo, con uffici in 9 paesi e oltre 120 milioni di interazioni in inglese, spagnolo e portoghese gestite a livello globale nel 2018. Visa, LG, Uber e General Motors sono tra la loro clientela . 6. Itsalive Questa start-up francese è diventata uno dei migliori chatbot AI di Facebook Messenger. Riconoscendo le parole chiave in Facebook, aiuta le aziende a ridurre il tempo necessario per rispondere alle domande più frequenti rispondendo direttamente utilizzando i chatbot. Quando necessario, puoi trasferire la conversazione a una persona, come con la maggior parte dei chatbot di intelligenza artificiale che valgono i loro soldi. 7. Imperson Imperson è un importante fornitore di chatbot sul posto di lavoro che funzionano con testo, audio, video, realtà aumentata e realtà virtuale su tutte le principali piattaforme di messaggistica. Il suo studio creativo completo crea, ospita e installa il tuo bot, oltre a fornire un'ampia dashboard di analisi con informazioni in tempo reale per aiutarti a ottimizzare le prestazioni. Inoltre tengono traccia delle prestazioni del tuo chatbot e le adattano secondo necessità in base al comportamento dell'utente. 8. Pandorabot Pandorabots è tra le piattaforme di hosting di chatbot più grandi e antiche del mondo, con oltre 300.000 chatbot installati sul sito, incluso il noto chatbot Mitsuku. I servizi basati su cloud di Pandorabots sono utilizzati da sviluppatori e aziende, comprese aziende Fortune 500 e marchi globali, per creare interfacce di conversazione per programmi e la base di codice Mitsuku può essere concessa in licenza e inclusa in altre app di chatbot. 9. Bold360 Bold360 sfrutta l'intelligenza artificiale per aiutare gli agenti a essere più efficienti e fornire conversioni senza interruzioni dai bot agli operatori come il servizio di agenti e bot più profondamente integrato del settore. Ha sviluppato e brevettato la propria tecnologia NLP per assistere i marchi nello sviluppo di chatbot in grado di cogliere le intenzioni dei consumatori senza l'uso di parole chiave. La sua IA conversazionale può decifrare il linguaggio complesso, richiamare il contesto di una conversazione e rispondere ai clienti in modo naturale. 10. Meya AI Meya AI ti aiuta a creare robot intelligenti, o "app cognitive", senza rimanere bloccato sui fondamenti. Il suo framework cognitivo include tutto ciò di cui hai bisogno per creare un bot AI e ti consente di creare, ospitare e addestrare la tua applicazione cognitiva/bot AI in un'unica posizione. Funziona perfettamente con app di terze parti e ti consente di far crescere semplicemente i tuoi bot per sfruttare le funzionalità più popolari. Facci sapere nei commenti se già utilizzi una di queste piattaforme e come ti trovi, il tuo commento potrebbe aiutare centinaia di lettori !

  • Prevedere i terremoti con Python e il Machine Learning

    In questo articolo, vedremo come creare un modello per l'attività di previsione dei terremoti utilizzando l'apprendimento automatico e il linguaggio di programmazione Python. La previsione dei terremoti è uno dei grandi problemi irrisolti nelle scienze della terra. Con l'aumento dell'uso della tecnologia, molte stazioni di monitoraggio sismico sono aumentate, quindi possiamo utilizzare l'apprendimento automatico e altri metodi basati sui dati per prevedere i terremoti. Prevedere i terremoti con Machine Python e il Machine Learning È risaputo che se si verifica un disastro in una regione, è probabile che si ripeta. Alcune regioni hanno frequenti terremoti, ma questo è solo un importo comparativo rispetto ad altre regioni. Quindi, prevedere il terremoto con data e ora, latitudine e longitudine dai dati precedenti non è una tendenza che segue come le altre cose, accade naturalmente. Inizieremo questa progetto " creare un modello per la previsione dei terremoti " importando le librerie Python necessarie: import numpy as np import pandas as pd import matplotlib.pyplot as plt Ora carichiamo e leggiamo il set di dati. Il set di dati che sto usando qui può essere facilmente scaricato qui , insieme al codice dell'articolo ! : data = pd.read_csv("database.csv") data.columns Output: Index(['Date', 'Time', 'Latitude', 'Longitude', 'Type', 'Depth', 'Depth Error', 'Depth Seismic Stations', 'Magnitude', 'Magnitude Type', 'Magnitude Error', 'Magnitude Seismic Stations', 'Azimuthal Gap', 'Horizontal Distance', 'Horizontal Error', 'Root Mean Square', 'ID', 'Source', 'Location Source', 'Magnitude Source', 'Status'], dtype='object') Vediamo ora le principali caratteristiche dei dati dei terremoti e creiamo un oggetto con queste caratteristiche, ovvero data, ora, latitudine, longitudine, profondità, magnitudo: data=data[['Date', 'Time', 'Latitude', 'Longitude', 'Depth', 'Magnitude']] data.head() Output: Poiché i dati non sono "formattati", è necessario ridimensionarli in base agli input del modello. Quindi, convertiamo la data e l'ora specificate nell'ora Unix che è in secondi e un numero. Questo può essere facilmente utilizzato come feature per la rete che abbiamo costruito: import datetime import time timestamp = [] for d, t in zip(data['Date'], data['Time']): try: ts = datetime.datetime.strptime(d+' '+t, '%m/%d/%Y %H:%M:%S') timestamp.append(time.mktime(ts.timetuple())) except ValueError: # print('ValueError') timestamp.append('ValueError') timeStamp = pd.Series(timestamp) data['Timestamp'] = timeStamp.values final_data = data.drop(['Date', 'Time'], axis=1) final_data = final_data[final_data.Timestamp != 'ValueError'] final_data.head() Output: Visualizzazione dati dei terremoti Ora, prima di creare il modello di previsione dei terremoti, visualizziamo i dati su una mappa del mondo che mostra una chiara rappresentazione di dove sarà maggiore la frequenza del terremoto: from mpl_toolkits.basemap import Basemap m = Basemap(projection='mill',llcrnrlat=-80,urcrnrlat=80, llcrnrlon=-180,urcrnrlon=180,lat_ts=20,resolution='c') longitudes = data["Longitude"].tolist() latitudes = data["Latitude"].tolist() #m = Basemap(width=12000000,height=9000000,projection='lcc', #resolution=None,lat_1=80.,lat_2=55,lat_0=80,lon_0=-107.) x,y = m(longitudes,latitudes) fig = plt.figure(figsize=(12,10)) plt.title("All affected areas") m.plot(x, y, "o", markersize = 2, color = 'blue') m.drawcoastlines() m.fillcontinents(color='coral',lake_color='aqua') m.drawmapboundary() m.drawcountries() plt.show() Output: Suddivisione del set di dati sui terremoti Ora, per creare il modello di previsione dei terremoti, dobbiamo dividere i dati in Xs e ys che verranno rispettivamente inseriti nel modello come input per ricevere l'output dal modello. Qui gli input sono TIMestamp, Latitude e Longitude e le uscite sono Magnitude e Depth. Dividerò xs e ys in treno e testerò con la convalida. Il set di allenamento contiene l'80% e il set di test contiene il 20%: X=final_data[['Timestamp', 'Latitude', 'Longitude']] y=final_data[['Magnitude', 'Depth']] from sklearn.cross_validation import train_test_split X_train, X_test, y_train, y_test=train_test_split(X, y, test_size=0.2, random_state=42) print(X_train.shape, X_test.shape, y_train.shape, X_test.shape) Output: (18727, 3) (4682, 3) (18727, 2) (4682, 3) Rete neurale per la previsione dei terremoti Ora creerò una rete neurale per adattare i dati del set di addestramento. La nostra rete neurale sarà composta da tre strati densi ciascuno con 16, 16, 2 nodi e riletti. Relu e softmax verranno utilizzati come funzioni di attivazione: from keras.models import Sequential from keras.layers import Dense def create_model(neurons, activation, optimizer, loss): model = Sequential() model.add(Dense(neurons, activation=activation, input_shape=(3,))) model.add(Dense(neurons, activation=activation)) model.add(Dense(2, activation='softmax')) model.compile(optimizer=optimizer, loss=loss, metrics=['accuracy']) return model Ora definirò gli iperparametri con due o più opzioni per trovare la soluzione migliore: from keras.wrappers.scikit_learn import KerasClassifier model = KerasClassifier(build_fn=create_model, verbose=0) # neurons = [16, 64, 128, 256] neurons = [16] # batch_size = [10, 20, 50, 100] batch_size = [10] epochs = [10] # activation = ['relu', 'tanh', 'sigmoid', 'hard_sigmoid', 'linear', 'exponential'] activation = ['sigmoid', 'relu'] # optimizer = ['SGD', 'RMSprop', 'Adagrad', 'Adadelta', 'Adam', 'Adamax', 'Nadam'] optimizer = ['SGD', 'Adadelta'] loss = ['squared_hinge'] param_grid = dict(neurons=neurons, batch_size=batch_size, epochs=epochs, activation=activation, optimizer=optimizer, loss=loss) Ora dobbiamo trovare il miglior adattamento del modello sopra e ottenere il punteggio medio del test e la deviazione standard del modello di miglior adattamento: grid = GridSearchCV(estimator=model, param_grid=param_grid, n_jobs=-1) grid_result = grid.fit(X_train, y_train) print("Best: %f using %s" % (grid_result.best_score_, grid_result.best_params_)) means = grid_result.cv_results_['mean_test_score'] stds = grid_result.cv_results_['std_test_score'] params = grid_result.cv_results_['params'] for mean, stdev, param in zip(means, stds, params): print("%f (%f) with: %r" % (mean, stdev, param)) Output: Best: 0.957655 using {'activation': 'relu', 'batch_size': 10, 'epochs': 10, 'loss': 'squared_hinge', 'neurons': 16, 'optimizer': 'SGD'} 0.333316 (0.471398) with: {'activation': 'sigmoid', 'batch_size': 10, 'epochs': 10, 'loss': 'squared_hinge', 'neurons': 16, 'optimizer': 'SGD'} 0.000000 (0.000000) with: {'activation': 'sigmoid', 'batch_size': 10, 'epochs': 10, 'loss': 'squared_hinge', 'neurons': 16, 'optimizer': 'Adadelta'} 0.957655 (0.029957) with: {'activation': 'relu', 'batch_size': 10, 'epochs': 10, 'loss': 'squared_hinge', 'neurons': 16, 'optimizer': 'SGD'} 0.645111 (0.456960) with: {'activation': 'relu', 'batch_size': 10, 'epochs': 10, 'loss': 'squared_hinge', 'neurons': 16, 'optimizer': 'Adadelta'} Nel passaggio seguente, i parametri best-fit vengono utilizzati per lo stesso modello per calcolare il punteggio con i dati di allenamento e i dati di test: model = Sequential() model.add(Dense(16, activation='relu', input_shape=(3,))) model.add(Dense(16, activation='relu')) model.add(Dense(2, activation='softmax')) model.compile(optimizer='SGD', loss='squared_hinge', metrics=['accuracy']) model.fit(X_train, y_train, batch_size=10, epochs=20, verbose=1, validation_data=(X_test, y_test)) [test_loss, test_acc] = model.evaluate(X_test, y_test) print("Risultato della valutazione sui dati del test : Perdita = {}, accuratezza = {}".format(test_loss, test_acc)) Risultato della valutazione sui dati del test: Perdita = 0,5038455790406056, accuratezza = 0,92417777017858995 Quindi possiamo vedere nell'output di cui sopra che il nostro modello di rete neurale per la previsione dei terremoti funziona bene. Spero che questo articolo ti sia piaciuto su come creare un modello di previsione dei terremoti con l'apprendimento automatico e il linguaggio di programmazione Python. Sentiti libero di porre le tue preziose domande nella sezione commenti qui sotto.

  • Cos'è la prompt engineering o ingegneria dei prompt ?

    Alex Shoop, un ingegnere di DataRobot ed esperto di progettazione di sistemi di intelligenza artificiale, ha condiviso alcune riflessioni al riguardo. "Penso che un aspetto importante della parte 'ingegnere' di 'prompt engineer' includerà il seguire le migliori pratiche come test robusti, risultati riproducibili e l'utilizzo di tecnologie sicure ", ha affermato. " ma facciamo un piccolo passo indietro, cosa è la prompt engineering o ingegneria dei prompt.... Cos'è la prompt engineering o ingegneria dei prompt ? L'ingegneria dei prompt è un concetto di elaborazione del linguaggio naturale (NLP) che implica la scoperta di input che producono risultati desiderabili o utili. Suggerire è l'equivalente di dire al Genio nella lampada magica cosa fare. In questo caso, la lampada magica è DALL-E, pronta a generare qualsiasi immagine desideriate. Lo sappiamo che è difficice immaginare l'esistenza di questo nuovo lavoro, ma al momento l'IA sta creando più opportunità che rischi Proprio come i desideri che esprimi possono rivoltarti contro, quando chiedi all'IA, il modo in cui esprimi ciò che deve fare può cambiare drasticamente l'output. E la parte più interessante? Il prompt non era una funzionalità sviluppata dagli esperti di intelligenza artificiale. Era una caratteristica emergente. In breve, sviluppando questi enormi modelli di apprendimento automatico, il prompt è diventato il modo in cui la macchina eseguiva gli input. Nessuno l'ha chiesto, è successo e basta! In un documento, nel 2021, i ricercatori di Stanford hanno evidenziato come i modelli basati su trasformatore siano diventati modelli fondamentali. A che serve la prompt engineering o ingegneria dei prompt ? La motivazione alla base dell'ingegneria dei prompt può essere difficile da capire alla lettera , quindi descriviamo l'idea con un esempio. Immagina di creare una piattaforma di consegna di cibo online e di possedere migliaia di immagini di verdure diverse da includere nel sito. L'unico problema è che nessuno dei metadati dell'immagine descrive quali verdure si trovano in quali foto. A questo punto, potresti manualmente ordinare noiosamente le immagini e posizionare le foto di patate nella cartella delle patate, le foto dei broccoli nella cartella dei broccoli e così via. Potresti anche far etichettare tutte le immagini attraverso un classificatore per ordinarle più facilmente ma, come scoprirai, addestrare il modello del classificatore richiede ancora dati etichettati. E di conseguenza il tuo lavoro manuale... Utilizzando l'ingegneria dei prompt, puoi scrivere un prompt basato su testo che ritieni produrrà i migliori risultati di classificazione delle immagini. Ad esempio, potresti dire al modello di mostrare " un'immagine contenente patate ". La struttura di questo prompt – o l'affermazione che definisce come il modello riconosce le immagini – è fondamentale per l'ingegneria del prompt. Scrivere il miglior prompt è spesso una questione di tentativi ed errori. In effetti, il prompt " un'immagine contenente patate" è abbastanza diverso da " una foto di patate" o " una raccolta di patate ". Una guida al Prompt Engineering Esistono molti fattori che potrebbero influenzare le prestazioni di un sistema basato su prompt, come la scelta del modello linguistico, il modo in cui viene formulato il prompt e se i parametri del modello linguistico sono ottimizzati o bloccati. Li discuterò in questa sezione. Si supponga di voler risolvere un'attività NLP utilizzando l'approccio di ingegneria dei prompt. Come puoi iniziare? Innanzitutto, classifichiamo le attività NLP in attività di classificazione e generazione di testo . Ti aiuterà in seguito nella selezione degli altri componenti. La classificazione del testo è, ad esempio, l'etichettatura degli argomenti, l'analisi del sentimento, il riconoscimento di entità con nome e l'inferenza del linguaggio naturale. La generazione di testo è, ad esempio, traduzione, riepilogo del testo e risposta a domande a dominio aperto. Scelta del modello linguistico per la Prompt Engineering Ci sono un certo numero di LM che sono stati proposti finora. Differiscono per struttura, obiettivo di formazione, dominio e lingua. Quale dovresti scegliere? Ecco i tre tipi popolari di LM, classificati in base al metodo di allenamento e alla direzionalità. Modelli linguistici: i LM da sinistra a destra vengono addestrati per prevedere il token successivo data una sequenza di token, da sinistra a destra, un token alla volta. I modelli linguistici formati in questo modo sono anche noti come modelli autoregressivi . I modelli linguistici LM da sinistra a destra sono stati dominanti fino a poco tempo fa con l'introduzione di modelli linguistici mascherati. Modelli: GPT-3 , GPT-2 , GPT-Neo Applicazione: classificazione e generazione di testi Modelli di linguaggio mascherato: a un modello di linguaggio mascherato (MLM) viene fornito un testo come input in cui sono mascherati diversi token. Viene quindi addestrato a prevedere correttamente queste posizioni mascherate. MLM è una variante dei modelli di codifica automatica , che si riferiscono a modelli che sono stati addestrati con sequenze di input danneggiate e tentano di ricostruire la sequenza originale. Uno dei modelli più popolari di questo tipo è BERT, che si basa su trasformatori bidirezionali. In generale, gli MLM sono più adatti per le attività di classificazione del testo rispetto agli LM da sinistra a destra. Il motivo è che le attività di classificazione del testo possono spesso essere formulate come testi cloze, in linea con l'obiettivo di formazione dei MLM. I modelli basati su BERT non sono adatti per attività di generazione di testo a causa del loro obiettivo di formazione, bidirezionalità e formato di output, che non sono ottimizzati per la generazione di testi. Tuttavia, diversi lavori hanno mostrato modi per utilizzare BERT per la generazione di testo, come i lavori di Chen et al. (2019) e Wang e Cho (2019) . Modelli: BERT , RoBERTa , ERNIE , e loro varianti. Applicazione: classificazione del testo Modelli di linguaggio codificatore-decodificatore: i modelli codificatore-decodificatore (noti anche come modelli da sequenza a sequenza) sono un'architettura comune per attività di generazione di testo condizionale come la traduzione automatica o il riepilogo del testo, in cui l'output non è una mappatura diretta dell'input ( Jurafsky e Martin, 2009) . I modelli di linguaggio codificatore-decodificatore possono essere naturalmente utilizzati per le attività di generazione del testo. Funzionano anche per compiti non di generazione che possono essere riformulati come problemi di generazione sotto forma di prompt. Ad esempio, estrazione di informazioni e risposta alle domande . Encoder-decodificatore LM: UniLM 1 , UniLM 2 , ERNIE-M , T5 , BART , MASS Applicazione: classificazione e generazione di testi Vediamolo in azione in un'altra applicazione di esempio: Codex Babylon . Codex Babylon è un'applicazione Typescript che utilizza BabylonJS per il rendering di una scena 3D. BabylonJS è un framework popolare per il rendering 3D. Codex Babylon fornisce un'interfaccia web per inserire comandi in linguaggio naturale per posizionare e manipolare oggetti in una scena 3D. I comandi vengono inviati a Codex per generare il codice che posiziona gli oggetti nella scena. Il codice viene quindi eseguito dall'app nel browser. Nell'animazione di seguito, vedi l'input del linguaggio naturale per creare e manipolare cubi, il codice BabylonJS generato da Codex e quindi l'output visualizzato direttamente nel browser. Esistono aziende che assumono prompt engineering? Ebbene si, come puoi vedere con i tuoi stessi occhi ci sono 4739 posizioni lavorative aperte! Conclusione sui Prompt engineering Non c'è dubbio che una l' ingegneria dei prompt ridefinirà il modo in cui guardiamo alla tecnologia, il modo in cui comunichiamo con i nostri dispositivi e abbasserà la barriera all'accesso alla tecnologia avanzata. Ciò consente all'IA di scrivere, creare e conversare. Ha un grande potenziale per creare una serie di opportunità commerciali e fare un passo da gigante verso una società ricca. Finirà per creare interruzioni e nuove opportunità di carriera come sottoprodotto di questi progressi. L'ingegneria tempestiva in un certo senso è il passo fondamentale verso la creazione delle carriere del futuro!

  • Videogiochi e intelligenza artificiale

    Mentre alcuni videogiochi sono dotati di un'IA poco brillante, altri portano le cose al livello successivo incorporando l'intelligenza artificiale che supera in astuzia il giocatore. In questo articolo vedremo i migliori videogiochi con intelligenza artificiale. Introduzione Videogiochi e intelligenza artificiale I mondi dei videogiochi hanno bisogno di qualcosa di più dei semplici giocatori. Hanno bisogno di nemici, alleati, civili e altro ancora. Gli NPC sono tutti guidati dall'intelligenza artificiale, che dice loro come agire, come rispondere e come rendere il mondo di gioco più simile a un luogo reale. Nonostante la sua crescente complessità, l'intelligenza artificiale è ancora molto carente rispetto agli esseri umani reali. La maggior parte dei videogiochi è troppo complessa perché l'IA possa coglierne veramente ogni parte, per non parlare di imparare, adattarsi o migliorare. Molti sviluppatori utilizzano scorciatoie e soluzioni alternative per migliorare le prestazioni dell'IA. Tuttavia, alcuni giochi possono davvero sorprendere i giocatori con quanto possa essere efficace, complessa e reattiva la loro Intelligenza artificiale. A cosa serve l'intelligenza artificiale nei Videogiochi? L'intelligenza artificiale nei videogiochi consiste nel creare giochi più reattivi, adattivi e stimolanti attraverso l'uso dell'intelligenza artificiale. E anche se gli accademici sostengono che l'IA dei giochi non è una vera IA ma semplicemente regole e scenari decisi dai programmatori, il clamore intorno alla tecnologia è in continua crescita da un po' di tempo. È diventato un concetto importante in molti giochi. Basta guardare Cortana in Halo (sì, Microsoft ha chiamato il suo assistente virtuale dopo questo personaggio e siamo qui per questo!). E questo non è l'unico gioco sull'intelligenza artificiale. Molti altri giochi (come Detroit: Becoming Human) ruotano principalmente attorno all'Intelligenza artificiale e agli androidi. Perché l'intelligenza artificiale è importante nei videogiochi? Con l'IA, i videogiochi sono in grado di fornire un'esperienza migliore ai loro giocatori. La creazione di sviluppi situazionali realistici per progredire nei giochi aggiunge eccitazione al gameplay. La crescente complessità nei giochi con l'IA assicura che i giocatori siano agganciati al gioco. Con l'ascesa di diversi dispositivi di gioco ( VR, tute da gioco, etc..), i giocatori si aspettano di vivere un'esperienza coinvolgente su vari dispositivi. I vantaggi dell'IA nei videogiochi: L'intelligenza artificiale porta un'enorme quantità di vantaggi all'industria dei giochi. Alcuni di questi sono: 1. I videogiochi diventano più intelligenti e realistici Utilizzando tecniche come il pattern learning, gli NPC nei giochi si evolvono mediante l'autoapprendimento dalle loro azioni. I giochi diventano anche piuttosto realistici perché interpretano e rispondono anche alle azioni del giocatore. Ci sono anche molti programmi che non necessitano di interfacce umane e sono in grado di creare mondi virtuali automaticamente. 2. Risparmia su costi e tempo Normalmente, lo sviluppo di un gioco richiede molto tempo e denaro da investire in esso. E non sei nemmeno sicuro di quanto bene il mercato accetterà il gioco. L'IA può aiutare a ridurre drasticamente il tempo necessario per costruire un gioco e risparmiare molte risorse che verrebbero spese per lo sviluppo del gioco. 3. Rende più facile per l'utente giocare L'uso dell'IA nei giochi aiuta a rendere i giochi più intuitivi. Oltre a questo, il gioco può utilizzare l'IA per capire l'abilità e l'esperienza dell'utente con il gioco e regolare il livello di difficoltà del gioco in tempo reale per abbinarlo. 4. Elimina la prevedibilità del videogioco Il gioco diventa imprevedibile quando viene utilizzato un comportamento non deterministico. Ciò significa che ciò che accade nel gioco non può nemmeno essere previsto dallo sviluppatore del gioco. Questo crea un'esperienza nuova e rinfrescante e aumenta la vita di gioco del gioco poiché il gioco non diventa prevedibile e noioso dopo averlo giocato alcune volte. L'Intelligenza Artificiale può creare videogiochi? Sì, può. L'intelligenza artificiale ha svolto un ruolo enorme nello sviluppo di videogiochi e nell'adattamento alle preferenze dei giocatori. La tecnica più comunemente usata per questo è l'apprendimento automatico. Fondamentalmente, potresti fare in modo che il sistema di intelligenza artificiale impari da molti giochi, crei rappresentazioni approssimative dei giochi e quindi proceda a ricombinare le conoscenze da queste rappresentazioni e utilizzare l'espansione concettuale per creare nuovi giochi. Storia dell'Intelligenza Artificiale nei videogiochi I videogiochi sono nati senza IA. Il primo gioco in assoluto è stato creato nel 1958 da William Higinbotham che ha lavorato al Brookhaven National Laboratory. Il gioco si chiama "Tennis for Two" ed è stato realizzato collegando un oscilloscopio a un computer analogico. Il primo gioco ad essere eseguito su un computer è stato Spacewar di Steve Russell del MIT. Spacewar è considerato il primo gioco per computer poiché è stato realizzato su computer mainframe PDP-1. Nessuno di questi due giochi includeva l'IA. Durante i primi giorni dei videogiochi, l'IA non era una caratteristica. Questo perché quei giochi sono relativamente semplici e per la maggior parte del tempo riguardavano il completamento tra persone reali. Nessun avversario del computer è stato aggiunto al gioco. Nel 1970, Atari pubblicò il primo videogioco arcade, "Computer Space". E fu solo allora che i game designer iniziarono il loro primo tentativo di incorporare l'IA nei loro giochi. Le IA sono state progettate principalmente per i giochi arcade con lo scopo di garantire che le persone continuassero a nutrire quarti nella macchina da gioco. (Tozour) Pong, Space Invaders e Donkey Kongerano tra i giochi seminali. Questi giochi venivano eseguiti con regole molto semplici e azioni con script. Gli agenti non avevano la capacità di prendere decisioni. A volte le decisioni erano progettate per essere prese in modo casuale in modo che i comportamenti apparissero più imprevedibili. Pertanto, la cosiddetta Intelligence è stata effettivamente codificata nel gioco e non è stata in grado di agire in fase di esecuzione. La prima IA è apparsa sotto forma di schemi memorizzati. Un esempio di tale IA codificata è il design degli alieni in "Space Invaders". In questo gioco, il giocatore deve sparare agli alieni prima che raggiungano la parte inferiore dello schermo. Il modo in cui questi alieni si muovono è pre-codificato nel gioco. Erano il modello memorizzato. Sono stati creati più giochi basati su questo tipo di IA, ma l'evoluzione dell'IA era appena iniziata. L'apparizione dell'avversario del computer in "Pong" ha fatto credere alla gente che il computer stesse pensando. Era anche considerata la prima vera intelligenza artificiale nei giochi. Il modo in cui va il gioco Pong ha reso impossibile lo script dei comportamenti di oggetti non umani. I paddle devono prendere decisioni in base alle azioni dei giocatori umani. Le decisioni potrebbero non essere così difficili da prendere: è un semplice calcolo di dove devono andare i paddle, ma questo ha fatto provare alle persone la stessa sensazione di giocare contro un vero giocatore umano. (Wexler) L'idea che ci fosse un Intelligenza Artificiale in PacMan era molto popolare nelle sale da gioco ai tempi. Questo classico gioco arcade fa credere al giocatore che i nemici nel gioco lo stiano inseguendo, ma non in modo rozzo. I fantasmi stanno inseguendo il giocatore (o eludendolo) in un modo diverso come se avessero una personalità individuale. Questo dà alle persone l'illusione di giocare contro 4 o 5 singoli fantasmi piuttosto che contro copie dello stesso computer nemico. Verso la fine degli anni '80, la mania dei videogiochi arcade stava cominciando a svanire. Con lo sviluppo dell'industria dei computer, i computer domestici sono diventati disponibili. I computer domestici e le console hanno guidato la nuova direzione dello sviluppo dei videogiochi. I nuovi giochi progettati per questi dispositivi sono diventati più complessi a causa della maggiore capacità dei moderni processori. Anche se è necessario applicare più risorse ai contenuti e prestazioni grafiche di qualità superiore, l'IA ha comunque trovato la propria necessità di svilupparsi. Durante gli anni '80 sono emersi rapidamente più generi di giochi. Il vecchio stile del design dell'IA non era aggiornato. I progettisti hanno dovuto trattare seriamente l'IA dei giochi. Un'intelligenza artificiale altamente competente e divertente era ciò che questo genere di gioco significa per i giocatori. Tale IA era impegnativa e aveva requisiti esigenti. Da allora, il design dell'IA nei giochi RTS è diventato eccezionale e si è sviluppato come un nuovo campo di ricerca. Half-Life di Valve Software ha ricevuto elogi per il suo design AI nel campo degli sparatutto in prima persona. SimCity è stata la prima a dimostrare il potenziale degli approcci alla vita artificiale ("A-LIFE"). Siamo ancora nell'evoluzione dell'IA di gioco. I videogiochi hanno fatto molta strada dagli anni '50, così come le tecniche di intelligenza artificiale che li accompagnano. Gli ultimi anni sono stati testimoni di idee sempre più nuove e metodi per l'IA dei giochi si sono uniti al processo di sviluppo del gioco. ORA VEDIAMO I MIGLIORI VIDEOGIOCHI CON INTELLIGENZA ARTIFICIALE. Migliori Videogiochi con intelligenza artificiale: Alien: Isolation's Xenomorph The Last Of Us Bioshock Infinite Star Wars: Republic Commando Dwarf Fortress Resident Evil 2 Stellaris Left 4 Dead 2 Half-Life Metal Gear Solid V Migliori Videogiochi con intelligenza artificiale n°10 I nemici di Metal Gear Solid V rispondono alle tattiche preferite del giocatore I giochi Metal Gear Solid hanno spesso un'intelligenza artificiale intelligente, rispetto ai loro tempi. Come giochi stealth, devono avere un'IA in grado di sfidare il giocatore. Tuttavia, l'intelligenza artificiale della serie è di gran lunga migliore in Metal Gear Solid V: The Phantom Pain . In The Phantom Pain , i giocatori hanno molti modi per completare ogni missione. Se fanno troppo affidamento sui soliti modi, l'IA implementerà contromisure. Se un giocatore spara costantemente ai nemici alla testa, i loro nemici inizieranno a indossare caschi più forti. Se i giocatori attaccano di notte, il nemico porterà più luci. Se i giocatori sparano a distanza, i soldati schiereranno i mortai. I nemici di Metal Gear Solid V sono inaspettatamente bravi a tenere un giocatore all'erta, costringendolo a cambiare tattica. Migliori Videogiochi con intelligenza artificiale n°9 L'IA di Half-Life è rivoluzionaria per l'epoca Per gli standard contemporanei, l'IA di Half-Life non è niente di speciale. Per gli standard del 1998, tuttavia, è notevole. Half-Life è stato celebrato per molte ragioni al suo lancio, ma l'intelligenza dei marines HECU è stata un grande punto di forza. Non si limitano a caricare verso il giocatore; si muovono come una vera unità militare. I marines dell'HECU si forniscono reciprocamente fuoco di copertura. Cercano di stanare Gordon Freeman con le granate. Si spostano persino da una copertura all'altra, limitando la frequenza con cui il giocatore può sparare. Queste cose sono tutte standard ora, ma data l'età di Half-Life , il comportamento esibito dai suoi nemici rimane rivoluzionario. Migliori Videogiochi con intelligenza artificiale n°8 L'IA di Left 4 Dead 2 controlla attentamente il gioco Left 4 Dead 2 ha una forte componente giocatore contro giocatore. Tuttavia, indipendentemente dal fatto che i giocatori si affrontino o stiano facendo una campagna cooperativa, L'IA è una presenza costante. L'IA sceglie quando e dove si generano i mob di nemici, quali oggetti sono disponibili per il giocatore e quanti Infetti Speciali devono affrontare. L'IA è straordinariamente capace in questo senso. È accuratamente bilanciato per mantenere i giocatori tesi e minacciati, piuttosto che affogarli con i nemici. Garantisce che non ci siano due playthrough di una singola campagna uguali. L'IA è intelligente e mantiene le cose abbastanza varie da lasciare i giocatori indovinare come funziona. Migliori Videogiochi con intelligenza artificiale n°7 L'intelligenza artificiale di Stellaris è notevole per essere funzionale I giochi di strategia presentano molti esempi di un'IA che non riesce a tenere il passo con i giocatori. Questi tipi di giochi sono abbastanza complessi e variabili che è quasi impossibile creare un'IA in grado di offrire una vera sfida. I giochi spesso devono compensare barando. A volte l'IA ottiene un vantaggio come informazioni aggiuntive, a volte è palese come risorse extra. Stellaris è uno dei giochi di strategia più complessi e ha un forte focus economico. I giocatori devono raccogliere risorse e poi convertirle in altre risorse, sviluppando il loro impero. L'IA non riesce a tenere il passo alla fine del gioco e si basa su bonus a difficoltà più elevate. Tuttavia, la sua capacità di gestirlo è una testimonianza per gli sviluppatori. L'IA riceve frequenti aggiornamenti per renderla ancora più capace, grazie alla Custodian Initiative di Paradox Entertainment. Migliori Videogiochi con intelligenza artificiale n°6 L'IA di Mr. X di Resident Evil 2 è paurosa La maggior parte dei nemici in Resident Evil 2 non sono molto intelligenti. Inciampano verso il giocatore, sperando solo di entrare nel raggio di mischia. Ha senso, dato che sono zombi. Tuttavia, tutto cambia con Mr. X . È una minaccia ricorrente durante il gioco, che insegue Leon Kennedy e Claire Redfield attraverso il dipartimento di polizia di Raccoon City. Mr. X di Resident Evil 2 tende a prendere il percorso diretto verso il giocatore e può essere facilmente kitato. Tuttavia, questo è solo per rendere il gioco sopravvissuto. Il comportamento generale del signor X come cacciatore è molto più sofisticato. Cerca metodicamente il giocatore se lo perde e risponde a rumori come spari o combattimenti. Osserverà persino uno zombi che feroce il giocatore, piuttosto che limitarsi a caricare e interrompere il combattimento. Migliori Videogiochi con intelligenza artificiale n°5 Dwarf Fortress modella la vita per i suoi numerosi personaggi La Dwarf Fortress è famigerata per la sua complessità. Il gioco replica accuratamente molte parti dell'ingegneria e della fisica, tutte al servizio di un gioco di strategia ASCII. La sua attenzione ai dettagli lo porta ad essere assolutamente realistico in alcune aree e completamente privo di senso in altre. I nani sono lo strumento del giocatore per portare a termine le cose, ma sono autonomi. Il giocatore non ha il controllo diretto. Invece, ogni nano ha una vita personale interiore complessa. Le loro preferenze, relazioni, umore e altro influenzano il loro comportamento e la funzionalità di una fortezza. I risultati non hanno sempre senso, ma Dwarf Fortress incorpora ancora una notevole quantità di dettagli per ogni personaggio Migliori Videogiochi con intelligenza artificiale n°4 Star Wars: Gli alleati di Republic Commando sono soldati eccellenti I nemici sono solitamente al centro dell'IA nei giochi. Sono essenziali per dare a un videogioco la sua sfida, quindi devono essere intelligenti e in grado di rispondere alle azioni del giocatore. Star Wars: Republic Commando mostra che altri NPC non dovrebbero essere trascurati. I suoi nemici sono più che competenti, ma i suoi cloni alleati sono straordinari. Il giocatore dà ordini alla Delta Squad mentre combattono e li realizzano straordinariamente bene. Combatteranno per raggiungere buone posizioni senza che il giocatore debba supervisionarli, reagire al pericolo o al rischio schiacciante e combattere per proteggere il giocatore se perde i sensi. Star Wars: Republic Commando fa sentire i giocatori come se fossero veramente parte di un'unità militare capace. Migliori Videogiochi con intelligenza artificiale n°3 Elizabeth di Bioshock Infinite si sente come una persona reale Elizabeth di Bioshock Infinite evita tutti i problemi con un compagno NPC essendo competente e utile in combattimento, scegliendo di non combattere direttamente al fianco del protagonista Booker DeWitt. Elizabeth usa i suoi poteri per ottenere munizioni e altri oggetti utili per Booker e glieli lancia. È un supporto inestimabile, anche quando il giocatore non la usa per evocare altre cose tramite Tears. L'IA fuori dal combattimento di Elizabeth è ancora più impressionante, comportandosi come una persona reale. Si muove con Booker come una compagna, non come una seguace, e reagisce agli eventi del gioco. Migliori Videogiochi con intelligenza artificiale n°2 The Last Of Us The Last of Us offre furtività e combattimento come opzioni e l'IA gestisce bene entrambi. I suoi nemici umanoidi possono eseguire la maggior parte degli stessi trucchi di Joel Miller in combattimento . Usano la copertura, si spostano in posizioni migliori per combattere e chiamano i loro alleati quando hanno inchiodato Joel. Di nascosto, non si rilassano mai completamente una volta che trovano Joel. La loro ricerca diventa più veloce e più difficile da prevedere. Non è tutto contro il giocatore, però. Ellie Williams è progettata per essere un utile compagno di intelligenza artificiale. In The Last of Us , Ellie sceglie posizioni ragionevoli in cui nascondersi durante il combattimento, si tiene fuori pericolo e può persino lanciare mattoni contro i nemici per dare a Joel un'apertura. Migliori Videogiochi con intelligenza artificiale n°1 Lo xenomorfo di Alien: Isolation è intelligente quanto quello del film Il punto di forza di Alien: Isolation è lo xenomorfo che perseguita il giocatore durante il gioco. È un mostro horror iconico dei film, il predatore perfetto. Il gioco riesce a ricreareil terrore dell'edificio di Alien , poiché il giocatore si rende conto di quanto sia intelligente un nemico contro cui devono confrontarsi . La caratteristica più impressionante dello xenomorfo è che impara. Diventa saggio per i trucchi del giocatore e li punisce. Se il giocatore usa troppo un certo nascondiglio, lo xenomorfo inizierà a controllare quel punto ogni volta. Se i giocatori usano gli stessi tipi di distrazioni troppo spesso, li ignorerà. Nel tempo, lo xenomorfo imparerà i limiti del lanciafiamme e costringerà il giocatore a sprecare carburante allontanandolo.

  • Migliori APP con intelligenza artificiale IA per android e ios

    In questo articolo vedremo le 10 Migliori APP con intelligenza artificiale IA per android e ios. Le aziende di qualsiasi dimensione e specializzazione devono affrontare una forte concorrenza quando entrano nel mercato delle app per android o ios . Questa situazione li spinge a seguire tutte le tendenze digitali emergenti per rimanere apprezzati. Comprendendo l'impatto significativo dell'intelligenza artificiale sul business, aziende leader come Amazon, eBay o Tinder utilizzano l'IA nelle loro app nella massima misura possibile per promuovere un'esperienza utente mobile personalizzata e aumentare i profitti. Le startup tendono anche a raccogliere più fondi per le integrazioni dell'IA, aprendosi così la strada verso un'elevata commerciabilità e competitività. Ogni anno sempre più app di intelligenza artificiale diventano virali e portano maggiori riconoscimenti e maggiori profitti ai loro proprietari. Alcune di queste app sono persino diventate indispensabili. Per aiutarti a scoprire cosa fa esattamente l'intelligenza artificiale per rendere le app mobili così popolari, in questo articolo forniamo 10 esempi di app di successo basate sull'intelligenza artificiale per piattaforme Android e iOS. Indice APP con intelligenza artificiale IA per android ios Intelligenza artificiale per l'esperienza mobile Le migliori app di intelligenza artificiale per iOS e Android : Strumenti per l'assistente vocale : Amazon Alexa Istruzione: ELSA Vendita al dettaglio: eBay Viaggio: Hopper Fintech: Cleo Salute mentale: Youper Incontri: Tinder Media e intrattenimento: Pandora Fotoritocco: Gradient Gioco: Dungeon AI Conclusione Migliori app IA INTELLIGENZA ARTIFICIALE PER L'ESPERIENZA MOBILE Tutti abbiamo uno smartphone e lo usiamo svariate ore al giorno. Per sfruttare tutti i vantaggi di questi sistemi e favorire la crescita del business, gli imprenditori scelgono di passare al mobile. Sebbene i tipi di app di intelligenza artificiale non si limitino a chatbot e assistenti vocali, l'IA conversazionale rimane la più popolare in termini di utilizzo mobile. Altre integrazioni di intelligenza artificiale utilizzate di frequente riguardano la capacità dei sistemi di prevedere le ulteriori azioni dell'utente dalle interazioni passate. Queste interazioni consentono di aumentare la soddisfazione degli utenti fornendo ciò che gli utenti desiderano prima ancora che lo richiedano. Tali sistemi forniscono anche consigli su prodotti o servizi in base al comportamento dell'utente in un'applicazione. Considerando questi usi popolari dell'intelligenza artificiale, abbiamo creato il nostro elenco di 10 app Android AI e soluzioni mobili per iOS. LE MIGLIORI APP DI INTELLIGENZA ARTIFICIALE PER IOS E ANDROID Sulla base delle valutazioni nell'App Store e nel Google Play Store , abbiamo selezionato 10 app mobili che appartengono a vari settori di attività per mostrare come diversi settori traggono vantaggio dalle implementazioni dell'IA. Questo elenco include le app create da aziende di tendenza di fama mondiale, nonché le applicazioni che hanno guadagnato una grande popolarità di recente e continuano a detenere posizioni forti sul mercato fino ad oggi. Ora iniziamo con la nostra valutazione. 1. Strumenti per l'assistente vocale : Amazon Alexa Un'app mobile per questo famoso assistente virtuale creata da Amazon consente agli utenti di godere di tutti gli aspetti delle funzionalità di infotainment, pianificazione e pianificazione. Con il riconoscimento vocale, l'app aiuta gli utenti a manipolare altri dispositivi alimentati da Alexa come utenze domestiche intelligenti, tablet, TV, dispositivi indossabili, automobili, ecc. dal telefono. Converte il parlato in testo e utilizza il linguaggio Wolfram per fornire risposte accurate alle domande poste. Sempre più persone affidano i loro compiti di routine a questo assistente personale , facendo sì che la società Amazon ottenga profitti da record ogni nuovo trimestre. Gamma di funzioni: creazione di elenchi, impostazione di allarmi e promemoria, ordinazione di prodotti, streaming audio, messaggistica e chiamata, navigazione di informazioni e molti altri. Implementazioni chiave dell'IA: riconoscimento vocale, tecnologia Wolfram per la raccolta di dati e la risposta alle domande, ecc. 2. Istruzione: ELSA ELSA speak è un allenatore di lingua inglese assistito da bot principalmente volto a ridurre l'accento. L'app apprende dai dati vocali. Utilizza la tecnologia di riconoscimento vocale per ascoltare gli accenti degli studenti e definisce la “qualità” delle parole pronunciate con il colore rosso, giallo e verde secondo le regole della pronuncia dell'inglese americano. Quando il frammento vocale viene analizzato, l'app presenta suggerimenti audio sul posizionamento di bocca e lingua per una migliore articolazione. Gamma di funzionalità: monitoraggio dei progressi, valutazioni delle competenze linguistiche, curriculum di pratica personalizzato, lezioni, vocabolario, ecc. Principali implementazioni dell'IA: riconoscimento vocale, machine learning. 3. Vendita al dettaglio: eBay Il sistema eBay utilizza al massimo i poteri dell'intelligenza artificiale per offrire agli utenti un'esperienza di acquisto conveniente. Questa app per lo shopping è programmata per comprendere il contesto della ricerca del cliente e offrire un elenco completo di beni rilevanti, riducendo il tempo di ricerca a pochi secondi e aumentando la soddisfazione del cliente. La visione artificiale aiuta l'app a trovare l'elemento richiesto dalla foto che un utente ha aggiunto per una richiesta di ricerca. Inoltre, l'apprendimento automatico consente ai venditori di scoprire e confrontare i costi correnti di beni specifici per aiutarli a vendere i prodotti più velocemente. Gamma di funzionalità: liste della spesa, carrello, valutazioni e recensioni, lista dei desideri, notifiche, sistema di messaggistica, supporto per file multimediali, sistema di pagamento, ecc. Principali implementazioni dell'IA: visione artificiale, traduzione, apprendimento automatico, elaborazione del linguaggio naturale. 4. Viaggio: Hopper Le capacità predittive di questa applicazione di prenotazione aiutano milioni di utenti a ottenere informazioni dettagliate sui costi di camere d'albergo , voli e noleggio auto fino a 1 anno in anticipo. Non appena un utente inserisce la destinazione richiesta, l'app presenta informazioni sulle tariffe, le date di viaggio più convenienti e può prevedere se è probabile che i prezzi per il viaggio specifico aumenteranno o diminuiranno in futuro. In base alla ricerca e alle preferenze dell'utente, fornisce notifiche intelligenti sulla modifica dei prezzi per le offerte visualizzate. Queste caratteristiche hanno reso Hopper indispensabile per tutti i viaggiatori nella ricerca di viaggi economici. Gamma di funzionalità: ricerca voli e hotel, calendario, sistema di notifica, filtri, consigli di viaggio personalizzati, assistenza clienti, ecc. Implementazioni chiave dell'IA: apprendimento automatico. 5. Fintech: Cleo Cleo ha ottenuto il titolo di migliore app per l'assistente al budget del 2019 grazie all'elevata efficacia e al senso dell'umorismo. Oltre a fornire agli utenti informazioni sui loro conti bancari, denaro speso e lasciato, calcolo delle spese o condivisione di suggerimenti per risparmiare denaro, un chatbot ha le modalità distintive cosiddette "torrefazione" e "tifare". Usando un comando speciale "Roast me" e simili, una persona riceve una lezione da un chatbot sullo spreco di denaro. Gli utenti possono anche chiedere un po' di coraggio quando stanno finendo i soldi. Gamma di funzionalità: mantenimento delle spese, impostazione degli obiettivi, calcolatore dell'accessibilità, premi cashback, giochi e quiz settimanali, grafici, crittografia SSL, ecc. Implementazioni chiave dell'IA: assistente chatbot. 6. Salute mentale: Youper Poiché sempre più persone tendono a creare un legame psicologico tra loro e i loro dispositivi mobili, app come Youper sono diventate molto popolari nei negozi. Youper è un assistente di salute mentale che utilizza i poteri dell'IA per conversazioni empatiche, di supporto e private e pratiche di consapevolezza. Durante le conversazioni, un chatbot offre agli utenti varie tecniche psicologiche per aiutarli a superare le lotte emotive. Questa piattaforma attraente e di facile utilizzo funge anche da strumento aggiuntivo nella terapia professionale della salute mentale. Gamma di funzionalità: valutazioni della personalità, monitoraggio dell'umore, test dello stato emotivo, esercizi per praticare la gratitudine e la consapevolezza nei formati audio e fotografici, ecc. Implementazioni chiave dell'IA: terapista chatbot. 7. Incontri: Tinder Nel 2020, Tinder ha ampliato il suo potenziale di intelligenza artificiale introducendo una nuova funzionalità nell'app, oltre agli algoritmi di corrispondenza e agli swipe Super Like. In precedenza, i creatori di Tinder si impegnavano ad analizzare i dati e il comportamento degli utenti per trovare una corrispondenza potenzialmente perfetta. Man mano che più casi di molestie sessuali vengono associati agli appuntamenti online, in particolare per le donne, l'attenzione si è estesa ai problemi di sicurezza. Entro quest'anno, l'azienda prevede di implementare una moderazione dei messaggi utilizzando le capacità dell'IA. Poiché gli utenti hanno una comprensione diversa del contenuto appropriato o inappropriato , il compito dell'IA è rilevare messaggi potenzialmente offensivi e chiedere all'utente qual è il loro atteggiamento nei loro confronti . Pertanto, il sistema eliminerà i contenuti indesiderati per ciascun utente individualmente. Gamma di funzionalità: profili, caricamento di foto, messaggistica, scorrimento, Super Mi piace, ecc. Implementazioni chiave dell'IA: apprendimento automatico, riconoscimento di immagini e testo. 8. Media e intrattenimento: Pandora Sebbene il servizio di streaming musicale Pandora sia in attività già da 20 anni, solo di recente ha preso il 3° posto tra le app AI per lo streaming radiofonico per iPhone . Il mix di musicologia e data science ha permesso di produrre l'app che analizza le abitudini di ascolto degli utenti e fornisce loro le canzoni che esattamente vogliono ascoltare in quel momento. Utilizzando la modalità vocale, gli amanti della musica possono ottenere il brano desiderato anche se le loro richieste sono vaghe, ad esempio: "Suona qualcosa per me" o "Ascoltiamo qualcosa di nuovo". Per adattarsi a qualsiasi stato d'animo di una persona, il sistema di intelligenza artificiale scompone ogni brano musicale nei più piccoli attributi per comprendere lo stato d'animo della canzone. I creatori dell'app hanno chiamato questa funzione "Music DNA". Gamma di funzionalità: modalità Pandora personalizzate per musica ordinata, podcast, consigli contestuali, raccolte musicali, servizio di download, playlist, ecc. Principali implementazioni dell'IA: riconoscimento vocale e vocale, machine learning, un assistente Voice Mode. 9. Fotoritocco: Gradient L'intelligenza artificiale ha reso Gradient un'app virale negli ultimi mesi del 2019. È stata l'app Gradient a causare l'esplosione di immagini simili a celebrità pubblicate su ogni piattaforma di social media da migliaia di persone, comprese le celebrità stesse. Sebbene il clamore su questa funzione sia cessato, questo editor di foto rimane popolare per gli effetti che offrono agli utenti di modificare i propri scatti con le funzionalità di pittura basate sull'intelligenza artificiale. Gamma di funzioni: filtri, strumenti di editing, effetti speciali, ecc. Principali implementazioni dell'IA: riconoscimento facciale, riconoscimento delle immagini. 10. Giochi: AI Dungeon Ispirato dal famoso sistema di gioco di ruolo Dungeons & Dragons, uno studente universitario dello Utah Nick Walton ha creato un gioco di avventura virale, lavorando nel suo dormitorio. La caratteristica distintiva del gioco è la libertà: un utente è colui che sceglie la propria strada nel gioco. Il gioco è basato sul sistema di produzione del testo OpenAI che genera un numero illimitato di scenari per un'avventura. Fondamentalmente, un utente può fare tutto ciò che può essere mai espresso a parole usando la sua immaginazione. Questo fatto ha reso l'app molto popolare e ora produce oltre 70.000 storie al giorno per i suoi fan. Gamma di funzionalità: storie di testo uniche generate dall'IA. Implementazioni chiave dell'IA : reti neurali artificiali, deep learning. CONCLUSIONE Le applicazioni incluse nel nostro elenco mostrano che l'adozione dell'intelligenza artificiale nelle soluzioni mobili aiutano aziende a raggiungere diversi obiettivi, ad esempio: creare un'esperienza utente più personalizzata; studiare i modelli di comportamento degli utenti per fornire un servizio migliore; garantire un servizio più rapido con capacità predittive; aumentare il coinvolgimento degli utenti in base ai dati analizzati; gestire problemi di sicurezza, ecc. Una volta implementata nella tua app, l'intelligenza artificiale si occupa della fidelizzazione degli utenti per te. Le tecnologie intelligenti consentono di ridurre i tempi di studio del pubblico, di definire le sue preferenze e di diminuire le spese rispetto ai metodi tradizionali di ricerca degli utenti.

  • Esempio pratico Rilevamento Di Veicoli In Tempo Reale con il Deep Learning , Python e OpenCV

    In questo articolo, ti mostreremo come esguire il rilevamento dei veicoli in tempo reale con Python utilizzando la libreria OpenCV , il classificatore preaddestrato e in poche righe di codice. Perchè rilevare Veicoli con Python ? Il rilevamento dei veicoli in tempo reale è una delle tante applicazioni del rilevamento degli oggetti , per cui si concentra sul rilevamento delle auto all'interno di un'immagine insieme alle coordinate della posizione. In che progetti di deep learning è utilizzato? il rilevamento dei veicoli insieme al rilevamento della strada è molto applicato sulle auto a guida autonoma, affinché un'auto possa navigare in sicurezza lungo la strada, deve sapere dove sono posizionate le altre auto in modo da evitare una collisione. Anche il rilevamento dei veicoli viene utilizzato nei sistemi di sorveglianza del traffico in modo tale da poter rilevare il traffico in base al numero di veicoli e utilizzare tali dati per gestirlo e controllarlo. Sei pronto al tutorial sul rilevamento di autoveicoli con Python? In questo tutorial, impareremo come eseguire il rilevamento dei veicoli in tempo reale in un video o dai flussi di telecamere utilizzando OpenCV e un modello pre-addestrato. Requisiti Per poter seguire questo tutorial senza problemi ti lasciamo gli stessi file da noi utilizzati OpenCV ( vedremo nel passaggio dopo come istallarlo ) Modello preaddestrato Video dimostrativo Alla fine dell'articolo potrai scaricare l'intero progetto python per il Rilevamento Di Veicoli In Tempo Reale installazione Libreria Se non sai perchè utilizzeremo python, clicca qui Se non hai ancora installato Python, clicca qui Se non sai come scaricare e gestire le librerie, clicca qui Se non sai cosa sia un Dataset, clicca qui Se già conosci questi concetti usa questo comando per istallare la libreria $ pip install opencv-python $ pip3 install opencv-python # per python >=3 Classificatore pre-addestrato per il rilevamento di veicoli Come ho spiegato in precedenza, non addestreremo il nostro modello per individuare da zero le auto nei fotogrammi video, ma ne useremo uno pre-addestrato. Questi classificatori a cascata addestrati vengono solitamente archiviati nel formato XML, quindi dovresti scaricare il sistema a cascata che è stato addestrato per rilevare le auto e averlo nella directory del progetto. Video dimostrativo con le auto Puoi effettivamente utilizzare qualsiasi video che desideri purché contenga auto, il modello sarà in grado di rilevarle. Se già sei esperto in questo campo potresti divertirti a farlo in streaming da remoto. Installando un app sul telefonino che funga da IP-CAMERA e collegandoti tramite opencv, ti basterebbe poggiare il telefono in modo che riprenda la strada mentre guidi e tornato a case esaminare o creare un progetto ad hoc al tuo caso. Directory del progetto Rilevamento Di Veicoli In Tempo Reale La directory del tuo progetto dopo aver scaricato gratuitamente dovrebbe essere simile a questa ├── app.py ├── cars.mp4 └── haarcascade_car.xml Diamoci da fare Ora iniziamo a costruire ciò di cui abbiamo appena parlato, utilizzando il modello XML e il video dimostrativo nella directory del progetto. Carichiamo il nostro modello utilizzare cv2.CascadeClassifier() per caricare il modello haarcascade addestrato come mostrato nel codice sottostante. import cv2 cars_cascade = cv2.CascadeClassifier('haarcascade_car.xml') Rilevare le auto in un video con Python utilizzeremo il metodo detectMultiScale() per rilevare e ottenere le coordinate dei veicoli nei frame video. Il metodo detectMultiScale () riceve 3 parametri per fornire effettivamente le tue coordinate come mostrato di seguito Immagine in scala di grigi fattore di scala minVicini Immagine in scala di grigi specifica l'immagine da elaborare, nel nostro caso un'immagine in scala di grigi sarà un'immagine recuperata dai flussi video. ScaleFactor specifica di quanto viene ridotta la dimensione dell'immagine ad ogni scala dell'immagine, puoi saperne di più qui, un buon valore è per lo più scelto come 1.05 minNeighbors specifica quanti vicini dovrebbe avere ogni rettangolo candidato per mantenerlo, questo parametro influenzerà la qualità delle facce rilevate. Un valore più alto si traduce in un minor numero di rilevamenti, ma con una qualità più elevata di solito, 3-6 è un buon valore per questo Codice Python per rilevare le auto + le loro coordinate di posizione Quando esegui la riga di codice qui sotto, eseguirà il rilevamento delle auto nell'immagine del frame e quindi ci restituirà tutte le coordinate delle auto trovate (punto coordinate diagonali). cars = cars_cascade.detectMultiScale(frame, scaleFactor, minNeighbors) Disegnare un rettangolo attorno alle auto rilevate Dopo aver rilevato tutte le coordinate di tutte le auto in un frame, disegnamo un rettangolo attorno ad esso per consentirci di vedere visivamente il processo di rilevamento. Useremo il metodo cv2.rectangle() per disegnare un rettangolo attorno a ogni auto rilevata usando i punti di coordinate diagonali restituiti dal nostro classificatore a cascata. Codice per utilizzare il metodo cv2.rectangle() ​ cv2.rectangle(frame , point1, point2, color = (), thickness=value) Scriviamo una funzione per eseguire tutto il processo di rilevamento Dobbiamo condensare ciò che abbiamo appena appreso e metterlo in un'unica funzione che riceve i frame dell'immagine e quindi disegna rettangoli attorno ad essa utilizzando le coordinate rilevate proprio come mostrato di seguito. def detect_cars(frame): cars = cars_cascade.detectMultiScale(frame, 1.15, 4) for (x, y, w, h) in cars: cv2.rectangle(frame, (x, y), (x+w,y+h), color=(0, 255, 0), thickness=2) return frame Scriviamo una funzione per effettuare il processo di rilevamento su un video infine aggiungiamo una singola funzione per simulare l'intero processo dal caricamento del video, per eseguire il rilevamento del veicolo chiamando la funzione detect_cars e quindi eseguire il rendering di un frame con i veicoli rilevati sullo schermo. def Simulator(): CarVideo = cv2.VideoCapture('cars.mp4') while CarVideo.isOpened(): ret, frame = CarVideo.read() controlkey = cv2.waitKey(1) if ret: cars_frame = detect_cars(frame) #se stai programmando in locale #cv2.imshow('frame', cars_frame) #se usi colab cv2_imshow(cars_frame) else: break if controlkey == ord('q'): break Aggiungi queste due righe in modo da assicurarci di eseguire il nostro codice Python come script. Simulator() Mettiamo tutto insieme Ora sappiamo come eseguire ogni parte indipendente del nostro script di rilevamento, è ora di metterli insieme in modo da poterlo eseguire. Una volta che hai messo tutto il concetto che abbiamo imparato sopra in un app.py , il tuo codice apparirà come mostrato di seguito from google.colab.patches import cv2_imshow #Se usi Google Colab import cv2 cars_cascade = cv2.CascadeClassifier('haarcascade_car.xml') def detect_cars(frame): cars = cars_cascade.detectMultiScale(frame, 1.15, 4) for (x, y, w, h) in cars: cv2.rectangle(frame, (x, y), (x+w,y+h), color=(0, 255, 0), thickness=2) return frame def Simulator(): CarVideo = cv2.VideoCapture('cars.mp4') while CarVideo.isOpened(): ret, frame = CarVideo.read() controlkey = cv2.waitKey(1) if ret: cars_frame = detect_cars(frame) #se stai programmando in locale #cv2.imshow('frame', cars_frame) #se usi colab cv2_imshow(cars_frame) else: break if controlkey == ord('q'): break CarVideo.release() cv2.destroyAllWindows() Simulator() Siamo arrivati ​​alla fine del nostro articolo, spero che tu abbia imparato qualcosa, ora condividilo con i tuoi amici o colleghi. Scarica il progetto sul Rilevamento Di Veicoli In Tempo Reale Grazie mille per la lettura :)

  • L' intelligenza artificiale può riportare in vita i defunti

    E se potessi parlare con un facsimile digitale di una persona cara defunta? Parleresti davvero con lui/lei? Pensi che ciò ti aiuterebbe o te la farebbe mancare ancora di più ? Negli ultimi anni, la tecnologia è stata impiegata per resuscitare i morti, principalmente sotto forma di celebrità defunte. Curiosità sull'intelligenza artificiale e i defunti Carrie Fisher è stata renderizzata digitalmente per riprendere il ruolo della Principessa Leia nell'ultimo film di "Star Wars". Kanye West ha notoriamente regalato a Kim Kardashian un ologramma del suo defunto padre per il suo compleanno l'anno scorso. Più di recente, e in modo controverso, l'intelligenza artificiale è stata utilizzata per falsificare la voce dello chef Anthony Bourdain per fornire la narrazione nel film documentario "Roadrunner". In quello che sembra stranamente come un episodio di "Black Mirror", Microsoft ha annunciato all'inizio di quest'anno di aver ottenuto un brevetto per un software in grado di reincarnare le persone come chatbot, aprendo le porte a un uso ancora più ampio dell'IA per riportare in vita i morti. Abbiamo chiesto ai nostri esperti di facoltà la tecnologia AI in uso oggi, il futuro della reincarnazione digitale e le implicazioni etiche dell'immortalità artificiale. Come riportare in vita un defunto con l'intelligenza artificiale? Ti sembrerà strano ma in realtà è molto semplice e puoi farlo anche senza competenze. Da quando MyHeritage ha lanciato il suo strumento Deep Nostalgia, che rianima i morti con la tecnologia basata sull'intelligenza artificiale, sul sito Web sono state create più di 72 milioni di animazioni fotografiche. Questi tanti ricordi morbosi sono accaduti nonostante offrissero solo 10 diverse opzioni. Tuttavia, l'azienda ha appena raddoppiato questo numero di movimenti unici che è possibile applicare alle foto degli antenati defunti, incluso baciarsi e ballare. L' intelligenza artificiale riporta in vita i defunti Pensiamo che il miglior modo sia vederlo con i tuoi occhi... Abbiamo dato a Deep Nostalgia una foto di Einstein. E questo è stato il risultato dopo 15secondi di elaborazione. Vi invitiamo prima di vedere il video quì sotto ad osservare per 10 secondi la foto sopra. Deep Nostalgia AI fa progressi esponenziali Pochi direbbero che un'animazione realistica di antenati scomparsi da tempo non è degna di nota, come anche una singola fotografia rimasta di un parente del 19° secolo. Alimentato tramite un algoritmo di deep learning creato da D-ID, Deep Nostalgia ha fornito a molti utenti una seconda possibilità di avere connessioni emotive brevi ma intense con una simulazione della persona amata persa nel tempo. Tuttavia, le lacrime potrebbero essere inevitabili. Baci, sorrisi complessi, un cenno di approvazione e persino un lungo sguardo di compassione sono in serbo per coloro che cercano una scarica emotiva di nostalgia. Microsoft ha recentemente brevettato una tecnologia di simulazione umana digitale Sebbene possa sembrare che MyHeritage abbia il monopolio di rianimare i parenti morti per la nostalgia, ci sono altri progetti simili. A gennaio, Microsoft ha brevettato la tecnologia per un chatbot AI progettato per consentire agli utenti di parlare con simulazioni di cari defunti tramite una ricreazione digitale 3D. Il nuovo brevetto si chiama "Creazione di un chatbot conversazionale di una persona specifica" e descrive un sistema che integra dati vocali, immagini, post sui social media e messaggi elettronici per "creare o modificare un indice speciale nel tema della personalità della persona specifica ." Il brevetto arriva addirittura a suggerire che la tecnologia in arrivo "potrebbe corrispondere a un'entità passata o presente". Presentato come un memoriale vivente interattivo, l'imminente tecnologia di Microsoft potrebbe far sì che i vecchi messaggi vocali dei parenti morti vadano fuori copione, trasformando verbalmente il monologo per rivolgersi direttamente a te. E' etico riportare in vita i morti ? Da un lato, la morte di una persona che amiamo può causare un dolore inimmaginabile, dolore che potremmo voler alleviare con ogni mezzo possibile. Per molti, i metodi tradizionali di elaborazione delle perdite semplicemente non funzionano e si trovano intrappolati in un angosciante vuoto di dolore. Perché, allora, non abbracciare la tecnologia e fare affidamento su innovazioni all'avanguardia per chiedere aiuto? Comunicare con una resa digitale dell'individuo in questione potrebbe colmare il vuoto lasciato dal suo trapasso. Quando ci pensi, guardiamo già alle immagini, alle chat di testo e ai contenuti video/audio dei nostri cari defunti per conforto. E a volte reprime la tristezza. Con questo in mente, il piano di Microsoft potrebbe portare il sollievo dal dolore a un altro livello, trasformandolo da uno sforzo a senso unico, come prendere una pillola, in un'esperienza a due vie, simile a una sessione di terapia? D'altra parte, non possiamo non chiederci se non sia salutare tenersi in contatto con qualcuno che non è più con noi. Non è come riporli in un armadio o su uno scaffale, come se fossero un semplice oggetto – un gioco per computer o un visore per realtà virtuale – lì in casa, abbastanza reale ma non del tutto? Chi vuole un costante promemoria di ciò che non ha più? È proprio per questo motivo che molte persone in lutto in realtà non cercano conforto nelle immagini o nei filmati, o nei "souvenir dolorosi" come vengono spesso chiamati: è puramente troppo traumatico. Conclusione sull'intelligenza artificiale e i defunti Esistono varie teorie sulle fasi del lutto, ma il modello proposto dalla psichiatra Elizabeth Kübler-Ross è uno dei più comunemente usati. In questo modello, le cinque fasi sono: negazione rabbia contrattazione depressione accettazione. Immagino che possedere una riproduzione AI di un coniuge, figlio o genitore morto possa intrappolare le persone in lutto nella negazione o trascinarle indietro alla negazione dopo aver attraversato o completato le fasi successive. Potrebbe consentire alle persone in lutto di costruire un mondo immaginario in cui fingono che il defunto è ancora in vita. E dovremmo ricordare che, proprio come gli esseri umani, la tecnologia può essere fragile. Immagina che la persona in lutto arrivi a prendersi cura dell' IA tanto quanto la persona amata su cui si basa... e poi si blocca, o la rabbia e il turbamento li fanno cancellare ( oppure aumenta il costo mensile dell' IA tanto da non poterselo più permettere ). Non capita spesso di dover affrontare il tormento della perdita di una persona cara, ma che succeda due volte potrebbe essere devastante. Per non parlare poi del mercato che potrebbe crearsi. Sicuramente questa è una faccenda molto interessante da tenere sotto occhio.

  • Come diventare un Data Scientist freelance nel 2023

    Il panorama del lavoro oggi è cambiato radicalmente a causa della pandemia di Covid-19. Oltre al loro lavoro a tempo pieno, le persone ora hanno la flessibilità di affrontare le faccende secondarie che fungono da ulteriore fonte di reddito. Quando siamo passati al campo della scienza dei dati, il nostro obiettivo iniziale era trovare lavoro nel settore. Una volta ottenuto un lavoro diurno, tuttavia, ci siamo resi conto di avere la capacità di fare di più. (Molto di più ) Lavorare da casa significava che non dovevamo socializzare così spesso. Non dovevamo più viaggiare avanti e indietro per lavorare. Questo non ha solo fatto risparmiare tempo. Abbiamo risparmiato energia. Non eravamo più esausti alla fine di una giornata lavorativa, il che significava che potevo assumere compiti al di fuori del nostro lavoro. In questo articolo, ti guiderò attraverso la mia esperienza di freelance per la scienza dei dati. Ti fornirò anche suggerimenti su come iniziare come freelance di data science. Innanzitutto, esaminiamo i pro e i contro del libero professionista per la scienza dei dati. Vantaggi del libero professionista per la scienza dei dati. La parte migliore dell'avere una carriera da freelance è che puoi lavorare con persone provenienti da tutto il mondo. Le opportunità sono infinite e impari a guardare un problema da molte prospettive diverse. Puoi anche scegliere i tipi di progetti su cui lavorare, cosa che non è sempre possibile quando hai un lavoro a tempo pieno. Inoltre, come dipendente a tempo pieno, puoi lavorare solo in un singolo settore. Quando sei un freelance, ogni progetto su cui lavori ti fornirà un'esperienza di dominio in una nuova area. Quando lavori su una varietà di attività in molti domini diversi, il tuo portafoglio cresce. Non sei bloccato con un unico modo di fare le cose e puoi adattarti rapidamente a nuovi flussi di lavoro. La tua capacità di imparare migliorerà. Svantaggi del libero professionista per la scienza dei dati. Ci sono alcuni aspetti negativi nel diventare un libero professionista di data science. In primo luogo, è disponibile un numero limitato di lavori di data science freelance, soprattutto qui in italia. ( La mia esperienza da freelance per la maggior parte è stata svolta all'estero ) Di solito sono le aziende di medie e grandi dimensioni che assumono data scientist e queste aziende tendono ad assumere dipendenti a tempo pieno piuttosto che freelance. C'è una maggiore richiesta di sviluppatori web/designer freelance rispetto ai data scientist, ma tranquilli arriverà il nostro momento. Inoltre, una carriera da freelance non garantisce la sicurezza del lavoro e devi essere attivamente alla ricerca di nuovi compiti. Per questo motivo, è una buona idea mantenere il tuo lavoro a tempo pieno mentre assumi ruoli da freelance, soprattutto all'inizio. Cosa fa un Data scientist freelance ? In qualità di data scientist freelance, puoi creare modelli di apprendimento automatico per le organizzazioni su base una tantum. A volte, potresti persino essere pagato per mantenere e aggiornare continuamente questo modello man mano che arrivano nuovi dati. Tuttavia, le tue opzioni non si limitano alla costruzione di modelli. Poiché il mio lavoro a tempo pieno è nel campo del marketing, ho una certa esperienza in questo settore. Lo uso, insieme alle mie competenze sui dati, per aiutare i clienti a identificare il loro pubblico di destinazione e elaborare strategie di marketing. Un'altra abilità molto richiesta è la raccolta dei dati. Ho lavorato con individui e aziende per raccogliere dati esterni per aiutare con le loro attività di ricerca o costruzione di modelli. Ho lavorato come scrittore tecnico freelance per un po' di tempo. Scrivo tutorial sulla scienza dei dati e suggerimenti per le pubblicazioni, sia una tantum. Mi è stato anche chiesto di condurre seminari di formazione sulla scienza dei dati e corsi online per principianti del settore. Ci sono molte altre attività che puoi svolgere a seconda delle tue abilità. Puoi aiutare le organizzazioni a distribuire e monitorare i propri modelli di machine learning. Puoi consultare le aziende e fornire loro consigli in base ai dati che analizzi. Se sei un esperto di visualizzazioni di dati, puoi creare dashboard interattivi per i clienti in base ai dati disponibili. Come trovare un lavoro da data scientist freelance Quando le persone pensano per la prima volta di diventare freelance e lo cercano su internet i primi risultati che gli usciranno saranno dei consigli che nella maggior parte delle volte di conclude con il fatto che potrai ottenere successo con Friverr o UpWork. Tuttavia, la semplice registrazione su questi siti e l'invio di proposte di lavoro non è sufficiente per farti ottenere molti lavori. Queste piattaforme sono altamente sature. Per farti notare su di loro, devi costruire il tuo portafoglio ottenendo prima alcuni lavori. Suggerisco di creare prima un portafoglio al di fuori di queste piattaforme. La maggior parte dei datori di lavoro mi ha contattato al di fuori della piattaforma, tramite LinkedIn o via e-mail. Scrivete su quanti più siti, blog possibili di argomenti di vostra porta, spiegando come potreste aiutare possibili lettori. ( Potresti iniziare a scrivere un articolo per IntelligenzaArtificialeItalia.net per farti notare e sfruttare la loro visibilità ) Un cliente ha visto il mio tutorial sullo scraping di Twitter pubblicato su youtube mi ha assunto per costruire un web-scraper per lui. Un'altra azienda mi ha assunto a causa di un'analisi che ho pubblicato su linkedin, poiché volevano qualcosa di simile per identificare il loro pubblico di destinazione. Ho anche ottenuto alcuni lavori grazie alla mia rete. Amici universitari e colleghi di lavoro mi hanno consigliato per lavori in passato. Le persone preferiscono assumere quando c'è fiducia. È più probabile che tu ottenga un lavoro da qualcuno che è stato assicurato dal suo pari delle tue capacità, rispetto a una persona a cui hai appena inviato una proposta su Upwork. Se diventi un libero professionista a tempo pieno, uno svantaggio è che finisci per perdere questa rete. Non hai più colleghi o manager che ti consigliano per i ruoli. Per questo motivo, suggerisco di partecipare a eventi di data science locali o comunità online ( Come questa piattaforma ) in cui puoi interagire con altri esperti dello stesso settore. Come sviluppare le competenze necessarie per diventare un data scientist freelance ? Per diventare un data scientist freelance, è necessario possedere una solida base di competenze in diverse aree, come statistica, analisi dei dati, programmazione e machine learning. Un modo efficace per sviluppare queste competenze è seguire un percorso di studi universitario o post-laurea in scienza dei dati o in un campo correlato. Tuttavia, anche una formazione autodidatta può essere efficace, soprattutto se si ha già una base di conoscenze in queste aree. Ci sono molti corsi online, libri e tutorial disponibili per imparare le competenze necessarie per diventare un data scientist freelance. Inoltre, il nostro sito intelligenzaartificialeitalia.net è il punto di riferimento in Italia per iniziare ad avvicinarsi a questo mondo e acquisire le competenze necessarie per diventare un data scientist freelance di successo. È anche importante fare pratica e mettere in pratica ciò che si impara, ad esempio partecipando a hackathon o progetti open source. Un altro modo per sviluppare le competenze è lavorare come data scientist freelance in progetti a breve termine o in stage presso aziende o organizzazioni. In questo modo, si avrà la possibilità di acquisire esperienza pratica e di imparare da professionisti esperti nel settore. Come gestire la propria attività di data scientist freelance ? Gestire la propria attività di data scientist freelance richiede molta pianificazione e organizzazione. È importante avere una chiara comprensione delle proprie competenze e dei servizi che si offrono, nonché del mercato e dei concorrenti. Una volta che si è definita la propria nicchia di mercato e si è stabilito un piano d'azione, è importante creare una presenza online forte e professionale, ad esempio attraverso il proprio sito web e i profili sui social media. Inoltre, è importante mantenere una buona comunicazione con i clienti attuali e potenziali, fornendo loro aggiornamenti regolari e rispondendo tempestivamente alle loro richieste. Un altro aspetto importante è gestire il tempo in modo efficace, assegnando priorità alle attività e utilizzando strumenti di pianificazione e organizzazione del lavoro. Infine, è importante essere flessibili e adattarsi rapidamente ai cambiamenti del mercato e delle esigenze dei clienti. Gestire la propria attività di data scientist freelance può essere sfidante, ma con la giusta pianificazione e organizzazione, può anche essere molto gratificante. Suggerimenti aggiuntivi Dopo aver completato un'attività da freelance, assicurati di chiedere una raccomandazione al tuo cliente. I consigli sono la prova che hai svolto un lavoro soddisfacente e forniranno ai futuri clienti fiducia nei tuoi risultati. Ciò aumenta le tue possibilità di essere assunto di nuovo. Piattaforme come Upwork e Fiverr generalmente mostrano i loro freelance più votati nella prima pagina di ogni categoria. Se lavori su queste piattaforme, una raccomandazione aumenterà le tue possibilità di visibilità. Questo rende più probabile che tu venga assunto di nuovo per una posizione simile. Inoltre, assicurati di fornire sempre un lavoro di alta qualità per il tuo cliente. Molti dei miei accordi da freelance sono iniziati una tantum e, poiché il cliente ha apprezzato la qualità del lavoro, ha deciso di continuare a lavorare con me. Se fornisci costantemente i tuoi risultati in tempo e soddisfi le aspettative del tuo cliente, prenderanno anche in considerazione l'assunzione di te per attività future che si presentano invece di avvicinarsi ad altri candidati. Questo è tutto per questo articolo! Speriamo che tu l'abbia trovato utile e buona fortuna per il tuo viaggio nella scienza dei dati.

  • Come creare una rete neurale con java

    In questo post affronteremo l'Intelligenza Artificiale a piccoli passi e proveremo a costruire una rete neurale molto semplice in Java. COS'È UNA RETE NEURALE? Una rete neurale è una rappresentazione software di come funziona il cervello. Sfortunatamente, non sappiamo ancora come funzioni esattamente il cervello, ma conosciamo un po' la biologia alla base di questo processo: il cervello umano è costituito da 100 miliardi di cellule chiamate neuroni, collegate tra loro da sinapsi. Se un numero sufficiente di sinapsi si collega a un neurone si attiverà. Questo processo è noto come "pensare". Proviamo quindi a modellare il processo di cui sopra utilizzando un esempio molto semplice che ha 3 input (sinapsi) e si traduce in un singolo output (1 neurone di attivazione). Creare una semplice rete neurale con java Addestreremo la nostra rete neurale nell' immagine sopra per risolvere il seguente problema. Riesci a capire lo schema e indovinare quale dovrebbe essere il valore del nuovo input? 0 o 1? La risposta è in realtà molto semplicemente il valore della colonna più a sinistra, cioè 1! Quindi, ora che abbiamo il modello di un cervello umano, cercheremo di far apprendere alla nostra rete neurale quale schema è dato al set di addestramento. Per prima cosa assegneremo a ciascun input un numero casuale per produrre un output. La formula per calcolare l'uscita è data come segue: ∑ weioghtio.ionptutio = weioght1.ionptut1 + weioght2.ionptut2 + weioght3.ionptut3 A quanto pare vorremmo normalizzare questo valore di output su qualcosa tra 0 e 1 in modo che la previsione abbia senso. Dopo la normalizzazione confrontiamo l'output con l'output atteso dei nostri input. Questo ci dà l'errore, o quanto è lontana la nostra previsione. Possiamo quindi utilizzare questo errore per regolare leggermente i pesi della nostra rete neurale e tentare nuovamente la fortuna sullo stesso input. Questo può essere riassunto nella seguente immagine: Ripetiamo questo processo di addestramento per tutti gli input 10.000 volte per raggiungere una rete neurale adeguatamente addestrata. Possiamo quindi utilizzare questa rete neurale per fare previsioni su nuovi input! Prima di passare all'implementazione, tuttavia, dobbiamo ancora chiarire come abbiamo ottenuto la normalizzazione e l'adeguamento del peso in base all'errore (noto anche come back-propagation). Normalizzare i dati per la rete neurale con java In una rete neurale di ispirazione biologica, l'output di un neurone è solitamente un'astrazione che rappresenta la velocità di attivazione del potenziale d'azione nella cellula. Nella sua forma più semplice, questo è un valore binario, cioè o il neurone si sta attivando o meno. Da qui la necessità di normalizzazione di questo valore di uscita. Per ottenere questa normalizzazione applichiamo quella che è nota come funzione di attivazione all'output del neurone. Se prendiamo l'esempio di una funzione passo Heaviside davvero semplice che assegna uno 0 a qualsiasi valore negativo e un 1 a qualsiasi valore positivo, allora sarebbe necessario un gran numero di neuroni per raggiungere la granularità richiesta di regolare lentamente i pesi per raggiungere un consenso accettabile del set di formazione. Come vedremo nella prossima sezione sulla retropropagazione, questo concetto di aggiustamento lento dei pesi può essere rappresentato matematicamente come la pendenza della funzione di attivazione. In termini biologici, può essere considerato come l'aumento della velocità di accensione che si verifica all'aumentare della corrente di ingresso. Se dovessimo utilizzare una funzione lineare invece della funzione di Heaviside, scopriremmo che la rete risultante avrebbe una convergenza instabile perché gli input dei neuroni lungo i percorsi preferiti tenderebbero ad aumentare senza limiti, poiché una funzione lineare non è normalizzabile. Tutti i problemi sopra menzionati possono essere gestiti utilizzando una funzione di attivazione sigmoidea normalizzabile. Un modello realistico rimane a zero fino a quando non viene ricevuta la corrente di ingresso, a quel punto la frequenza di attivazione aumenta rapidamente all'inizio, ma si avvicina gradualmente a un asintoto con una frequenza di attivazione del 100%. Matematicamente, questo è simile a: Se tracciata su un grafico, la funzione Sigmoid disegna una curva a forma di S: Pertanto, diventa ora la formula finale per l'output di un neurone : Ci sono altre funzioni di normalizzazione che possiamo usare, ma il sigmoide ha il vantaggio di essere abbastanza semplice e di avere anche una semplice derivata che sarà utile quando osserveremo la propagazione posteriore di seguito. Back Propagation per la rete neurale con java Durante il ciclo di allenamento, abbiamo regolato i pesi in base all'errore. Per fare ciò, possiamo utilizzare la formula "Derivata ponderata per l'errore". UNdjtuStment = error.ionptut.SiogmoiodCturveGrundioent(otutptut) Il motivo per cui utilizziamo questa formula è che in primo luogo, vogliamo rendere la regolazione proporzionale alla dimensione dell'errore. In secondo luogo, moltiplichiamo per l'input, che è uno 0 o un 1. Se l'input è 0, il peso non viene regolato. Infine, moltiplichiamo per il gradiente della curva Sigmoide (o la derivata). Il motivo per cui utilizziamo il gradiente è perché stiamo cercando di ridurre al minimo la perdita. In particolare, lo facciamo con un metodo di discesa del gradiente . Fondamentalmente significa che dal nostro punto corrente nello spazio dei parametri (determinato dall'insieme completo dei pesi correnti), vogliamo andare in una direzione che diminuirà la funzione di perdita. Visualizza in piedi su una collina e cammina lungo la direzione in cui il pendio è più ripido. Il metodo di discesa del gradiente applicato alla nostra rete neurale è illustrato come segue: Se l'output del neurone è un grande numero positivo o negativo, significa che il neurone era abbastanza sicuro in un modo o nell'altro. Dal grafico sigmoideo, possiamo vedere che in grandi numeri la curva sigmoidea ha un gradiente poco profondo. Pertanto, se il neurone è sicuro che il peso esistente sia corretto, non vuole regolarlo molto e moltiplicandolo per il gradiente della curva sigmoidea si ottiene questo. La derivata della funzione sigmoidea è data dalla seguente formula SiogmoiodCturveGrundioent(otutptut)= otutptut.(1−otutptut) Sostituendo questo di nuovo nella formula di regolazione ci dà UNdjtuStment=error.ionptut.otutptut.(1−otutptut) Codice Java per la rete neurale Un punto importante ma sottile che è stato tralasciato quando si spiega la matematica di cui sopra è che per ogni iterazione di addestramento, le operazioni matematiche vengono eseguite contemporaneamente sull'intero set di addestramento. Pertanto, utilizzeremo le matrici per memorizzare l'insieme dei vettori di input, i pesi e gli output attesi. Inizieremo con la classe NeuronLayer che è solo un "punto di accesso" per i pesi nella nostra implementazione della rete neurale. Gli forniamo il numero di input per neurone e il numero di neuroni che può utilizzare per costruire una tabella dei pesi. Nel nostro esempio attuale, questo è semplicemente l'ultimo neurone di output che ha i 3 neuroni di input. public class NeuronLayer { public final Function activationFunction, activationFunctionDerivative; double[][] weights; public NeuronLayer(int numberOfNeurons, int numberOfInputsPerNeuron) { weights = new double[numberOfInputsPerNeuron][numberOfNeurons]; for (int i = 0; i < numberOfInputsPerNeuron; ++i) { for (int j = 0; j < numberOfNeurons; ++j) { weights[i][j] = (2 * Math.random()) - 1; // shift the range from 0-1 to -1 to 1 } } activationFunction = NNMath::sigmoid; activationFunctionDerivative = NNMath::sigmoidDerivative; } public void adjustWeights(double[][] adjustment) { this.weights = NNMath.matrixAdd(weights, adjustment); } } La nostra classe di rete neurale è dove si svolgono tutte le azioni. Prende come costruttore NeuronLayere ha 2 funzioni principali: think: calcola le uscite di un dato set di ingressi train: esegue i tempi del ciclo di allenamento numberOfTrainingIterations(solitamente un numero elevato come 10.000). Si noti che l'allenamento stesso implica il calcolo dell'output e quindi la regolazione dei pesi di conseguenza public class NeuralNetSimple { private final NeuronLayer layer1; private double[][] outputLayer1; public NeuralNetSimple(NeuronLayer layer1) { this.layer1 = layer1; } public void think(double[][] inputs) { outputLayer1 = apply(matrixMultiply(inputs, layer1.weights), layer1.activationFunction); } public void train(double[][] inputs, double[][] outputs, int numberOfTrainingIterations) { for (int i = 0; i < numberOfTrainingIterations; ++i) {// pass the training set through the network think(inputs);// adjust weights by error * input * output * (1 - output) double[][] errorLayer1 = matrixSubtract(outputs, outputLayer1); double[][] deltaLayer1 = scalarMultiply(errorLayer1, apply(outputLayer1, layer1.activationFunctionDerivative)); double[][] adjustmentLayer1 = matrixMultiply(matrixTranspose(inputs), deltaLayer1); // adjust the weights this.layer1.adjustWeights(adjustmentLayer1); } } public double[][] getOutput() { return outputLayer1; } } Infine abbiamo il nostro metodo principale in cui impostiamo i nostri dati di allenamento, alleniamo la nostra rete e le chiediamo di fare previsioni sui dati di test public class LearnFirstColumnSimple { public static void main(String args[]) { // create hidden layer that has 1 neuron and 3 inputs NeuronLayer layer1 = new NeuronLayer(1, 3); NeuralNetSimple net = new NeuralNetSimple(layer1); // train the net double[][] inputs = new double[][]{{0, 0, 1},{1, 1, 1},{1, 0, 1},{0, 1, 1}}; double[][] outputs = new double[][]{{0},{1},{1},{0}}; System.out.println("Training the neural net..."); net.train(inputs, outputs, 10000); System.out.println("Finished training"); System.out.println("Layer 1 weights"); System.out.println(layer1); // calculate the predictions on unknown data// 1, 0, 0 predict(new double[][], net);// 0, 1, 0 predict(new double[][], net);// 1, 1, 0 predict(new double[][], net); } public static void predict(double[][] testInput, NeuralNetSimple net) { net.think(testInput); // then System.out.println("Prediction on data "+ testInput[0][0] + " "+ testInput[0][1] + " "+ testInput[0][2] + " -> "+ net.getOutput()[0][0] + ", expected -> " + testInput[0][0]); } } Eseguendo il nostro esempio sopra, vediamo che la nostra rete ha fatto un buon lavoro nel prevedere quando l'input più a sinistra è 1 ma non sembra che riesca a ottenere lo 0 giusto! Questo perché il secondo e il terzo peso di input dovevano essere entrambi più vicini a 0. Training the neural net... Finished training Layer 1 weights [[9.672988220005456 ] [-0.2089781536334558 ] [-4.628957430141331 ] ] Prediction on data 1.0 0.0 0.0 -> 0.9999370425325528, expected -> 1.0 Prediction on data 0.0 1.0 0.0 -> 0.4479447696095623, expected -> 0.0 Prediction on data 1.0 1.0 0.0 -> 0.9999224112145153, expected -> 1.0 Nel prossimo post vedremo se l'aggiunta di un altro livello alla nostra rete neurale può aiutare a migliorare le previsioni ;)

  • Differenza tra Batch e Epoch nel deep learning

    Il concetto di Batch e Epoch nell'apprendimento profondo è molto importante. In questo articolo esamineremo le definizioni e la differenza tra Batch e Epoch. Ricordiamo che sono argomenti legati alla discesa del gradiente stocastico che è un algoritmo di apprendimento che ha un definito numero di iperparametri. Due iperparametri che spesso confondono i principianti sono la dimensione del batch e il numero di epoch. Sono entrambi valori interi e sembrano fare la stessa cosa. In questo post scoprirai la differenza tra batch ed epoch nella discesa del gradiente stocastico. Dopo aver letto questo post, saprai: La discesa del gradiente stocastico è un algoritmo di apprendimento iterativo che utilizza un set di dati di addestramento per aggiornare un modello. La dimensione del batch è un iperparametro di discesa del gradiente che controlla il numero di campioni di addestramento su cui elaborare prima che i parametri interni del modello vengano aggiornati. Il numero di epoch è un iperparametro della discesa del gradiente che controlla il numero di passaggi completi attraverso il set di dati di addestramento. Indice Questo post è diviso in cinque parti; sono: Discesa a gradiente stocastico , Che cos'è un campione? Che cos'è un batch (lotto)? Che cos'è un epoch? Qual è la differenza tra batch ed Epoch? Discesa a gradiente stocastico Stochastic Gradient Descent, o SGD in breve, è un algoritmo di ottimizzazione utilizzato per addestrare algoritmi di apprendimento automatico, in particolare le reti neurali artificiali utilizzate nel deep learning. Il compito dell'algoritmo è trovare un insieme di parametri del modello interno che funzionino bene rispetto ad alcune misure di prestazioni come la perdita logaritmica o l'errore quadratico medio. L'ottimizzazione è un tipo di processo di ricerca e puoi pensare a questa ricerca come a un apprendimento. L'algoritmo di ottimizzazione è chiamato " discesa del gradiente ", dove " gradiente " si riferisce al calcolo di un gradiente di errore o pendenza di errore e "discesa" si riferisce allo spostamento verso il basso lungo quel pendio verso un livello minimo di errore. L'algoritmo è iterativo. Ciò significa che il processo di ricerca si svolge su più passaggi discreti, ogni passaggio si spera migliora leggermente i parametri del modello. Ogni passaggio prevede l'utilizzo del modello con l'insieme corrente di parametri interni per effettuare previsioni su alcuni campioni, confrontare le previsioni con i risultati attesi reali, calcolare l'errore e utilizzare l'errore per aggiornare i parametri del modello interno. Questa procedura di aggiornamento è spesso diversa da algoritmo a algoritmo, ma nel caso di reti neurali artificiali viene utilizzato l' algoritmo di aggiornamento della backpropagation . Prima di approfondire i batch e le epoch, diamo un'occhiata a cosa intendiamo per campione. Che cos'è un campione? Un campione è una singola riga di dati. Contiene input che vengono inseriti nell'algoritmo e un output che viene utilizzato per confrontare la previsione e calcolare un errore. Un set di dati di addestramento è composto da molte righe di dati, quindi da molti campioni. Un campione può anche essere chiamato istanza, osservazione, vettore di input o vettore di funzionalità. Ma rimane sempre un campione... Ora che sappiamo cos'è un campione, definiamo un batch. Che cos'è un batch? La dimensione del batch è un iperparametro che definisce il numero di campioni da elaborare prima di aggiornare i parametri del modello interno. Pensa a un batch come a un ciclo for che esegue un'iterazione su uno o più campioni e fa previsioni. Alla fine del batch, le previsioni vengono confrontate con le variabili di output previste e viene calcolato un errore. Da questo errore, l'algoritmo di aggiornamento viene utilizzato per migliorare il modello, ad esempio per spostarsi verso il basso lungo il gradiente di errore. Un set di dati di addestramento può essere suddiviso in uno o più batch. Quando tutti i campioni di addestramento vengono utilizzati per creare un batch, l'algoritmo di apprendimento viene chiamato discesa gradiente batch. Quando il batch ha le dimensioni di un campione, l'algoritmo di apprendimento è chiamato discesa del gradiente stocastico. Quando la dimensione del batch è più di un campione e inferiore alla dimensione del set di dati di addestramento, l'algoritmo di apprendimento viene chiamato discesa del gradiente mini-batch. Discesa gradiente batch . Dimensione del lotto = Dimensione del set di allenamento Discesa a gradiente stocastico . Dimensione del lotto = 1 Discesa gradiente mini-batch . 1 < Dimensione lotto < Dimensione del set di allenamento Nel caso della discesa del gradiente di mini-batch, le dimensioni dei lotti popolari includono 32, 64 e 128 campioni. Ti sembrano familiari questi numeri ? In quanti tutorial li hai visti ? Cosa succede se il set di vdati non viene diviso in modo uniforme per la dimensione del batch? Questo può e succede spesso quando si addestra un modello. Significa semplicemente che il batch finale ha meno campioni rispetto agli altri batch. In alternativa, è possibile rimuovere alcuni campioni dal set di dati o modificare la dimensione del batch in modo tale che il numero di campioni nel set di dati si divida in modo uniforme per la dimensione del batch. Che cos'è un epoch? Il numero di epoch è un iperparametro che definisce il numero di volte in cui l'algoritmo di apprendimento funzionerà attraverso l'intero set di dati di addestramento. Un'epoch significa che ogni campione nel set di dati di addestramento ha avuto l'opportunità di aggiornare i parametri del modello interno. Puoi pensare a un ciclo for sul numero di epoch in cui ogni ciclo procede sul set di dati di addestramento. All'interno di questo ciclo for è presente un altro ciclo for nidificato che scorre su ogni batch di campioni, in cui un batch ha il numero di campioni "dimensione batch" specificato. per semplificarlo con lo pseudo codice puoi vederlo così epoch = 10 batch = 1 per ( i=0 ; i<epoch ; i++ ) // scorro per 10 volte il set di dati // suddivido il dataset in batch per ogni batch faccio previsione calcolo errore per migliorare Il numero di epoch è tradizionalmente grande, spesso centinaia o migliaia, consentendo all'algoritmo di apprendimento di essere eseguito fino a quando l'errore del modello non è stato sufficientemente ridotto al minimo. Potresti vedere esempi del numero di epoch nella letteratura e nei tutorial impostati su 10, 100, 500, 1000 e oltre. È comune creare grafici a linee che mostrano le epoch lungo l'asse x come tempo e l'errore del modello sull'asse y. Questi grafici sono talvolta chiamati curve di apprendimento. Questi grafici possono aiutare a diagnosticare se il modello ha appreso in modo eccessivo, appreso in modo insufficiente o se si adatta adeguatamente al set di dati di addestramento. Qual è la differenza tra batch ed Epoch? La dimensione del batch è il numero di campioni elaborati prima dell'aggiornamento del modello mentre il numero di epoch è quante volte l'algoritmo deve usare il set di dati di addestramento. La dimensione di un batch deve essere maggiore o uguale a uno e minore o uguale al numero di campioni nel set di dati di addestramento. Il numero di epoch può essere impostato su un valore intero compreso tra uno e infinito. Puoi eseguire l'algoritmo per tutto il tempo che desideri e persino interromperlo utilizzando altri criteri oltre a un numero fisso di epoch, come una modifica (o mancanza di modifica) nell'errore del modello nel tempo. Sono entrambi valori interi e sono entrambi iperparametri per l'algoritmo di apprendimento, ad esempio parametri per il processo di apprendimento, non parametri del modello interno trovati dal processo di apprendimento. È necessario specificare la dimensione del batch e il numero di epoche per un algoritmo di apprendimento. Non ci sono regole magiche su come configurare questi parametri. Devi provare valori diversi e vedere cosa funziona meglio per il tuo problema. Esempio pratico Batch e Epoch Visualizziamo questo concreto con un piccolo esempio. Supponiamo di avere un set di dati con 200 campioni (righe di dati) e di scegliere una dimensione batch di 5 e 1.000 epoch. Dati: SetDiDati = 200Campioni //200righe batch = 5Campioni //5righe epoch = 1000 //dobbiamo elaborare 1000 volte il SetDiDati Ciò significa che il set di dati sarà diviso in 40 batch , ciascuno con cinque campioni. I pesi del modello verranno aggiornati dopo ogni lotto di cinque campioni. Ciò significa anche che un epoch comporterà 40 batch o 40 aggiornamenti del modello. Con 1.000 epoch, il modello sarà esposto o passerà attraverso l'intero set di dati 1.000 volte. Questo è un totale di 40.000 batch durante l'intero processo di formazione. Riepilogo Differenza tra Batch e Epoch In questo post, hai scoperto la differenza tra batch ed epoch nella discesa del gradiente stocastico. Nello specifico hai imparato: La discesa del gradiente stocastico è un algoritmo di apprendimento iterativo che utilizza un set di dati di addestramento per aggiornare un modello. La dimensione del batch è un iperparametro di discesa del gradiente che controlla il numero di campioni di addestramento su cui elaborare prima che i parametri interni del modello vengano aggiornati. Il numero di epoch è un iperparametro della discesa del gradiente che controlla il numero di passaggi completi attraverso il set di dati di addestramento. Hai domande? Falle quì nei commenti, faremo del nostro meglio per rispondere.

  • Bambini e intelligenza artificiale rischi e opportunità

    Siamo sicuri che i bambini di oggi abbiano un rapporto sano con l' Intelligenza Artificiale? La capacità dell'IA di avere conseguenze a lungo termine sulla crescita e sul futuro di un bambino è reale, ma c'è poca protezione per salvaguardarlo da questi inconvenienti L'interazione sempre più frequente dei bambini con i sistemi di IA solleva una serie di criticità, sia in termini di conseguenze sociali e politiche della dataficazione e della governance algoritmica, sia per quanto riguarda le loro conseguenze psicologiche e cognitive. Ultimamente stiamo prendendo sempre più a cuore questo argomento, anche grazie all' aiuto di Nicola Matarese, presentiamo studi sull'argomento, le sfide previste per quanto riguarda i diritti alla privacy e la sensibilizzazione a un sano utilizzo. Bambini e intelligenza artificiale cosa immaginiamo? Dopo aver menzionato i bambini e l'intelligenza artificiale (AI), siamo subito portati a pensare all'interazione bambino-robot . Tuttavia, gli incontri dei bambini con l'IA nella vita di tutti i giorni sono molteplici e non sempre implicano l'interazione con agenti intelligenti fisici, ovvero robot sociali incarnati in un artefatto materiale. Invece, i robot destinati all'interazione con i bambini piccoli sono spesso artefatti materiali (in parte) automatizzati che simulano l'interazione umana. Inoltre, ancora oggi, i bambini incontrano perlopiù l'intelligenza artificiale nella sua forma software e quindi immateriale , nonostante la sua materialità digitale. I bambini utilizzano l' intelligenza artificiale ? I bambini interagiscono già con le tecnologie d'intelligenza artificiale in molti modi diversi: sono incorporati in giocattoli assistenti virtuali videogiochi software di apprendimento adattivo. Gli algoritmi forniscono consigli ai bambini su quali video guardare dopo, quali notizie leggere, quale musica ascoltare e con chi stringere amicizia o chi seguire sui social. Tuttavia, viene prestata poca attenzione al modo in cui i sistemi di intelligenza artificiale influenzeranno i bambini e i loro diritti. Ciò è particolarmente preoccupante, poiché i bambini sono meno in grado di comprendere appieno le implicazioni delle tecnologie di intelligenza artificiale e spesso non hanno l'opportunità di comunicare le proprie opinioni, né i giusti sostenitori per sostenerle. I bambini spesso non hanno le risorse per rispondere a istanze di pregiudizio o per correggere eventuali idee sbagliate nei loro dati. Ma poiché i bambini utilizzano sempre più o sono interessati dai sistemi di intelligenza artificiale nelle situazioni quotidiane, cresce la mancanza di attenzione sulle opportunità e sui rischi che i sistemi di intelligenza artificiale rappresentano per i bambini. Inoltre, la maggior parte delle strategie nazionali di IA e le principali linee guida etiche fanno solo menzione superficiale dei bambini e dei loro bisogni specifici . Per le politiche nazionali, i riferimenti ai bambini sono più spesso nel contesto della loro preparazione a lavorare in un'economia incentrata sull'intelligenza artificiale. Come i bambini interagiscono con l' intelligenza artificiale? I dati di DataChildFutures – progetto finanziato da Fondazione Cariplo nell'ambito del contributo Ricerca Sociale 2019 e che studierà la dataficazione della vita quotidiana delle famiglie italiane per il prossimo triennio – mostrano la complessa rete di interazioni con i dispositivi connessi nel contesto domestico , attraverso il quale i bambini e i loro genitori generano dati. In primo luogo, la ricerca mostra : la presenza pervasiva di smartphone, tablet, tv, console, pc, etc.. Tutte le famiglie intervistate possiedono uno smartphone e l'84% possiede almeno un tablet. Altrettanto apprezzati sono gli abbonamenti alle piattaforme on demand (74%). I dati rivelano anche la rapida diffusione di smart speaker, dispositivi indossabili (come smartwatch e cinturini per il fitness) e giocattoli connessi a Internet nelle famiglie italiane con bambini di età inferiore agli 8 anni (Figura 1). Particolarmente importante è la crescente diffusione degli smart speaker , ai quali bambini e genitori accedono tramite comandi vocali: il 46% delle famiglie partecipanti dispone di assistenti virtuali connessi a Internet. Infine, i giocattoli e i dispositivi indossabili connessi a Internet si trovano rispettivamente nel 40% e nel 57% delle famiglie partecipanti. L'autonomia dei bambini nell'utilizzo dei dispositivi varia (Figura 2) a seconda del tipo di media disponibile in casa e dell'orientamento tecnologico dei genitori. Quasi i due terzi dei bambini italiani di età inferiore agli otto anni utilizzano giocattoli connessi in modo indipendente. Rispetto ad altri dispositivi, i tablet si distinguono in quanto la stessa percentuale di bambini li utilizza in modo indipendente (43%) o attraverso la supervisione dei genitori (42%). Al contrario, l'uso della piattaforma on-demand è raramente autonomo (26%) e avviene principalmente in presenza di genitori e altri adulti (68%). Man mano che i dispositivi domestici diventano sempre più dotati di sensori e connessi alle reti, vengono utilizzati dai membri delle famiglie per mediare gli aspetti più banali e intimi della vita familiare . Di conseguenza, i dispositivi digitali si insinuano nelle pratiche di routine e di cura del contesto domestico , ad esempio pratiche di gioco e significati della vita quotidiana sono plasmati dalla progressiva integrazione dei media digitali nella casa. Facendo riferimento al caso emblematico degli smart speaker, i nostri dati mostrano che i membri delle famiglie li utilizzano più volte al giorno per svolgere diverse attività , come : ascoltare musica recuperare informazioni promemoria e notizie comunicare con gli altri controllare altri dispositivi. In particolare, i nostri dati forniscono informazioni su come l'intelligenza artificiale viene integrata nella vita quotidiana dei bambini, facilitata dalle pratiche genitoriali Per essere più specifici il 43% dei proprietari di altoparlanti intelligenti ( Amazon echo o Google home ) li usa per raccontare storie della buonanotte ai propri figli ogni giorno. Attraverso pratiche di uso intimo e quotidiano, gli altoparlanti intelligenti (così come altri oggetti) vengono incorporati nelle routine domestiche e nel tessuto delle relazioni familiari al punto da diventare invisibili e dati per scontati. Questo risultato illustra il processo di 'addomesticamento' (Silverstone e Hirsh, 1992; Haddon, 2004) di dispositivi e giocattoli connessi a Internet nelle famiglie italiane. Il termine esprime il processo attraverso il quale le famiglie accolgono i manufatti nella sfera privata, e li interpretano in relazione al contesto domestico e ai suoi usi . Allo stesso tempo, il concetto indica come la famiglia si adatti al nuovo mezzo in modo complementare. Bambini e intelligenza artificiale opportunità e rischi Questa realtà porta con sé un'enorme quantità di opportunità e rischi. Senza un'attenzione specifica ai bambini, l'evoluzione di questa tecnologia potrebbe procedere senza tener conto dei bisogni e dei diritti specifici dei bambini. Il sano sviluppo dei bambini è fondamentale per il benessere futuro di qualsiasi società e il costo per la società del fallimento dei nostri figli è enorme. Con questo in mente, abbiamo iniziato a delineare le aree in cui le considerazioni etiche sono più necessarie per difendere e proteggere i diritti dei bambini nell'era dell'IA. Questo schema servirà come punto di partenza per una serie di documenti collaborativi che esploreranno ogni area in modo più dettagliato e offriranno raccomandazioni concrete. Bambini e intelligenza artificiale opportunità : Migliore è l'IA, migliore è l'adattamento ai bisogni, al contesto, alle preferenze e alle priorità di una persona. L'IA adattabile ha implicazioni di vasta portata, sbloccando opportunità che vanno da: Strumenti di apprendimento personalizzati, ossia strumenti che possono ampliare l'accesso e migliorare i risultati educativi per i bambini e adulti allo stesso modo. Facilitare e Migliorare l'accesso alle opportunità di lavoro, la condivisione delle risorse, l'occupazione a lungo termine e altre forme di networking che ci consentano di ridurre gli sprechi (sia in termini di tempo che di risorse) e massimizzare le opportunità. Salute, ad esempio, la potenza combinata di Big Data e AI potrebbe permetterci di raggiungere finalmente la capacità di elaborare grandi quantità di dati sanitari che potrebbero svelare le intuizioni nascoste di cui abbiamo bisogno per decifrare il virus HIV o risolvere una qualsiasi delle tante malattie che colpiscono bambini di tutto il mondo. Pianificazione urbana, l'intelligenza artificiale può aiutarci a mappare e gestire meglio qualsiasi cosa, dalla gestione dei rifiuti al traffico, per garantire che le nostre città possano essere case più sicure, più pulite e più sane in oltre la metà del mondo. Agricoltura, l'intelligenza artificiale può anche aiutarci a comprendere meglio i rischi e opportunità per la produzione agricola, consentendoci di spostare le risorse dove è più probabile che siano produttive e massimizzare i nostri raccolti in un modo che sia sicuro e salutare per il nostro ambiente. Accessibilità, la tecnologia AI offre già più dei sistemi "intelligenti": alimenta assistenti virtuali, dispositivi robotici, applicazioni intelligenti e altre tecnologie che possono consentire l'accessibilità a persone diversamente abili, sia offrendo supporto fisico. Supporto Cognitivo, Le tecnologie di intelligenza artificiale possono integrare la nostra intelligenza e abilità innate, consentendoci di accedere alle informazioni più velocemente e diventare più efficaci nei nostri vari ruoli personali e professionali. Mentale/emotivo, I "bot" guidati dall'intelligenza artificiale vengono già utilizzati per agire come terapisti virtuali, estendendo l'accesso al supporto per la salute mentale a coloro che non sono in grado di accedere e permettersi le forme tradizionali. Bambini e intelligenza artificiale rischi : Le implicazioni che l'IA ha per la privacy, la sicurezza e la protezione dei bambini rientrano in un ampio spettro, dai vantaggi legati alla capacità di comprendere le minacce che i bambini devono affrontare con maggiore specificità e accuratezza che mai (e rispondere di conseguenza), ai rischi legati a violazioni della privacy non intenzionali. Le implicazioni positive e negative per la privacy, la sicurezza e la protezione dei bambini nell'era dell'IA meritano un attento esame. Ci concentreremo in particolare sulle seguenti dimensioni di privacy, sicurezza e protezione: Inclusione e Equità, Poiché consentiamo alle macchine di prendere decisioni critiche su chi viene incluso ed escluso da questo tipo di opportunità vitali, dobbiamo essere consapevoli, cauti e deliberati per prevenire esiti discriminatori. Esiste un rischio sostanziale che l'uso incontrollato dell'intelligenza artificiale o dell'apprendimento automatico per determinare chi ha accesso a quali servizi (ea quale prezzo/qualità) possa rafforzare il pregiudizio storico e impedire ai bambini di avere una possibilità equa nella vita. Occupazione, - Gli esperti prevedono che i robot sostituiranno gli esseri umani in un terzo dei posti di lavoro dell'economia odierna entro il 2025, cosa significa questo per i genitori che crescono i figli? Per i bambini che alla fine entreranno nel mondo del lavoro? Competenze, Il 65% degli studenti che iniziano la scuola elementare oggi alla fine lavoreranno in lavori che non esistono. Quali abilità i giovani hanno bisogno e come possiamo assicurarci di fornirli attraverso l'istruzione formale e altri percorsi? (Alfabetizzazione digitale - In Italia ad oggi 26 ottobre non è ancora stato nominato un ministero dell'innovazione e ha ricevuto solo 14 Miliardi del PNRR a fronte di oltre 200 Miliardi ) Opportunità sociali, cosa succede quando i bambini non imparano più in classe dal punto di vista dello sviluppo sociale? Tempo libero, cosa succede quando i giovani non hanno un "lavoro" tradizionale o un'occupazione per riempire il loro tempo? ( In Italia la percentuale di Neet è pari al 34,6% nella fascia 25-29 anni mentre tra i laureati è al 21,9% Con un acronimo si chiamano Neet: giovani che non studiano, non hanno un lavoro e nemmeno lo cercano ) Implicazioni psicologiche,I nuovi modi in cui bambini e giovani interagiscono con la tecnologia hanno implicazioni per la nostra fisiologia e psicologia di base. Questo lavoro comporterà un'esplorazione di quali sono queste implicazioni. Cosa fa l'IA al cervello, cosa succede quando affidiamo i compiti cognitivi all'IA, quali sono le implicazioni dell'economia dell'attenzione? Quali sono le implicazioni psicologiche, depressione, ansia, abilità sociali? Intelligenza artificiale per bambini Il problema è che quando l'intelligenza artificiale per i bambini provoca danni, il danno può durare fino al loro futuro, seguendoli fino all'età adulta. Ma l'IA per i bambini ha anche un enorme potenziale per fare del bene, migliorando l'apprendimento, lo sviluppo, la sicurezza e le opportunità. È importante che le discussioni si tengano ora e che l'IA sia progettata senza dimenticare il suo impatto sui più giovani! Bambini intelligenza Artificiale e diritti “ All'UNICEF abbiamo visto che l'IA era un argomento molto caldo e qualcosa che avrebbe cambiato radicalmente la società e l'economia, in particolare per le generazioni future. Ma quando abbiamo esaminato le strategie nazionali per l'IA, le politiche e le linee guida aziendali, ci siamo resi conto che non veniva prestata sufficiente attenzione ai bambini e al modo in cui l'IA ha un impatto su di loro". – Steven Vosloo, specialista in dati, ricerca e politica dell'UNICEF Bambini e intelligenza Artificiale di cosa preoccuparsi? I giocattoli di apprendimento automatico dell'IA, ad esempio, utilizzano l'elaborazione del linguaggio naturale per comprendere parole e istruzioni. In effetti raccoglie molti dati da quel bambino, comprese le conversazioni intime, che vengono poi archiviate nel cloud. Il periodo di tempo in cui un'azienda può archiviare questi dati dipende dal paese. Negli Stati Uniti, le aziende che creano "giocattoli educativi" possono archiviare i dati più a lungo rispetto ad altre aziende per creare prodotti migliori, consentendo in effetti ad altre aziende di descriversi come tali per ottenere il diritto di archiviare i dati più a lungo. Ciò solleva preoccupazioni su come salvaguardare il diritto del bambino alla privacy e alla sicurezza nel contesto dei giocattoli educativi alimentati dall'intelligenza artificiale. La Germania ha già vietato Cayla e giocattoli simili per paura che qualcuno possa hackerare il dispositivo e comunicare direttamente con il bambino o spiarlo. La controversia sulla valutazione di GCSE e A-Level del Regno Unito del 2020 è un altro esempio di come gli algoritmi basati sull'intelligenza artificiale possono avere un impatto negativo sui bambini. A causa della pandemia covid-19 gli esami di fine anno hanno dovuto essere annullati. Il governo ha deciso di prevedere i voti in base a due variabili: (1) la classifica degli studenti all'interno di una scuola e, (2) il rendimento storico della loro scuola. A causa del pregiudizio algoritmico, il risultato ha penalizzato gravemente gli studenti delle scuole con prestazioni inferiori e ha portato il 79% dei bambini a saltare i voti per entrare all'università. Gli esperti hanno anche sollevato preoccupazione sul rischio che l'IA potrebbe avere sul comportamento e sullo sviluppo futuri complessivi dei bambini. Temendo che, se utilizzata in modo improprio, l'IA possa incoraggiare cattive abitudini come la dipendenza dalla tecnologia o se l'IA possa davvero plasmare e plasmare la visione del mondo dei bambini attraverso video e contenuti che consiglia loro. Con il Forum globale sull'IA per i bambini, l'UNICEF spera di far luce sull'idea che il modo in cui un bambino oggi interagisce con l'IA può avere conseguenze durature per la sua crescita e il suo futuro. L'UNICEF spera di poter incoraggiare i governi a proteggere i bambini dagli inconvenienti dell'IA, dando loro potere e dando loro l'agenzia per plasmare il loro futuro. L'IA migliorerà la crescita e il benessere dei bambini? Questa tecnologia ha immensi vantaggi. Se progettati bene, gli strumenti di apprendimento basati sull'intelligenza artificiale hanno dimostrato di migliorare le capacità di pensiero critico e di risoluzione dei problemi dei bambini. Può aiutare a fornire supporto accademico quando i genitori sono occupati o assisterli insieme a classi scolastiche sovraccariche. La ricerca ha scoperto che l'IA può aiutare i bambini nello spettro autistico in molti modi. Può aiutare a migliorare le capacità motorie specifiche, il contatto visivo diretto e le capacità comunicative. L' IA può anche fornire assistenza emotiva, che ha dimostrato di migliorare le abilità sociali dei bambini autistici. I sistemi di riconoscimento facciale basati sull'intelligenza artificiale, se utilizzati entro limiti accurati, potrebbero anche aiutare a identificare i bambini che sono stati rapiti o vittime di tratta. L'elenco dei potenziali vantaggi offerti dall'IA, se utilizzata entro i limiti, è immenso. Ma dobbiamo capire che quando un bambino interagisce con l'IA, ciò che dice, fa e guarda può essere memorizzato senza la sua diretta approvazione per anni e anni. Ciò potrebbe avere un impatto drastico sul loro futuro e conseguenze negative al di fuori del loro controllo. Bambini e intelligenza artificiale la guida per Genitori Come abbiamo visto è molto importante, in primis per i genitori, capire e saper spiegare almeno superficialmente cosa è l'intelligenza artificiale. Quindi iniziamo. Impariamo a conoscere l'Intelligenza Artificiale per i bambini. Hai mai sentito parlare di Alexa o Siri? Hai mai visto un'auto a guida autonoma? Ti sei mai chiesto come funziona il riconoscimento facciale di iPhone? Tutte queste tecnologie hanno qualcosa in comune: usano l'intelligenza artificiale, o "AI". Anche se hai già utilizzato l'IA, potresti non sapere esattamente come funziona. L'intelligenza artificiale, o "IA", è la capacità di un computer di pensare e imparare. Con l'intelligenza artificiale, i computer possono eseguire attività che in genere vengono svolte dalle persone, tra cui l'elaborazione del linguaggio, la risoluzione dei problemi e l'apprendimento. L'intelligenza artificiale è uno strumento, proprio come altri tipi di nuove tecnologie. Quali sono alcuni esempi di intelligenza artificiale per bambini? Abbiamo già condiviso un paio di esempi di intelligenza artificiale, come assistenti virtuali e auto a guida autonoma, ma ci sono molti altri modi in cui l'intelligenza artificiale viene utilizzata nel mondo che ci circonda: Consigli sui film: se hai mai guardato in streaming un film su Netflix, ad esempio, potresti aver notato che riceverai consigli per altri film in base a ciò che hai già visto. Questo è a causa dell'IA! Chatbot: molti siti Web hanno chatbot che aiutano a rispondere alle tue domande. Questi chatbot non sono in genere gestiti da persone: sono IA! Motori di ricerca: la maggior parte delle persone utilizza motori di ricerca come Google ogni singolo giorno. I motori di ricerca utilizzano l'intelligenza artificiale per classificare i siti Web nei risultati di ricerca. Quali altri esempi di IA vengono in mente? Dopo aver scoperto diversi esempi di IA, come quelli che abbiamo appena condiviso, inizierai a riconoscere l'intelligenza artificiale nella tua vita di tutti i giorni! Perché l'apprendimento dell' intelligenza artificiale è importante per i bambini? L'intelligenza artificiale è ovunque intorno a noi e, indipendentemente dal fatto che te ne renda conto o meno, le persone usano l'intelligenza artificiale ogni singolo giorno. Anche se l'IA viene utilizzata oggi, gli informatici prevedono che l'intelligenza artificiale sarà ancora più importante in futuro. Per questo motivo, molti lavori avranno bisogno anche di noi per capire come funziona l'IA in modo da poter risolvere grandi problemi. Questo è già vero per molte professioni oggi. I medici usano l'IA per diagnosticare i pazienti sulla base di scansioni mediche, ad esempio i raggi X, le ecografie, lastre o semplici analisi. Gli astronauti possono utilizzare i modelli di intelligenza artificiale per rilevare esopianeti o pianeti al di fuori del nostro Sistema Solare. E questi sono solo un paio di esempi! Da bambino, potresti non sapere ancora cosa vorresti essere da grande. (di certo non ne ero sicuro!) Futuro presidente? Medico? Avvocato? Imprenditore? Insegnante? Scienziato? Attore? O forse sai per certo quale sarà la tua carriera. Ad ogni modo, ci sono buone probabilità che l'IA sia collegata al tuo lavoro futuro. Oltre a utilizzare l'intelligenza artificiale in un lavoro futuro, i bambini possono anche parlare di come le persone possono utilizzare e programmare l'IA per fare la differenza. Come potremmo usare la tecnologia come strumento per risolvere i problemi nel nostro mondo? Imparando l'IA in tenera età, puoi capire meglio come applicare questo strumento per migliorare il mondo. È chiaro che l'apprendimento dell'intelligenza artificiale è importante per i bambini. Ma come possono esattamente i bambini imparare l'IA? Come i bambini possono imparare l'Intelligenza artificiale? Se stai cercando di saperne di più sull'IA da bambino, ci sono diversi modi in cui puoi iniziare! Stiamo condividendo alcuni dei nostri migliori consigli per imparare l'IA da bambino. Suggerimento n. 1: sperimenta con Google Google ha messo insieme tantissime attività e risorse per aiutare i bambini a conoscere l'IA. Dai un'occhiata ad alcuni dei nostri preferiti: Teachable Machine: Teachable Machine è un modo semplice e veloce per creare modelli di apprendimento automatico (senza alcuna codifica coinvolta). Allena un computer per riconoscere le tue immagini, suoni e pose. Quick Draw: un computer può riconoscere i doodle? Dai un'occhiata a Quick Draw per aiutare con la ricerca sull'apprendimento automatico. Prova questi strumenti di Google per vedere l'IA in azione. Ti divertirai a guardare l'apprendimento automatico e contribuirai anche alla ricerca che sta avvenendo nel campo dell'IA. Suggerimento n. 2: impara a programmare Un altro passo essenziale per imparare di più sull'IA da bambino è programmare! Forse hai già frequentato un corso di informatica a scuola. Imparare a programmare è un'abilità importante per i bambini e gli adulti! E sapere come programmare è particolarmente importante se stai cercando di saperne di più sull'IA. Si consiglia di iniziare con la programmazione a blocchi. ad esempio : Scratch è uno dei nostri preferiti. Scratch è facile da usare, quindi è un ottimo strumento di programmazione per i principianti. Ma è comunque divertente anche per i programmatori più avanzati! Bambini e intelligenza artificiale conclusioni L'interazione sempre più frequente dei bambini con i sistemi di IA solleva molte criticità, sia in termini di conseguenze sociali e politiche della dataficazione e della governance algoritmica, sia di conseguenze psicologiche e cognitive (Kahn, Gary e Shen, 2013). Contributi critici hanno sottolineato la necessità di misure a misura di bambino per proteggere la privacy e i diritti umani (Barassi, 2020; Bietti, 2020) in risposta al Libro bianco sull'intelligenza artificiale pubblicato dalla Commissione europea nel febbraio 2020. Crediamo che proteggere i bambini dalla discriminazione sistematica e su larga scala prodotta da pregiudizi algoritmici sia una responsabilità morale di noi adulti. In questo contributo, tuttavia, abbiamo cercato di proporre un approccio comunicativo e sociologico all'interazione tra bambini e IA, per evidenziare non solo il diritto fondamentale alla protezione ( protezione ), e il diritto di accesso a contenuti, media e risorse su misura per i bambini ( prestazione ), ma anche il diritto di sfruttare le nuove tecnologie per l'apprendimento, il gioco, le relazioni, l'espressione di sé e la creatività ( partecipazione). La sfida è bilanciare i diritti alla protezione, partecipazione e fornitura sia nella progettazione di sistemi di intelligenza artificiale incarnati e disincarnati sia nella loro regolamentazione, nonché, in definitiva, negli immaginari sociali.

  • Elaborazione dei dati in tempo reale

    I dati in tempo reale sono disponibili non appena vengono creati e ottenuti. Invece di essere archiviati, i dati vengono consegnati agli utenti non appena raccolti e immediatamente disponibili, senza indugio, il che è essenziale per supportare il processo decisionale in tempo reale. Questi dati funzionano praticamente in ogni parte della tua vita, alimentando qualsiasi cosa, dalle banche al GPS, alle numerose mappe COVID-19 emerse durante la pandemia. introduzione elaborazione dei dati in tempo reale I dati in tempo reale sono preziosi per le aziende. Le organizzazioni si sono concentrate maggiormente sull'accelerazione del processo poiché è diventato più facile raccogliere enormi quantità di big data ed estrarre informazioni dai set di dati. Le aziende utilizzano i dati in tempo reale per l'azienda per migliorare il servizio clienti, la gestione dei prodotti e l'ottimizzazione operativa. Ma una delle risorse di dati in tempo reale più preziose è aiutare a monitorare e mantenere l'infrastruttura IT. I dati in tempo reale consentono alle organizzazioni di ottenere una visibilità e una visione più complete delle prestazioni delle loro reti complesse. Per sottolineare i vantaggi dei dati in tempo reale nel monitoraggio dell'infrastruttura, esamineremo come vengono raccolti ed elaborati, che tipo di informazioni può fornire e quali risultati puoi aspettarti quando utilizzi questo potente strumento. Che cos'è l'elaborazione dei dati in tempo reale? L'elaborazione dei dati in tempo reale è un sistema che elabora i dati man mano che vengono raccolti e produce un output quasi istantaneo. Per comprenderne i vantaggi, è importante esaminare come funziona l'elaborazione dei dati e confrontare l'elaborazione dei dati in tempo reale con un altro metodo comunemente utilizzato: l'elaborazione dei dati in batch. A cosa serve l'elaborazione dei dati in tempo reale? L'elaborazione dei dati mira a prendere dati grezzi (da social media, campagne di marketing e altre fonti di dati) e trasformarli in informazioni fruibili e, in definitiva, decisioni migliori. In passato, questo compito veniva svolto da team di data engineer e data scientist. Oggi, tuttavia, gran parte dell'elaborazione dei dati viene eseguita utilizzando algoritmi di intelligenza artificiale e machine learning (ML). Sebbene la natura dell'elaborazione suggerisca almeno un certo ritardo di tempo, la velocità o la mancanza di elaborazione "pesante" o di elaborazione quasi parallela fornisce analisi più rapide e complesse. Ci sono sei passaggi per trasformare i dati grezzi in informazioni fruibili che si ripetono in un ciclo. Raccolta: la raccolta dei dati è la prima fase del ciclo di elaborazione. I dati vengono raccolti da magazzini, laghi, database online, dispositivi connessi o altre fonti. Preparazione: i dati vengono "puliti" per rimuovere dati corrotti, duplicati, mancanti o imprecisi e organizzarli in un formato corretto e adatto per l'analisi. Il che aiuta a garantire che vengano utilizzati solo dati della massima qualità. Input: i dati grezzi vengono convertiti in un formato leggibile dalla macchina e inseriti nel sistema di elaborazione. Elaborazione: i dati grezzi vengono elaborati e manipolati utilizzando l'intelligenza artificiale (AI) e algoritmi di apprendimento automatico per generare l'output desiderato. Output: i dati elaborati vengono trasmessi all'utente in forme leggibili, come documenti, audio, video o visualizzazioni di dati. Archiviazione: i dati vengono archiviati per un uso futuro. Possono essere facilmente recuperati quando sono necessarie informazioni o utilizzati come input nel successivo ciclo di elaborazione dei dati. Sia l'elaborazione batch che quella in tempo reale seguono questi passaggi, ma differiscono per il modo in cui vengono eseguite e sono quindi adatte a diversi usi. L'elaborazione dei dati in batch viene comunemente utilizzata per elaborare grandi volumi di dati. In questo metodo, i dati vengono raccolti per un certo periodo e archiviati, dopodiché tutti i dati vengono inseriti nel sistema ed elaborati in blocco. Dopo che i dati sono stati elaborati, viene creato un output batch. L'elaborazione dei dati in batch presenta diversi vantaggi. È ideale per l'elaborazione di grandi volumi di dati. Non c'è una scadenza da rispettare, quindi i dati possono essere trattati indipendentemente dalla raccolta in un momento specifico. E poiché i dati vengono elaborati in blocco, sono altamente efficienti ed economici. Uno dei principali svantaggi è il ritardo tra la raccolta dei dati e il risultato dell'elaborazione, che lo rende ideale per l'elaborazione di dati contabili come buste paga e fatturazione. Nell'elaborazione in tempo reale, i dati vengono elaborati in un tempo conciso e il risultato è un output quasi istantaneo. Poiché questo metodo elabora i dati come input, richiede un flusso continuo di dati di input per produrre un output continuo. La latenza è molto più bassa con l'elaborazione in tempo reale rispetto all'elaborazione batch e viene misurata in secondi o millisecondi. Ciò è in parte attribuito ai passaggi che eliminano la latenza nell'I/O di rete, nell'I/O del disco, nell'ambiente operativo e nel codice. Inoltre, la “formattazione” dei dati in entrata può essere percepita come un ostacolo o un onere per utenti e clienti. L'elaborazione dei dati in tempo reale fa parte di molte attività quotidiane, come le transazioni ATM e l'elaborazione degli ordini di e-commerce. La velocità è uno dei principali vantaggi dell'elaborazione dei dati in tempo reale; c'è un piccolo ritardo tra l'immissione dei dati e la ricezione di una risposta. Insieme, queste funzionalità consentono agli utenti di intraprendere azioni informate con precisione in un tempo minimo. L'elaborazione dei dati in tempo reale utilizza l'analisi dei big data e la potenza di calcolo, i costi associati e la complessità di questi sistemi possono rendere impossibile per le organizzazioni l'implementazione indipendente. Come vengono utilizzati i dati in tempo reale? I dati in tempo reale vengono utilizzati principalmente per eseguire analisi in tempo reale, trasformando i dati grezzi in informazioni dettagliate non appena vengono raccolti. Questo è anche chiamato business intelligence o intelligence operativa. Queste analisi possono essere utilizzate in tutti i settori in qualsiasi scenario in cui è importante una risposta rapida. Alcuni esempi di casi d'uso in tempo reale includono istituti finanziari che utilizzano analisi in tempo reale per rilevare le frodi con carta di credito durante una transazione. Allo stesso modo, l'analisi in tempo reale può aiutare i team ITOps a prevedere i guasti alle apparecchiature. Praticamente qualsiasi attività complessa che richieda informazioni immediate può trarre vantaggio dall'analisi in tempo reale. Esistono due tipi di analisi in tempo reale. L'analisi in tempo reale su richiesta richiede all'utente finale o al sistema di creare una query, dopodiché vengono forniti i risultati dell'analisi. L'analisi continua, nota anche come analisi dei dati in streaming, analizza i dati man mano che vengono raccolti e avvisa gli utenti o attiva una risposta agli eventi rilevati. Dispositivi mobili, sensori, prodotti Internet of Things (IoT) e altre fonti generano più dati più velocemente. L'analisi in tempo reale è sempre più importante perché consente di elaborare il flusso costante di dati al volo, non dopo che è stato archiviato. Come applicare l' IA ai dati in tempo reale? I dati in tempo reale possono essere elaborati per ottenere informazioni dettagliate, dal comportamento dei clienti e tempi di risposta all'esperienza del cliente e ai modi per ottenere un vantaggio competitivo. L'analisi è la vista "in" di ciò che sta accadendo in uno spazio o zona definito: ciò che fai con esso è il "tipo". In breve, uno strumento di analisi non esegue un'azione specifica, ma fornisce informazioni dettagliate basate su input limitati. Esistono quattro tipi fondamentali di analisi dei dati: Descrittivo: l'analisi descrittiva identifica i problemi o risponde alla domanda "Cosa è successo?" l'analisi descrittiva descrive accuratamente un problema, non può definire il motivo per cui si è verificato, ma viene spesso utilizzata con uno o più tipi di analisi. Diagnostica: l'analisi diagnostica fa un ulteriore passo avanti, scavando più a fondo nei dati per creare correlazioni che spieghino perché è successo qualcosa, ad esempio cosa ha causato il malfunzionamento di un sistema o come una minaccia alla sicurezza potrebbe essere penetrata nell'ambiente. L'analisi diagnostica è talvolta chiamata "analisi della causa principale". Predittiva : l'analisi predittiva prende i dati storici, il prodotto dell'analisi descrittiva e diagnostica, e li confronta con modelli e tendenze significativi per prevedere cosa accadrà in futuro. Un'analisi predittiva dell'infrastruttura può avvisare gli amministratori di potenziali guasti del sistema e aiutarli a ottenere una migliore disponibilità. Prescrittivo : è il tipo più sofisticato di analisi dei dati e, come suggerisce il nome, suggerisce una linea d'azione per prevenire un problema. L'analisi prescrittiva utilizza l'apprendimento automatico e altri algoritmi e basa il suo output su prestazioni passate e attuali, risorse disponibili e scenari probabili per determinare la migliore linea d'azione. L'analisi prescrittiva può aiutare a guidare lo sviluppo dell'infrastruttura nel tempo suggerendo modi per rendere l'infrastruttura più resiliente e resiliente. Sebbene tutti questi approcci all'analisi dei dati in tempo reale abbiano il loro ruolo nel monitoraggio e nella gestione dell'infrastruttura IT, esistono alcune best practice che ti garantiranno di ottenere il risultato desiderato. Prima di iniziare, è importante determinare cosa si desidera misurare. Resisti alla tentazione di tenere traccia di tutto perché impiegherai più tempo a gestire i dati che a ottenere informazioni dettagliate. Consenti invece alle parti interessate di identificare quali domande devono essere risolte o quali problemi devono essere risolti e tenere traccia delle informazioni correlate. Una volta determinati i dati dell'infrastruttura che desideri monitorare, avrai bisogno di uno strumento di analisi. Queste piattaforme software raccolgono principalmente dati rilevanti da varie fonti e li elaborano in tempo reale utilizzando modelli di apprendimento automatico pre-addestrati o personalizzati. Conclusione Inoltre, i dati grezzi devono essere contestualizzati e correlati ai risultati desiderati affinché emergano approfondimenti attuabili. Ancora una volta, uno strumento di analisi dell'infrastruttura trasforma i numeri grezzi in informazioni digeribili, aiuta a rendere i dati comprensibili da più prospettive e crea visualizzazioni per comunicare idee. (Sebbene le visualizzazioni siano potenti, sono solo una parte del canale di comunicazione che dovrà essere connesso al pubblico per supportare il processo decisionale.) Quando può essere facile presumere che tutte le parti interessate o le parti interessate siano motivate dalla stessa cosa, uno strumento di analisi dell'infrastruttura ti aiuta a determinare se coloro che visualizzano i dati hanno obiettivi simili e risultati desiderati. I dati in tempo reale sono preziosi per le aziende. Le organizzazioni si sono concentrate maggiormente sull'accelerazione del processo poiché è diventato più facile raccogliere enormi quantità di big data ed estrarre informazioni dai set di dati. È il tipo più sofisticato di analisi dei dati e, come suggerisce il nome, suggerisce una linea d'azione per prevenire un problema. Nell'elaborazione in tempo reale, i dati vengono elaborati in un tempo conciso e il risultato è un output quasi istantaneo. Poiché questo metodo elabora i dati come input, richiede un flusso continuo di dati di input per produrre un output continuo. Infine, dovresti valutare e trarre conclusioni dalle conoscenze derivate e decidere la prossima linea di condotta. Oltre a reagire alla situazione iniziale, puoi utilizzare le informazioni acquisite dai dati per ridurre il verificarsi di eventi negativi e aiutare a identificare le condizioni e gli eventi che desideri ripetere in futuro.

bottom of page