Home / APP Ai / I dieci esperimenti di apprendimento automatico più belli di Experiments with Google

I dieci esperimenti di apprendimento automatico più belli di Experiments with Google

Experiments with Google è un sito web entusiasmante in cui gli sviluppatori Google , così come altri in tutto il mondo, creano esperimenti intuitivi basati sull’apprendimento automatico e altre tecniche. Gli esperimenti sono i progetti che spingono i confini della tecnologia, dell’arte, del design e altro ancora. Attualmente, il sito web include più di 1500 esperimenti.

Qui, abbiamo curato un elenco di dieci esperimenti di apprendimento automatico così divertenti che vengono rilasciati nel 2020.

Scroobly

Lancio: dicembre

Informazioni: con tecnologia TensorFlow.js, Scroobly utilizza modelli di machine learning Facemesh e PoseNet per dare vita a doodle. Il sistema ML associa il movimento dal vivo ai doodle creati dagli utenti, aggiornando l’animazione visibile sullo schermo mentre gli utenti si muovono. Costruito con Tensorflow.js, Three.js e React.js, Scroobly è uno strumento creativo che può aiutare gli utenti a diventare animatori digitali senza molta esperienza nella codifica o nella progettazione.

Look to Speak

Lancio: dicembre

Informazioni su: Look to Speak è un’app per Android che consente alle persone di usare gli occhi per selezionare frasi di testo pre-scritte e farle pronunciare ad alta voce. Costruito con tensorflow e Android SDK, questo apprendimento automatico un’applicazione basata funziona solo se la fotocamera frontale può vedere gli occhi degli utenti e gli utenti hanno bisogno di distogliere lo sguardo dal dispositivo alle azioni di trigger. L’app viene inoltre precaricata con una certa selezione di frasi che possono essere successivamente modificate nel frasario.

Infinite Bad Guy

Lancio: novembre

Informazioni su: Realizzato con TensorFlow, Infinite Bad Guy è un “esperimento video musicale infinito”, in cui consente agli utenti di riprodurre tutte le cover di una determinata canzone insieme. L’apprendimento automatico mantiene tutte le copertine sullo stesso ritmo e consente agli utenti di passare da un video all’altro senza interruzioni. Secondo un post del blog, questo crea infinite combinazioni possibili; quindi, ogni rappresentazione è unica e mai simile alla precedente.

BYOTM (Bring Your Own Teachable Machine)

Lancio: ottobre

Informazioni: BYOTM o Bring Your Own Teachable Machine è un’app in cui è possibile inviare messaggi di testo a familiari e amici utilizzando il loro riconoscimento vocale personalizzato Teachable Machine. Per fare ciò, gli utenti devono prima generare un modello audio con Teachable Machine addestrato in due classi, quindi caricare il modello nel cloud. Gli utenti possono quindi prendere il loro link condivisibile e portarlo su BYOTM. Successivamente, gli utenti devono compilare i campi di output con i numeri di telefono e i messaggi che desiderano inviare. Quando è pronto, gli utenti possono fare clic su “Avvia” e utilizzare le parole di attivazione del proprio modello per iniziare a inviare messaggi. L’app è stata realizzata con Teachable Machine e tensorflow.js.

LipSync di YouTube

Lancio: settembre

Informazioni: una sfida basata sull’intelligenza artificiale di YouTube che valuta quanto le labbra degli utenti si sincronizzano con la canzone. Per facilitare ciò, questo esperimento utilizza la tecnologia AI di Google insieme a TensorFlow.js per rilevare i punti di riferimento sui volti degli utenti utilizzando l’apprendimento automatico in esecuzione nel browser.

Color Hunt

Lancio: luglio

Informazioni su: Color Hunt è un esperimento che utilizza un “algoritmo di colorazione” basato su Art Palette – un altro esperimento ML di Google – che trova da tre a sei colori dominanti nel dipinto e lo scompone di conseguenza. Con Color hunt è possibile riprodurre la tavolozza di alcuni artisti famosi. È sufficiente avviare l’esperimento, scegliere un dipinto e catturare i colori circostanti per creare qualsiasi versione dell’opera d’arte.

Scopri di più qui .

Melodia assistita Assisted Melody

Lancio: luglio

Informazioni su: Assisted Melody è un esperimento che consente agli utenti di creare melodie con l’aiuto di maestri compositori. Con Assisted Melody, gli utenti possono comporre la propria melodia con una tastiera di pianoforte virtuale e farla suonare come le armonie di Bach. Per sviluppare questo esperimento, gli sviluppatori hanno addestrato un modello di apprendimento automatico – Magenta Coconet – sulle cantate corali di Bach per armonizzare brevi melodie con un tocco di Bach. È costruito con Tone.js, Javascript, Magenta.js, Web Audio API, es6, tensorflow.js, Pixi.js e WebGL.

Un oceano di libri An Ocean of Books

Lancio: luglio

Informazioni su: An Ocean of Books è un nuovo modo di esplorare la letteratura utilizzando una mappa fantasy. In questo mondo fantastico, ogni isola rappresenta un autore e ogni città è un libro, con una selezione di oltre 100.000 autori e 140.000 libri. Per costruire questa mappa fantasy, gli sviluppatori hanno calcolato la distanza tra gli autori, in base alla loro complicata relazione sul web. Con questi valori, la mappa finale viene creata con l’aiuto di una tecnica di apprendimento automatico chiamata Uniform Manifold Approximation and Projection (UMAP). L’esperimento è costruito con Javascript, es6, WebGL, React Map GL, react.js e Mapbox GL.

Sounds in Space
Suoni nello spazio

Lancio: luglio

Informazioni: Costruito con la realtà aumentata audio basata sulla posizione, Sounds in Space è un esperimento per gli utenti per curare esperienze audio basate sulla posizione. In questo esperimento, gli utenti devono utilizzare un dispositivo mobile per posizionare suoni preregistrati di posizioni specifiche e l’esperimento consentirà agli utenti di navigare in quell’ambiente, trasformando ciò che sentono nello spazio. È costruito con ARCore e Unity.

Draw to Art: Shape Edition

Lancio: luglio

Informazioni su: Draw to Art: Shape Edition è stato realizzato in collaborazione con Google Creative Lab London insieme al Google Arts & Culture Lab di Parigi, per creare un’esperienza museale che utilizza la più recente tecnologia di apprendimento automatico. Gli utenti devono solo avviare l’esperimento e scarabocchiare qualcosa utilizzando forme geometriche; l’esperimento mostrerà quindi le opere d’arte della collezione disponibile su Google Arts & Culture, che è simile al doodle.

Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi