L’Intelligenza Artificiale Generativa (IA generativa) sta attirando l’attenzione dei venture capitalist, diventando un argomento di grande interesse. Nonostante l’assenza di garanzie di ritorni immediati, questi investitori stanno facendo pesanti investimenti nelle startup genAI. Gli esperti prevedono che entro il 2030, il mercato dell’IA generativa raggiungerà la cifra incredibile di 109,3 miliardi di dollari, creando prospettive promettenti che stanno affascinando gli investitori in tutto il mondo.
Durante il Google I/O 2023, Google, uno dei principali attori in questo settore, ha introdotto una serie di funzionalità di Intelligenza Artificiale Generativa per Gmail. Inoltre, Google ha presentato il modello linguistico avanzato PaLM 2, ha annunciato Med-PaLM 2 per le applicazioni mediche e ha evidenziato le capacità di Bard per gli sviluppatori. Google ha anche annunciato miglioramenti nell’Intelligenza Artificiale Generativa per Google Cloud, introducendo modelli base come Codey, Imagen e Chirp.
Recentemente, Google ha lanciato dei corsi di formazione gratuiti sull’IA generativa, che offrono un badge di completamento. Ecco alcuni dei corsi disponibili:
- Introduzione all’IA generativa: un breve corso di 45 minuti che fornisce una panoramica sull’IA generativa, le sue applicazioni e le differenze rispetto agli approcci di machine learning convenzionali. Vengono fornite anche informazioni sugli strumenti di Google che possono aiutare nella creazione di applicazioni di Intelligenza Artificiale Generativa personalizzate.
- Introduzione ai modelli di linguaggio di grandi dimensioni: un corso che fornisce una panoramica sui modelli di linguaggio di grandi dimensioni (LLM), le loro definizioni e le potenziali applicazioni. Vengono esplorate anche le tecniche di ingegneria tempestiva, che possono migliorare le prestazioni degli LLM. Il corso introduce inoltre vari strumenti di Google che possono aiutare nello sviluppo di applicazioni genAI personalizzate.
- Meccanismo di attenzione: questo modulo si concentra sui meccanismi di attenzione nell’apprendimento profondo e sulle loro applicazioni per migliorare l’efficacia di diversi compiti di machine learning. Vengono esplorate le modalità in cui l’attenzione può essere utilizzata per migliorare la traduzione automatica, il riassunto del testo e la risposta alle domande, tra le altre attività. È richiesta una conoscenza pregressa di machine learning, deep learning, elaborazione del linguaggio naturale, visione artificiale e programmazione Python.
- Modelli di trasformatore e modello BERT: questo corso introduce gli elementi chiave dell’architettura Transformer, compreso il meccanismo di auto-attenzione, e spiega come questi elementi vengono applicati nella costruzione del modello BERT. Vengono esaminati anche i vari compiti per i quali BERT può essere utilizzato, tra cui la classificazione del testo, la risposta alle domande e l’elaborazione del linguaggio naturale. È consigliata una conoscenza pregressa di machine learning intermedio, word embedding, meccanismi di attenzione e competenze di programmazione in Python e TensorFlow.
- Introduzione alla generazione di immagini: questo corso è progettato per insegnare i modelli di diffusione responsabili della generazione di immagini. Durante il corso, imparerai i principi di base dei modelli di diffusione, nonché come addestrarli e utilizzarli su Vertex AI. Per trarre pieno vantaggio da questo corso, è necessaria una conoscenza pregressa di machine learning, deep learning, reti neurali convoluzionali (CNN) e programmazione Python.
- Creazione di modelli di didascalie per immagini: questo corso ti prepara alla costruzione di un modello di didascalie per immagini mediante l’utilizzo del deep learning. Vengono affrontati gli elementi chiave di tale modello, tra cui l’encoder e il decoder, nonché i processi di addestramento e valutazione. Al termine di questo modulo, sarai in grado di sviluppare i tuoi modelli di didascalie per immagini e utilizzarli per generare didascalie per le immagini. È utile avere una conoscenza pregressa di machine learning, deep learning, elaborazione del linguaggio naturale, visione artificiale e programmazione Python.
- Architettura encoder-decoder: questo corso approfondisce l’architettura encoder-decoder, un framework di machine learning ampiamente utilizzato ed efficace per compiti che coinvolgono sequenze, come la traduzione di lingue, il riassunto del testo e la risposta alle domande. Il modulo copre gli elementi chiave dell’architettura encoder-decoder e fornisce istruzioni sull’addestramento e la distribuzione di tali modelli. Per sfruttare appieno questo modulo, è necessario avere una solida base in Python e familiarità con TensorFlow.
- Introduzione all’IA responsabile: costruire prodotti con un’attenzione all’intelligenza artificiale etica è di fondamentale importanza. Questo corso di Google ti aiuterà a comprendere il significato dell’IA responsabile e come Google incorpora questi principi nei suoi prodotti.
- Introduzione a Generative AI Studio: con l’introduzione del nuovo Generative AI Studio durante il Google I/O, questo corso fornisce un’introduzione a questo strumento all’interno di Vertex AI e come utilizzarlo in modo efficace. Generative AI Studio consente di creare e personalizzare modelli di intelligenza artificiale generativa, consentendo di integrare le loro capacità nelle tue applicazioni.
- Generative AI Explorer – Vertex AI: una serie di laboratori che illustrano l’utilizzo dell’IA generativa su Google Cloud. Il programma copre la famiglia di API Vertex AI PaLM, inclusi modelli come text-bison, chat-bison e text embedding-gecko. Verranno appresi la progettazione rapida, le migliori pratiche e le applicazioni come la classificazione e il riassunto del testo. I laboratori sono composti da quattro moduli: modelli di base, messa a punto del modello, API PaLM e API per l’incorporamento del testo.