DeepLearning.AI di Andrew Ng ha annunciato un breve corso gratuito su Prompt Engineering for Vision Models, offerto in collaborazione con Comet ML. Questo corso ha lo scopo di fornire un’introduzione completa al concetto di prompt engineering, specificatamente adattato ai modelli di visione.

Si tratta di un corso di un’ora tenuto da Abby Morgan (ingegnere ML), Jacques Verré (responsabile prodotto) e Caleb Kaiser (ingegnere ML). Per ottenere il massimo da questo corso, si consiglia di avere un’esperienza Python.

Per rimanere all’avanguardia, promuoverai diversi modelli di visione, come Segment Anything Model (SAM) di Meta, un modello universale di segmentazione delle immagini, OWL-ViT, un modello di rilevamento di oggetti a scatto zero e Stable Diffusion 2.0.

I partecipanti acquisiranno conoscenze su come generare immagini in modo efficiente utilizzando iperparametri come forza, scala di guida e numero di passaggi di inferenza.

Inoltre, puoi selezionare parti specifiche di un’immagine fornendo coordinate o disegnando un riquadro attorno all’area che desideri isolare e, combinando tutti questi, sarai in grado di sostituire gli oggetti all’interno di un’immagine con il contenuto generato.

La parte migliore è che puoi generare immagini personalizzate basate su immagini di persone o luoghi che fornisci utilizzando una tecnica di perfezionamento chiamata DreamBooth.

Questo corso utilizzerà Comet, una libreria per tenere traccia degli esperimenti e ottimizzare i flussi di lavoro di ingegneria dei prompt visivi.

In precedenza, Andrew Ng aveva collaborato con Google Cloud per LLMOps per fornire agli studenti le competenze e le conoscenze pratiche necessarie per lavorare con LLMops e creare pipeline LLMOps in applicazioni del mondo reale.

Di Fantasy