stable diffusion

12 modi per utilizzare la diffusione stabile senza codifica
Meno tecnicismi!
 
Dopo Dall-E 2 e Midjourney, il modello di deep learning Stable Diffusion (SD) ha segnato un balzo in avanti nel dominio del text-to-image. Sviluppato da Stability.AI , SD democratizza la generazione di immagini condizionale del testo grazie alla sua efficienza nell’esecuzione su GPU di livello cliente. 

SD è incredibile, ma sfortunatamente non è banale da configurare (soprattutto per le persone senza buone GPU).

 
Ecco un elenco di strumenti basati su SD con zero competenze tecniche necessarie! 

Strumenti con un clic
Programmi che raggruppano SD in un programma installabile, nessuna configurazione separata e la minima quantità di git/abilità tecnica necessaria, solitamente raggruppando una o più UI.


1 Diffusion Bee
Con un programma di installazione con un clic, Diffusion Bee è un modo molto semplice per eseguire SD localmente su M1 Mac. Non sono necessarie dipendenze o conoscenze tecniche. Funziona localmente su un computer; nessun dato viene inviato al cloud tranne le richieste di scaricare i pesi e verificare la presenza di aggiornamenti software.

Requisiti di sistema):

Mac M1/M2
Si preferiscono 16 GB di RAM in quanto funzioneranno lentamente con 8 GB di RAM
MacOS 12.5.1 o successivo
 

2 Stable Diffusion UI
Un altro programma di installazione con un clic che fornisce un’interfaccia utente del browser per la generazione di immagini da prompt di testo e immagini. Basta inserire il prompt di testo e vedere l’immagine generata. Attualmente, non funziona su Mac. 

Requisiti di sistema):

Windows 10/11 o Linux. Presto sarà disponibile il supporto sperimentale per Mac.
Scheda grafica NVIDIA, preferibilmente con 4 GB o più di VRAM. Senza una scheda grafica compatibile, funzionerà automaticamente nella “Modalità CPU” più lenta.
Minimo 8 GB di RAM.
 

3 Charl-E
CHARL-E racchiude SD in una semplice applicazione. Non sono necessarie configurazioni complesse, dipendenze o Internet: basta scaricare e dire ciò che si desidera vedere.

 

4 NMKD Stable Diffusion GUI – AI Image Generator
Un toolkit ML per la generazione da testo a immagine per il tuo hardware locale. Al momento, il programma funziona solo su GPU Nvidia (le GPU AMD non sono supportate).

Requisiti di sistema): 

Minimo:

GPU: GPU Nvidia con 4 GB di VRAM, Maxwell Architecture (2014) o successiva
RAM: 8 GB di RAM (Nota: il file di paging deve essere abilitato poiché lo scambio avverrà con soli 8 GB!)
Disco: 12 GB (si consigliano altri 2 GB gratuiti per i file temporanei)
Consigliato:

GPU: GPU Nvidia con 8 GB di VRAM, architettura Pascal (2016) o successiva
RAM: 16 GB di RAM
Disco: 12 GB su SSD (si consigliano altri 2 GB gratuiti per i file temporanei)
 

5 ImaginAIry
Generazione Pythonic di immagini SD con solo pip install ImaginAIry. “Funziona e basta” su Linux e macOS (M1). Gli aggiornamenti recenti includono miglioramenti dell’efficienza della memoria, modifica basata su prompt, miglioramento del volto, upscaling, immagini affiancate, img2img, matrici di prompt, variabili di prompt, didascalie di immagini BLIP e dockerfile/colab.

Requisiti di sistema):

~10 GB di spazio per il download dei modelli.
Un computer con una scheda grafica supportata da CUDA o un processore M1.
Preferibilmente Python 3.10 installato.
Per macOS, rust e setuptools-rust devono essere installati per compilare la libreria del tokenizer. (Può essere installato tramite: curl –proto ‘=https’ –tlsv1.2 -sSf https://sh.rustup.rs | sh e pip install setuptools-rust).
 

Distribuzioni Web


6 Mage Space
SD non filtrata per la generazione da testo a immagine. L’ultima funzionalità include Image2Image, che ti consente di scegliere un’immagine da combinare con il tuo prompt. 

 

7 Dreamlike.art
Il sito Web è attualmente completamente gratuito per molti altri giorni. Se esaurisci i crediti, vai alla pagina “Acquista crediti” e fai clic su “Acquista”. Non ti verrà addebitato. Il saldo verrà ripristinato una volta che usciamo dal beta test e aggiungiamo i pagamenti.

  

8 FindAnything.App
Trovare immagini tramite un motore di ricerca è difficile e potresti finire per pubblicare accidentalmente immagini protette da copyright o spendere un sacco di soldi per ottenere le immagini di cui hai bisogno. 

L’estensione del browser aggiunge nuove immagini insieme alle ricerche di immagini di Google. Non sei più limitato a poche opzioni, come nel caso della maggior parte delle immagini stock. 

 

Major SD Forks


Le seguenti opzioni consentono di apportare modifiche a un progetto senza influire sul repository originale. È possibile recuperare aggiornamenti o inviare modifiche al repository originale con richieste pull.

9 Automatic1111 – SD Web UI
Un’interfaccia browser basata sulla libreria Gradio per SD. Modalità originali da testo a immagine e da immagine a immagine. Installa ed esegui script con un clic (ma devi comunque installare Python e git). Le funzionalità includono outpainting, inpainting, prompt matrix, Stable Diffusion upscale e altro ancora.  

Assicurati che le dipendenze richieste siano soddisfatte e segui le istruzioni per GPU NVidia (consigliata) e AMD .

 

10 InvokeAI
Questa versione SD presenta un’elegante WebGUI, uno script da riga di comando interattivo che combina funzionalità da testo a immagine e da immagine a immagine in un’interfaccia in stile “bot dei sogni”, e molteplici funzionalità e altri miglioramenti. La versione funziona su macchine Windows, Mac e Linux.

Requisiti di sistema):

Scheda grafica basata su NVIDIA ~4 GB o più di memoria VRAM.
Un computer Apple con un chip M1.
~12 GB di memoria principale RAM.
~12 GB di spazio su disco per il modello ML, Python e tutte le sue dipendenze.
 

11 Waifu Diffusion
Waifu Diffusion è un progetto basato su CompVis/Stable-Diffusion. Il modello Stable Diffusion è stato messo a punto per le cose web. Un modello addestrato su Danbooru (sito di disegni di anime/manga) con oltre 56.000 immagini.

Requisiti di sistema):

Sono necessari circa 30 GB di VRAM.
~ 30 GB di spazio di archiviazione se non ti dispiace ripulire ogni tanto.
 

12 Basujindal: Optimized Stable Diffusion
Questo repository è una versione modificata, ottimizzata per utilizzare meno VRAM rispetto all’originale sacrificando la velocità di inferenza. Per ridurre l’utilizzo della VRAM, il modello Stable Diffusion è diviso in quattro parti che vengono inviate alla GPU quando necessario. Dopo il calcolo, vengono restituiti alla CPU. Il calcolo dell’attenzione viene eseguito in parti. 

stable diffusion

Di ihal