Scarica la release → apri la cartella installer/ → lancia lo script
▶ strumento consigliato
🔍 Prima di scegliere il modello: analizza il tuo hardware
Non tutti i modelli LLM girano bene su qualsiasi hardware. Prima di scaricare,
usa llmfit —
uno strumento open source che analizza CPU, RAM e VRAM della tua macchina e ti dice
esattamente quali modelli sono compatibili, con velocità stimata e quantizzazione ottimale.
$ curl -fsSL https://llmfit.axjns.dev/install.sh | sh
⚠ Singolo binario Rust — nessun ambiente virtuale, nessun conflitto con i tuoi venv Python esistenti.
Su VM o server senza display, usa: llmfit --cli
Su Jetson / GPU non rilevata, forza la VRAM: llmfit --memory=8G --cli
VRAM disponibile
Modelli consigliati per iniziare
Note
< 4 GB
llama3.2:3b · qwen3:0.6b · qwen3.5:0.8b
Inferenza CPU o ibrida
4 GB
llama3.2:3b · qwen3.5:2b · ministral-3b
GPU pura, buona velocità
8 GB
llama3.1:8b · qwen3.5:4b · gemma3:4b
Sweet spot qualità / velocità
16 GB+
qwen2.5-coder:7b · llama3.1 · deepseek-v2-lite
Uso professionale
24 GB+
modelli 14B–30B · qwen3.5 varianti grandi
Qualità paragonabile al cloud
💡 Nota DeepAiUG: i Pulsanti Socratici sono stati calibrati e testati su
llama3.2:3b — punto di partenza consigliato per chi ha hardware limitato.
Con 8 GB+ di VRAM, llama3.1:8b o qwen3.5:4b
offrono risposte significativamente più ricche.
Backup automatico delle conversazioni prima di ogni aggiornamento.
COSA VIENE PRESERVATO:
✓ Tutte le conversazioni salvate
✓ Personalizzazioni (branding.yaml)
✓ Configurazioni provider e modelli
✓ API keys e secrets
Come uscire da DeepAiUG
Semplice. Nessun dato va perso.
🪟
Windows
Chiudi la finestra del terminale (oppure premi Ctrl+C)
Il browser puoi chiuderlo liberamente
Per fermare Ollama completamente: cerca l'icona 🐑 in basso a destra → tasto destro → Quit
Ollama può restare attivo in background senza problemi — consuma pochissime risorse.
🍎
macOS
Torna nel Terminale e premi Ctrl+C
Il browser puoi chiuderlo liberamente
Per fermare Ollama: clicca l'icona Ollama nella barra in alto → Quit Ollama
Ollama può restare attivo in background senza problemi — consuma pochissime risorse.
🐧
Linux
Torna nel terminale e premi Ctrl+C
Il browser puoi chiuderlo liberamente
Per fermare Ollama completamente: apri un terminale e scrivi pkill ollama
Ollama può restare attivo in background senza problemi — consuma pochissime risorse.
Il software è fornito "così com'è", senza garanzie di alcun tipo.
Gli autori non si assumono responsabilità per eventuali problemi derivanti dall'installazione o dall'uso.