🎬 Demo 🗺️ Tour ← Landing GitHub
installer automatico · gratuito · open source

Installa DeepAiUG

Automatico. Gratuito. Senza competenze tecniche.

Uno script che fa tutto: installa Python, Ollama, DeepAiUG e scarica il modello AI giusto per il tuo PC.
Tu clicchi. Lui pensa.

🪟
Windows 11
  1. Scarica la release qui sotto
  2. Decomprimi la cartella
  3. Apri la cartella installer/
  4. Tasto destro su INSTALLA_DeepAiUG.bat
  5. Scegli "Esegui come amministratore"
  6. Segui le istruzioni a schermo
Lo script installa Python, Ollama e il modello AI automaticamente. Crea l'icona sul Desktop.
📥 Scarica installer Windows
Scarica la release → apri la cartella installer/ → lancia lo script
🍎
macOS 12+
  1. Scarica la release qui sotto
  2. Decomprimi la cartella
  3. Apri la cartella installer/
  4. Apri il Terminale
  5. Trascina installa_deepaiug_mac.sh nel Terminale
  6. Premi INVIO e segui le istruzioni
La prima volta usa tasto destro → Apri su DeepAiUG.command (richiesta di Gatekeeper).
📥 Scarica installer Mac
Scarica la release → apri la cartella installer/ → lancia lo script
🐧
Linux (Ubuntu · Fedora · Arch)
  1. Scarica la release qui sotto
  2. Decomprimi la cartella
  3. Apri il Terminale nella cartella installer/
  4. chmod +x installa_deepaiug_linux.sh
  5. ./installa_deepaiug_linux.sh
Supporta apt, dnf e pacman. Rilevamento automatico della distribuzione.
📥 Scarica installer Linux
Scarica la release → apri la cartella installer/ → lancia lo script
strumento consigliato

🔍 Prima di scegliere il modello: analizza il tuo hardware

Non tutti i modelli LLM girano bene su qualsiasi hardware. Prima di scaricare, usa llmfit — uno strumento open source che analizza CPU, RAM e VRAM della tua macchina e ti dice esattamente quali modelli sono compatibili, con velocità stimata e quantizzazione ottimale.

$ curl -fsSL https://llmfit.axjns.dev/install.sh | sh

⚠ Singolo binario Rust — nessun ambiente virtuale, nessun conflitto con i tuoi venv Python esistenti.
Su VM o server senza display, usa: llmfit --cli
Su Jetson / GPU non rilevata, forza la VRAM: llmfit --memory=8G --cli

VRAM disponibile Modelli consigliati per iniziare Note
< 4 GB llama3.2:3b · qwen3:0.6b · qwen3.5:0.8b Inferenza CPU o ibrida
4 GB llama3.2:3b · qwen3.5:2b · ministral-3b GPU pura, buona velocità
8 GB llama3.1:8b · qwen3.5:4b · gemma3:4b Sweet spot qualità / velocità
16 GB+ qwen2.5-coder:7b · llama3.1 · deepseek-v2-lite Uso professionale
24 GB+ modelli 14B–30B · qwen3.5 varianti grandi Qualità paragonabile al cloud
💡 Nota DeepAiUG: i Pulsanti Socratici sono stati calibrati e testati su llama3.2:3b — punto di partenza consigliato per chi ha hardware limitato. Con 8 GB+ di VRAM, llama3.1:8b o qwen3.5:4b offrono risposte significativamente più ricche.

Quale modello AI installa?

Lo script analizza la RAM del tuo PC e sceglie automaticamente.

RAM Modello Peso Note
< 8 GB phi3:mini ~2.3 GB Leggero e veloce
8 – 15 GB llama3.2:3b ~2.0 GB Ottimo equilibrio
16 – 31 GB mistral:7b ~4.1 GB Molto capace
32+ GB llama3.1:8b ~4.9 GB Eccellente

Hai già DeepAiUG? Aggiornalo in un clic.

Le tue conversazioni sono al sicuro.

🪟
Windows
  1. Vai in C:\Users\[nome]\DeepAiUG\installer\
  2. Tasto destro su AGGIORNA_DeepAiUG.bat
  3. Scegli "Esegui come amministratore"
Backup automatico delle conversazioni prima di ogni aggiornamento.
🍎
macOS
  1. Apri il Terminale
  2. Scrivi: bash ~/DeepAiUG/installer/aggiorna_deepaiug_mac.sh
  3. Segui le istruzioni a schermo
Backup automatico delle conversazioni prima di ogni aggiornamento.
🐧
Linux
  1. Apri il terminale
  2. Scrivi: bash ~/DeepAiUG/installer/aggiorna_deepaiug_linux.sh
  3. Segui le istruzioni a schermo
Backup automatico delle conversazioni prima di ogni aggiornamento.
COSA VIENE PRESERVATO:
✓ Tutte le conversazioni salvate
✓ Personalizzazioni (branding.yaml)
✓ Configurazioni provider e modelli
✓ API keys e secrets

Come uscire da DeepAiUG

Semplice. Nessun dato va perso.

🪟
Windows
  1. Chiudi la finestra del terminale (oppure premi Ctrl+C)
  2. Il browser puoi chiuderlo liberamente
  3. Per fermare Ollama completamente: cerca l'icona 🐑 in basso a destra → tasto destro → Quit
Ollama può restare attivo in background senza problemi — consuma pochissime risorse.
🍎
macOS
  1. Torna nel Terminale e premi Ctrl+C
  2. Il browser puoi chiuderlo liberamente
  3. Per fermare Ollama: clicca l'icona Ollama nella barra in alto → Quit Ollama
Ollama può restare attivo in background senza problemi — consuma pochissime risorse.
🐧
Linux
  1. Torna nel terminale e premi Ctrl+C
  2. Il browser puoi chiuderlo liberamente
  3. Per fermare Ollama completamente: apri un terminale e scrivi pkill ollama
Ollama può restare attivo in background senza problemi — consuma pochissime risorse.
Il software è fornito "così com'è", senza garanzie di alcun tipo. Gli autori non si assumono responsabilità per eventuali problemi derivanti dall'installazione o dall'uso.