Il mercato dell’hardware sta attraversando una fase anomala. Mentre PC e laptop rallentano, complice una domanda debole e la crisi di RAM e CPU, la domanda di mini PC cresce a doppia cifra. La spinta arriva dallo sviluppo e dall’utilizzo di modelli di intelligenza artificiale locale: modelli open source come quelli di Meta (Llama) o Mistral, rendono praticabile l’inferenza in locale, senza passare dal cloud. In questo scenario, l’hardware compatto, economico e a basso consumo energetico, è diventato un modo per far girare agenti, modelli personalizzati e applicazioni AI private.
I motivi sono molteplici. Un mini PC di fascia medio-alta consuma poco, può restare acceso ventiquattro ore su ventiquattro, sette giorni su sette. Caratteristiche strategiche quando si tratta di ospitare agenti AI “leggeri”, che non hanno bisogno di elaborare migliaia di parametri al secondo, ma di continuità operativa e di bassi costi di funzionamento. Un processo di diffusione che ricorda da vicino quella dei microprocessori negli anni Ottanta: prima il calcolo era centralizzato in computeroni, poi è approdato sulle scrivanie di tutto il mondo.
Il segnale più evidente viene da Apple. Comprare un Mac mini oggi è diventato un esercizio di pazienza, o più probabilmente di fortuna. Nelle ultime ore, l’Apple Store ha ufficialmente rimosso la possibilità di ordinare il modello base da 729 euro: la configurazione con chip M4 e 256 GB di storage risulta “attualmente non disponibile”, impedendo di fatto agli utenti anche solo di mettersi in coda per l’acquisto. La domanda – proveniente in misura rilevante da sviluppatori che impiegano il dispositivo per carichi AI – ha superato le previsioni di approvvigionamento. Una tendenza che riflette un cambiamento strutturale nelle aspettative degli acquirenti, non più interessati alla macchina da scrivania come strumento individuale, ma come nodo di un’infrastruttura orientata all’elaborazione intelligente dei dati.
Apple non è l’unica a beneficiare della crescita. Anche il mondo Windows si è mosso con decisione: i nuovi processori Intel Core Ultra e le piattaforme AMD Ryzen AI integrano NPU dedicate, progettate per gestire in locale carichi di inferenza AI capaci di superare i 40 tops, la soglia indicata da Microsoft per le funzioni Copilot+ di Windows 11. Tra i modelli che stanno riscuotendo maggiore interesse ci sono l’Asus NUC 14 Pro (dotato di processore Intel Core Ultra), il Beelink SER 9, con il processore AMD Ryzen 9 AI (capace di sprigionare fino a 50 tops), Geekom sia nella versione con il Ryzen 9 che 7 e il Minisforum X1 Pro con Copilot integrato. Tutte macchine economiche – sotto gli 800 euro – ma con una potenza sufficiente per far girare modelli ottimizzati in locale. E hanno un vantaggio concreto: rispetto all’ecosistema chiuso di Apple, i mini PC Windows offrono maggiore flessibilità: supportano framework come PyTorch, ONNX Runtime e llama.cpp, adattandosi meglio a contesti aziendali e ambienti di sviluppo eterogenei.
Restano limiti strutturali. I mini PC, anche nelle configurazioni più avanzate, pongono vincoli concreti alla dimensione dei modelli eseguibili in locale. È possibile far girare LLM open source quantizzati o modelli specializzati, ma entro soglie precise di parametri e complessità. I modelli di frontiera, come quelli della classe GPT-4 o le versioni più evolute di Claude e Gemini, richiedono infrastrutture con decine o centinaia di gigabyte di VRAM, sistemi multi-GPU e capacità di calcolo che esulano completamente dalla scala di un dispositivo da scrivania. Questo non riduce il ruolo dei mini PC nella fase attuale. Piuttosto ne definisce il perimetro: strumenti adatti per agenti personali, automazioni leggere, sviluppo e sperimentazione. Non sostituiscono il cloud, ma lo affiancano. E proprio per questo possono diventare il primo oggetto concreto e accessibile di una transizione verso un’AI più personale e distribuita.

