Storie Web domenica, Febbraio 1
Perché in rete tutti parlano di Clawdbot, ribattezzato Moltbot?

Il lato oscuro: sicurezza e dipendenza cognitiva

Ma dietro l’entusiasmo si nasconde un lato oscuro che non si può ignorare. Esperti di sicurezza hanno individuato istanze di Clawdbot esposte su internet, spesso senza protezioni adeguate. Un accesso non autorizzato significa poter entrare in possesso di chiavi API, token e credenziali sensibili. Questo perché per funzionare Clawdbot deve conservare una serie di “chiavi digitali”: codici segreti che gli permettono di comunicare con altri servizi, come modelli di intelligenza artificiale (Claude, GPT), app di messaggistica, email, calendario e cloud. In gergo si chiamano API key o token, ma concettualmente sono equivalenti a password. Se Moltbot è configurato male e rimane visibile su internet, chiunque lo trovi può accedere a queste chiavi. A quel punto non sta solo “spiando” l’assistente: può usarlo. Può leggere messaggi, accedere alle email, sfruttare i servizi collegati e persino consumare l’abbonamento AI a spese del proprietario.

È come lasciare la porta di casa aperta con un post-it sopra che dice: “Chiavi di casa, auto e ufficio nel primo cassetto”. Il problema non è Clawdbot in sé, ma il fatto che sia uno strumento potentissimo affidato spesso a utenti inesperti, poco familiari con concetti come sicurezza di rete o autenticazione. Gli sviluppatori spiegano come proteggerlo, ma molti saltano questi passaggi per fretta o entusiasmo. Così, un assistente pensato per semplificare la vita può trasformarsi, se configurato male, in un punto di accesso diretto alla propria vita digitale.

Rachel Tobac, CEO di SocialProof Security, ha spiegato a The Verge che un agente AI con accesso amministrativo al computer può essere compromesso tramite una tecnica chiamata prompt injection. In pratica, un malintenzionato può inviare comandi o messaggi “malevoli” all’assistente, che li esegue come se fossero legittimi. Questo tipo di vulnerabilità è intrinseca al funzionamento di molti AI agent, perché il sistema non distingue tra istruzioni sicure e istruzioni manipolate, e al momento non esiste una soluzione definitiva per eliminarla completamente.

Esiste poi un rischio meno tangibile, ma non meno subdolo: la dipendenza cognitiva. Molti utenti raccontano di aver iniziato chiedendo informazioni e di essere passati rapidamente a delegare decisioni. L’agente ricorda tutto, propone soluzioni, agisce. Il risultato è una graduale rinuncia allo sforzo decisionale, quella che alcuni definiscono “vegetalizzazione cognitiva”.

Non è AGI, ma ci avvivina

L’aspetto più affascinante (e anche inquietante) di Clawdbot è la sua capacità di migliorare se stesso: essendo open source e con accesso al proprio filesystem, può modificare il proprio codice. Ne nasce un ciclo di auto-miglioramento che ricorda la traiettoria verso l’intelligenza artificiale generale (AGI), pur restando guidato da istruzioni umane. Moltbot non è AGI, ma è probabilmente l’esempio più vicino, finora, di un prodotto accessibile al pubblico che si muove in quella direzione. Per molti analisti, rappresenta comunque un punto di svolta nella storia degli assistenti AI.

Condividere.