Storie Web giovedì, Febbraio 26

L’accusa è quella di distillazione, ma i superalcolici non c’entrano. A muoverla è Anthropic, l’azienda americana che ha sviluppato il modello di intelligenza artificiale Claude. E a finire nel mirino sono tre concorrenti cinesi, DeepSeek, Moonshot e MiniMax, che avrebbero utilizzato i loro LLM per creare 24mila account e intraprendere oltre 16 milioni di conversazioni con l’AI statunitense.

L’obiettivo appunto quello di distillare conoscenza, una sorta di allenamento per cui un modello conversa con uno più potente per imparare a generare risposte sempre migliori. Si tratta, spiegano da Anthropic, di una normale pratica nel settore, che però di solito viene svolta internamente: si distilla un proprio modello per crearne una versione più piccola, ed economica, da mettere sul mercato. Il problema sorge appunto quando l’allenatore, ovvero il LLM interrogato, è quello di un’altra azienda.

Gli sviluppatori di Claude, in un post pubblicato sul blog aziendale, hanno reso noto di aver riscontrato oltre 150mila interazioni tra il proprio modello e quello di DeepSeek. Conversazioni che avrebbero cercato di far comprendere a quest’ultimo le capacità di ragionamento di Claude, chiedendogli di articolarlo e di esplicitarlo passo per passo. Ma ci sono state anche richieste di fornire delle risposte alternative, capaci di superare le maglie della censura, su tematiche politicamente sensibili come i dissidenti, i leader di partito, l’autoritarismo.

Sono invece più di 3,4 milioni le conversazioni orchestrare da Moonshot AI, indirizzate questa volta a comprendere l’uso degli agenti, le capacità di coding e di analisi dei dati e la computer vision. La maggior parte delle sessioni di allenamento, oltre 13 milioni, hanno infine riguardato MiniMax. Anche in questo caso, l’interazione si è concentrata sullo sviluppo degli agenti.

La questione, sottolineano i creatori di Claude, non riguarda solo il fatto che si usino modelli altrui per addestrare i propri. I modelli distillati in questo modo, si legge, «mancano delle necessarie misure di sicurezza». Che significa? «Anthropic e la altre aziende americane costruiscono dei sistemi che impediscono di usare l’intelligenza artificiale, ad esempio, per sviluppare armi biologiche o per gestire attacchi cyber». Divieti che però si perdono con la distillazione. In gioco, in altre parole, c’è un tema di sicurezza nazionale.

Condividere.
Exit mobile version