
L’intelligenza artificiale sta accelerando il suo ingresso in uno dei domini più sensibili e regolati: la salute. Nel giro di pochi giorni due dei maggiori player globali del settore – OpenAI e Anthropic – hanno presentato i loro strumenti dedicati, rispettivamente ChatGpt Health e Claude for Healthcare, segnando una nuova fase in cui i chatbot non si limitano più a fornire informazioni generiche, ma integrano dati sanitari personali e sistemi clinici reali. In parallelo, mentre le grandi aziende di modelli linguistici si propongono come alleati del paziente e dei medici, Google è stata costretta a ritirare parte dei suoi riassunti sanitari generati dall’Ia dopo che un’indagine giornalistica ha rilevato indicazioni fuorvianti e potenzialmente pericolose. Un episodio che fa da contrappunto alla nuova corsa: opportunità enormi, ma anche rischi concreti.
OpenAI e l’arrivo di ChatGpt Health
L’annuncio di ChatGpt Health ha inaugurato la nuova stagione dell’Ia applicata al benessere. Lo strumento crea uno spazio dedicato alle domande mediche e consente agli utenti di collegare cartelle cliniche, risultati di laboratorio e app di fitness, promettendo un supporto nel dare senso a informazioni che spesso sono sparse, tecniche e difficili da interpretare. OpenAI avverte esplicitamente che ChatGpt Health non è un sistema diagnostico e non sostituisce il medico, posizionandolo come “navigatore sanitario” più che come “medico virtuale”.
Anthropic risponde: nasce Claude for Healthcare
A pochi giorni di distanza è arrivata la risposta di Anthropic. Con Claude for Healthcare, l’azienda introduce sia funzionalità per i pazienti sia strumenti pensati per ospedali, assicuratori e aziende del settore medico regolato. Claude for Healthcare può infatti: accedere a database sanitari e assicurativi affidabili; semplificare documenti clinici; verificare la copertura assicurativa; supportare pratiche amministrative complesse. Per gli utenti consumer offre invece funzioni analoghe a ChatGpt Health: collegamento a cartelle cliniche personali, Apple Health o Android Health Connect, individuazione di trend nei dati e preparazione di domande per visite mediche. Secondo Anthropic, i dati sanitari non vengono utilizzati per addestrare i modelli e possono essere disconnessi in qualsiasi momento, un segnale di quanto il tema della privacy sanitaria sia diventato centrale per la legittimazione di questi strumenti.
Ma mentre i chatbot entrano in sanità, Google annulla parte dei suoi risultati medici
La terza notizia della settimana, apparentemente distante, è quella che getta un’ombra su questo nuovo entusiasmo: Google ha rimosso i suoi “AI Overviews” da alcune ricerche sanitarie, dopo che un’indagine del Guardian ha mostrato errori e semplificazioni fuorvianti. Tra gli esempi citati: valori di test epatici presentati come numeri “standard” privi di contesto clinico; consigli alimentari per pazienti oncologici contrari alle linee mediche Gli specialisti hanno avvertito che, in medicina, anche un’informazione tecnicamente corretta può diventare dannosa se isolata dal contesto: l’esatto problema che i riassunti automatici hanno mostrato.
La grande domanda: possiamo fidarci?
In questo scenario, la questione non è solo se l’Ia sappia rispondere correttamente, ma come, quando e con quanta responsabilità viene integrata nel percorso sanitario. Per ora, sia OpenAI sia Anthropic escludono l’Ia dal processo diagnostico e mantengono un medico “nel loop”. Tuttavia, il fatto che i modelli possano: accedere a dati clinici, interpretare referti, sintetizzare linee guida mediche e supportare interazioni assicurative, indica che ci stiamo avvicinando rapidamente a una nuova infrastruttura sanitaria digitale in cui il primo interlocutore del paziente rischia di non essere più umano. Sul fronte consumer la fiducia sarà decisiva: molti utenti percepiscono questi strumenti come autorevoli, anche quando non dovrebbero. Sul fronte clinico, invece, la sfida è regolatoria e medico-legale: chi è responsabile se l’Ia sbaglia? La corsa è appena iniziata. La tecnologia promette benefici tangibili – risparmio di tempo, accessibilità, comprensione – ma la domanda che attraversa il settore resta la stessa: in materia di salute, possiamo davvero permetterci di fidarci dell’intelligenza artificiale?









