Le risposte di ChatGPT ad alcune domande su “falsi miti” relativi al cancro, sulla base di uno studio pilota statunitense, appaiono rassicuranti. Ma in previsione di un uso sempre più diffuso di chatbot e strumenti di intelligenza artificiale, è importante raccomandare prudenza nell’impiego di questi strumenti.
Skyler B Johnson, Andy J King, Echo L Warner, Sanjay Aneja, Benjamin H Kann, Carma L Bylund. Using ChatGPT to evaluate cancer myths and misconceptions: artificial intelligence and cancer information. JNCI Cancer Spectrum, 2023; 7 (2) DOI: 10.1093/jncics/pkad015
Un chatbot è un software che simula ed elabora le conversazioni umane (scritte o parlate), consentendo agli utenti di interagire con i dispositivi digitali come se stessero comunicando con una persona reale.
I chatbot possono essere semplici (come programmi rudimentali che rispondono a una semplice query con una singola riga) oppure nettamente più sofisticati, come i cosiddetti "assistenti digitali" che apprendono e si evolvono, per fornire livelli crescenti di personalizzazione quando raccolgono ed elaborano le informazioni.
I chatbot e altri sistemi di intelligenza artificiale (AI) sono diventati sempre più popolari negli ultimi anni per fornire informazioni e assistenza agli utenti negli spazi online. Di recente, uno di questi sistemi di intelligenza artificiale che riceve molta attenzione da parte del pubblico è ChatGPT, che utilizza l'elaborazione del linguaggio naturale per generare risposte all'input dell'utente. Nel dettaglio, ChatGPT è l'acronimo di Chat Generative Pre-trained Transformer. Si tratta di un prototipo sviluppato da OpenAI, una società di ricerca sull'intelligenza artificiale, che promuove lo sviluppo delle cosiddette “friendly” AI.
Sempre più spesso, i pazienti si rivolgono a Internet per acquisire informazioni sul cancro. Secondo alcune fonti, circa l'80% degli adulti statunitensi utilizzano Internet per cercare informazioni sulla salute.
Naturalmente, la qualità e l’affidabilità delle informazioni acquisite cercando sul web rimane un’incognita preoccupante. In particolare, i dati sulla qualità delle informazioni relative al cancro fornite dai chatbot e da altri sistemi di intelligenza artificiale sono limitati.
Gli autori del lavoro pubblicato a marzo 2023 sulle pagine di JNCI Cancer Spectrum sono partiti dalla considerazione che, data l'importanza di informazioni accurate nel campo della ricerca e del trattamento del cancro, determinare l'accuratezza delle (errate) informazioni fornite dall'intelligenza artificiale, in particolare da piattaforme come ChatGPT, è fondamentale per i medici e, più in generale, per la società.
Pertanto, come primo passo nel monitoraggio di queste piattaforme pubbliche, il gruppo statunitense si è impegnato in uno studio su piccola scala delle informazioni generate da ChatGPT.
Nel lavoro è stata valutata l'accuratezza delle informazioni sul cancro su ChatGPT rispetto alle risposte a 13 quesiti presenti sulla pagina del National Cancer Institute (NCI) "Common Cancer Myths and Misconceptions" ( Common Cancer Myths and Misconceptions - NCI ).
Sia le risposte ai 13 quesiti presenti sul sito NCI sia le risposte di ChatGPT, per ciascuna delle 13 domande, sono state valutate (in cieco) da parte di 5 esperti, chiamati a valutare l’accuratezza della risposta (tale accuratezza era espressa in maniera dicotomica, sì vs no).
In aggiunta alla valutazione in cieco dell’accuratezza, gli autori hanno confrontato le risposte di NCI e di ChatGPT in termini di conteggio delle parole e di livello di leggibilità (misurato secondo la scala Flesch-Kincaid) per ogni singola risposta.
Le 13 domande oggetto del confronto tra le risposte di NCI e le risposte di ChatGPT erano:
Sulla base della revisione degli esperti, la percentuale di accordo complessivo tra gli esperti relativamente all'accuratezza delle risposte alle 13 domande è stata pari al 100% per le risposte fornite dal NCI e comunque elevatissima (pari al 96,9%) per gli output di ChatGPT.
Nel lavoro è possibile leggere il testo completo delle risposte fornite da ChatGPT per ciascuna delle 13 domande.
Le differenze tra NCI e ChatGPT in termini di numero di parole o di leggibilità delle risposte sono risultate molto piccole.
Nel complesso, i risultati suggeriscono che ChatGPT possa fornire informazioni accurate quando interrogata su “miti” e idee sbagliate comuni relative al cancro.
Gli autori sottolineano che il loro “brief report” offre importanti spunti sulle capacità potenzialmente positive di ChatGPT e di altri sistemi di intelligenza artificiale nel contesto delle informazioni errate, falsi miti e pseudoscienza relativi al cancro.
Nella discussione, gli autori ammettono che, al momento del disegno del lavoro, erano incerti sull'utilità di ChatGPT per le informazioni sulla salute e pensavano che il sistema di intelligenza artificiale potesse trasmettere involontariamente informazioni errate o dannose agli utenti.
Il risultato di questa analisi (naturalmente limitata) è abbastanza rassicurante, ma ovviamente non risolve il problema dell’affidabilità delle informazioni che gli utenti possono eventualmente trovare in internet. Iindipendentemente dalle caratteristiche e dalla popolarità di ChatGPT, è importante considerare come monitorare e valutare al meglio l'uso di questi strumenti nell'ambiente di comunicazione online.
Nelle interazioni con i pazienti e con i familiari, è opportuno che gli operatori sanitari raccomandino particolare prudenza nel cercare su internet le risposte a domande assolutamente legittime relative alle cause dei tumori, ai comportamenti, stili di vita o fattori di rischio, nonché – naturalmente – a domande relative alla diagnosi e al trattamento delle specifiche malattie.