L’intelligenza artificiale: dobbiamo governarla

pubb. giovedì, 6 Aprile, 2023


L’intelligenza artificiale: dobbiamo governarla

di Mauro Bologna

 

L’intelligenza artificiale (IA) va governata, non esistono alternative. E le professioni sanitarie hanno prerogative molto precise e fondamentali, anche a tal proposito.

Per parlare consapevolmente dell’argomento, è indispensabile conoscerlo. Nei mesi recenti si sono sviluppate enormemente le applicazioni di IA denominate “robot semantici” o GPTs (Generative Pretrained Transformers), che sono in grado di rispondere a domande per iscritto, generando testi di lunghezza desiderata e con una composizione che esplora ed elabora con linguaggio umano compiuto, nonché molto velocemente, tutto quanto pubblicato in rete internet sul tema desiderato, con risultati sorprendentemente efficaci e documentati (ma generati appunto da un “robot” programmato e non da una mente umana preparata e quindi esperta, critica e “responsabile” del contenuto).

Ma è altrettanto indispensabile tenere a bada gli enormi, stratosferici, megagalattici interessi economici che ci sono dietro a tali applicazioni dell’intelligenza artificiale. Oggi la maggiore applicazione in uso è ChatGPT della ditta OpenAI di San Francisco (USA). E’ indispensabile anche prefigurare ed evitare i grandi pericoli connessi, nei vari settori di applicazione, che vengono riconosciuti persino da alcuni “registi” del settore, come Elon Musk, Bill Gates e numerosi altri pensatori ed informatici esperti.

Sono stati davvero in tanti in questi giorni a parlare dell’argomento, sicché stavo quasi per rinunciare ad unire anche il mio breve intervento, qui e subito, alla grande varietà di articoli che ho letto negli ultimi giorni. Tuttavia l’uscita anche su JAMA di una riflessione attenta su IA e medicina (dal titolo: AI-Generated medical advice -GPT and Beyond-) mi ha convinto dell’utilità di darvene qui un breve resoconto.

L’argomento, d’altra parte, è di una tale importanza e di una così elevata attualità che non si può non aggiornarlo (anche se sul tema avevo scritto qui anche nella Newsletter n.9/23 del 6 marzo scorso). Soprattutto per quanto riguarda le professioni mediche ed il rapporto medico-paziente, con le connesse responsabilità legali e di cura medica efficace e consapevole. Proprio su questi punti l’articolo di Haupt e Marks propone riflessioni molto efficaci (vedi riferimento qui in fondo).

Le specialità mediche più a rischio di essere sostituite da

applicazioni di IA (intelligenza artificiale) sono radiologia, dermatologia ed altre in cui il riconoscimento e l’analisi di immagini sono al centro della diagnosi. Ma tutti i clinici sono interessati dal fenomeno e devono guardarsi attentamente dai pericoli connessi con l’IA, che investono in pieno gli aspetti medico-legali della professione ed il rapporto personale con i pazienti. Tuttavia, anche la legislazione dovrà intervenire con alcuni aggiornamenti, per definire con maggior precisione la legalità dell’uso dei sistemi GPT in tutti i settori.

Se il medico (o professionista sanitario) si limita ad usare le applicazioni di IA semplicemente come “motori di ricerca” sulla rete, o come una “enciclopedia” medica per esplorare quanto di più aggiornato ci sia tra le pubblicazioni esistenti sui temi desiderati, evidentemente ciò è del tutto legittimo ed anzi offre una possibilità importante di aggiornamento e di valutazione critica (per il professionista) dell’argomento clinico su cui si trova impegnato al momento. Ma se invece il sistema GPT viene interrogato per fornire una risposta non soppesata criticamente in scienza e coscienza dal professionista medesimo, intervengono problemi di natura legale e di precisa responsabilità nel rapporto medico-paziente.

Mentre se il servizio di consulenza medica fosse invece erogato sulla base di una richiesta diretta del paziente ad un motore di ricerca (Google o altri servizi di consulenza on-line basati su sistemi GPT) tutta la problematica clinica e legale connessa con il rapporto medico-paziente sarebbe superata, ma al prezzo di non avere, per il soggetto interrogante, alcuna garanzia in termini di conoscenza, di responsabilità, di fiducia, di cura e di riservatezza che il colloquio diretto con il medico offre ed assicura, con piena legalità.

Non sono considerazioni di poco conto: pertanto mi sento di riportarle qui sulla base di quanto esposto nell’articolo di riferimento di JAMA, invitando chiunque volesse approfondire il tema a leggerlo in originale.

Qualche considerazione aggiuntiva la ricavo da un articolo di Federico Fubini sul Corriere della Sera del 3 aprile (Rubrica “Whatever it takes”), che si incentra soprattutto sui rischi di perdita di posti di lavoro operati da sistemi di IA basati su tecnologia GPT.  Le categorie più a rischio di perdita di contratti di lavoro sarebbero interpreti e traduttori, sondaggisti, poeti e scrittori creativi, specialisti di pubbliche relazioni, matematici, designer, ingegneri della Blockchain, analisti finanziari, gestori di dati sanitari, giornalisti, gestori di fondi, assicuratori, esperti di marketing, assistenti giudiziari, alcune categorie di scienziati e di docenti. Ma la risposta logica ed efficace a tali pericoli non consiste affatto nel divieto generale di uso dei sistemi di IA (come è stato fatto dal’Italia: proibire tutto è il modo migliore per perdere tutto, sia gli svantaggi che i vantaggi della nuova tecnologia).

Bisogna invece guidare gli interventi sulla certezza del fatto che i sistemi di IA “non sanno connettere i fatti e le idee con senso critico, non sanno innovare, non tengono rapporti con altre persone, non le motivano, non le comprendono, non le aiutano materialmente né psicologicamente”. Tutte cose che invece un medico ed un professionista sanitario fanno correntemente. Essi devono anzi non solo mantenere al miglior livello possibile, ma anche incrementare le loro capacità e le loro conoscenze in tutte le direzioni suddette.

Garantisco infine a tutti, sotto la mia personale responsabilità, che questo articolo è stato scritto senza il ricorso a sistemi di IA, ma semplicemente leggendo ed elaborando opinioni e testi pubblicati da fonti (JAMA) e da professionisti di alto livello, sia medici che giornalisti celebri.

Un’ultima considerazione: tutti i professionisti sanitari dovrebbero mettere in guardia i loro pazienti dal servirsi esclusivamente di Google e di consulenze internet per risolvere i propri problemi sanitari. Un’interrogazione della rete può servire al paziente per focalizzare meglio il proprio problema di salute, che verrà quindi esposto più efficacemente durante il rapporto diretto medico-paziente (esteso a tutti i professionisti sanitari) che è l’unico a garantire appunto in “scienza e coscienza” le prerogative ottimali in termini di conoscenza, di responsabilità, di fiducia, di cura e di riservatezza, con piena legalità ed efficacia clinica.

 

——— Riferimento ——

Haupt CE and Marks M: AI-generated medical advice – GPT and beyond – JAMA – March 27, 2023 – Viewpoint on-line pp. e1-2





Don`t copy text!