Metaverso e ChatGPT: conoscenza dei fatti e panoramica dei rischi molteplici anche per le pubblicazioni scientifiche di interesse medico.

pubb. mercoledì, 15 Febbraio, 2023


Metaverso e ChatGPT: conoscenza dei fatti e panoramica dei rischi molteplici anche per le pubblicazioni scientifiche di interesse medico.

di Mauro Bologna

Oggi parliamo di argomenti di grandissima attualità e novità in tema di intelligenza artificiale, in relazione con pubblicazioni scientifiche, utilizzo di smartphones e di intrattenimento (videogiochi e non solo), nonché di sicurezza alla guida, di educazione e crescita intellettuale e di evoluzione psico-neurologica dei giovani. Sono tutti argomenti molto delicati, di grande interesse PNEI, e di notevole attualità con l’avanzare galoppante delle tecnologie dell’intelligenza artificiale e delle loro applicazioni, poco conosciute e poco controllate.

Dunque, meritevoli di grande attenzione e soprattutto di conoscenza da parte degli operatori sanitari e degli educatori (molto rappresentati tra i nostri soci e lettori).

Conoscenza del Metaverso.

Cos’è il Metaverso. Conoscevo soltanto superficialmente le sue caratteristiche, prima di ascoltare il video e leggere l’articolo di Milena Gabanelli e Simona Ravizza, usciti in data 13 febbraio sul Corriere della Sera. Raccomando a tutti di approfondire: lo ritengo cosa assolutamente fondamentale imparare quanto spiegato in modo sintetico, ma molto chiaro ed efficace da Gabanelli e Ravizza. Il titolo dell’articolo, che parte in prima pagina, è “Medicina, affari (e crimini): ecco il Metaverso”. E spiega operativamente: “l’avatar si muove in luoghi che riproducono la realtà, dall’intrattenimento alle potenzialità medico-industriali; i lati oscuri: business dei terreni, adescamenti e riciclaggio”.

Ecco il link: per attingere direttamente alla fonte (articolo e video di sintesi).

https://www.corriere.it/dataroom-milena-gabanelli/metaverso-ecco-cos-chi-non-l-ha-capito/c93431ba-aaea-11ed-a0ed-8f1430cfd08a-va.shtml

Perché deve interessarci il Metaverso? Perché sta già modificando tanti aspetti della nostra vita quotidiana, in modo trasversale e davvero poco consapevole da parte di chi ne utilizza le risorse (che sono spesso già ora bambini ed adolescenti).

Sempre di più questi canali informatici investiranno ogni aspetto della vita sociale, dall’istruzione alla psico dinamica mentale, soprattutto dei giovani e dei meno accorti. Personalmente, rilevo in essi degli enormi problemi ed altrettanto notevoli pericoli, derivanti soprattutto da mancata conoscenza dei fatti e delle potenzialità future davvero pervasive (da parte degli adulti, degli educatori e dei sanitari quali noi siamo).

Pericoli anche per la sicurezza stradale, nella quale sono in aumento gli incidenti per distrazione e le relative conseguenze letali: i morti sulle strade sono in forte aumento negli ultimi tempi, (in controtendenza rispetto ai numeri degli anni precedenti) soprattutto per incidenti gravi derivanti da distrazione (guidatori che tengono il telefonino in mano mentre sono al volante, impegnati in telefonate e messaggistica varia, se non addirittura ingaggiati in videogiochi e videomessaggi inutili e pericolosissimi). Vi ricordo che per una distrazione di pochi secondi un veicolo in corsa percorre varie centinaia di metri con un guidatore-giocatore cieco e sordo: i risultati di questa situazione si vedono subito, con i numeri crescenti di incidenti gravi e delle numerosissime vittime sulla strada.

Pubblicazioni scientifiche: ChatGPT

Un altro aspetto attualissimo dell’intelligenza artificiale in campo medico riguarda le pubblicazioni scientifiche. Ne hanno parlato in recentissimi interventi Federico Rampini sul Corriere della Sera dell’11 febbraio (“Così ho perso la mia gara di scrittura con ChatGPT”: ho chiesto all’intelligenza artificiale di scrivere un breve saggio al posto mio e sono sotto choc; ho il sospetto di aver perso io”) ed anche Annette Flanagin e collaboratori (della Direzione Editoriale di JAMA) nell’articolo editoriale dal titolo “Nonhuman ‘Authors’ and implications for the integrity of Scientific Publication and Medical Knowledge” uscito appunto su JAMA in data 31 gennaio 2023 e liberamente fruibile anche dai non abbonati alla rivista.

Ho conosciuto personalmente Annette Flanagin (coordinatrice della segreteria editoriale di Jama fin dagli anni ’90, quando dirigevo l’edizione italiana della rivista e facevo parte dell’International Advisory Board della rivista madre a Chicago, con il Direttore Scientifico George Lundbergh) e conosco bene le severe e complesse regole editoriali di responsabilità degli Autori per quanto attiene l’integrità dei contenuti scientifici di un articolo di una rivista medica di alto livello e di elevatissimo Impact Factor come JAMA, appunto. Ebbene oggi, se un articolo può essere scritto da un sistema informatico di intelligenza artificiale, come ChatGPT (Generative Pretrained Transformer, un software definito come ChatBot, progettato per simulare una conversazione umana in risposta a domande o ad affermazioni), è evidente il fatto che il rigore delle responsabilità individuali di accuratezza e la veridicità di un risultato scientifico possono essere in gravissimo pericolo. Ecco dunque che l’editoria medica di alta qualità è decisamente in allarme per i pericoli che i modelli semantici di intelligenza artificiale rappresentano nel contesto della qualità delle informazioni scientifiche e per le responsabilità individuali connesse con l’accuratezza e l’efficacia delle informazioni di valenza medico-terapeutica pubblicate.

Capirete bene che ci troviamo davanti a quesiti epocali ed a notevoli problemi pratici e scientifici sollevati dalle nuove tecnologie e dagli strumenti basati sull’intelligenza artificiale. Per approfondire, si consiglia una lettura diretta delle fonti, qui di seguito riportate.

 

——— Riferimento ——

Flanagin, A., Bibbins-Domingo K., Berkwits, M., Christiansen S.L.: Nonhuman ‘Authors’ and implications for the integrity of Scientific Publication and Medical Knowledge, JAMA. 2023; doi: 10.1001/jama.2023.1344





Don`t copy text!