It looks like you are using an older version of Internet Explorer which is not supported. We advise that you update your browser to the latest version of Microsoft Edge, or consider using other browsers such as Chrome, Firefox or Safari.

La diffusione dell’intelligenza artificiale pone diverse questioni che riguardano il suo utilizzo. A questo proposito, il Parlamento Europeo ha approvato uno specifico documento, l’AI Act, che indica alcune norme da seguire relative all’uso di queste tecnologie, vietando, tra l’altro, il riconoscimento facciale in luoghi pubblici all'interno dei paesi dell’UE. Per quanto riguarda l’applicazione dell’AI nell’ambito della salute, arriva invece una precisa presa di posizione direttamente dall’Organizzazione mondiale della sanità.

Software Llm e salute: uso ragionato e potenzialità

L'iniziativa dell’Oms parte dalla preoccupazione generata dal crescente sviluppo e utilizzo di diversi software Llm (large language model), il più celebre dei quali è attualmente Chat Gpt, che “imitano la comprensione, l’elaborazione e la produzione della comunicazione umana”. L’Oms intende invitare a un uso ragionato, che salvaguardi la sicurezza dei cittadini in relazione alla loro salute.

Diventa essenziale monitorare attentamente i possibili rischi che si corrono “quando si utilizzano gli Llm per migliorare l’accesso alla informazioni sulla salute, come strumento di supporto decisionale o anche per migliorare la capacità diagnostica in contesti con risorse insufficienti per proteggere la salute delle persone e ridurre le disuguaglianze”. Il ricorso all'intelligenza artificiale in materia di salute può rivelarsi utile e non va bloccato, ma deve essere adeguato a “supportare gli operatori sanitari, i pazienti, i ricercatori e gli scienziati”.

I principali rischi

In particolare, per l’Oms, l’utilizzo di queste tecnologie deve essere subordinato ad una ”adesione diffusa ai valori chiave di trasparenza, inclusione, impegno pubblico, supervisione di esperti e valutazione rigorosa”, in considerazione del fatto che “l’adozione precipitosa di sistemi non testati potrebbe portare a errori da parte degli operatori sanitari, causare danni ai pazienti, erodere la fiducia nell’Ia e quindi minare (o ritardare) i potenziali benefici e gli usi a lungo termine di tali tecnologie in tutto il mondo”.

Si rende necessaria, in questa prospettiva, una rigorosa supervisione nell’utilizzo dell’intelligenza artificiale per non incorrere nei seguenti rischi:

  • i dati utilizzati per addestrare l’Ia possono essere distorti, generando informazioni fuorvianti o imprecise che potrebbero comportare rischi per la salute, l’equità e l’inclusione
  • gli Llm generano risposte che possono apparire autorevoli e plausibili a un utente finale; tuttavia, queste risposte possono essere completamente errate o contenere gravi errori, soprattutto per le risposte relative alla salute;
  • gli Llm possono essere addestrati su dati per i quali il consenso potrebbe non essere stato fornito in precedenza per tale utilizzo e gli Llm potrebbero non proteggere i dati sensibili (inclusi i dati sanitari) che un utente fornisce a un’applicazione per generare una risposta;
  • gli Llm possono essere utilizzati in modo improprio per generare e diffondere disinformazione altamente convincente sotto forma di contenuti testuali, audio o video, difficili da distinguere per il pubblico da contenuti sanitari affidabili.

L’appello si estende alle istituzioni politiche, che devono impegnarsi a garantire sicurezza e protezione dei pazienti attraverso un uso responsabile dell’intelligenza artificiale, sfruttando in maniera etica il loro potenziale.

08/06/2023

Curated Tags

Stai lasciando l'area PAG

Ora sarai reindirizzato su un contenuto dell'area pubblica