It looks like you are using an older version of Internet Explorer which is not supported. We advise that you update your browser to the latest version of Microsoft Edge, or consider using other browsers such as Chrome, Firefox or Safari.

L’impiego di sistemi di Intelligenza artificiale (AI) in ambito sanitario sta crescendo in modo esponenziale, insieme alle aspettative sui benefici di tali strumenti per la salute individuale e della collettività. Ma, oltre alle grandi opportunità derivanti dall’impiego dell’AI, è necessario considerare i rischi che l’utilizzo di questa tecnologia comporta, soprattutto in settori delicati come i servizi sanitari. Per questo motivo dal Garante della Privacy arriva un decalogo ad hoc basato su Linee guida ben precise: trasparenza dei processi decisionali, decisioni automatizzate supervisionate dall’uomo, non discriminazione algoritmica. Sono questi i tre principi cardine individuati dall’Autorità sulla base del Regolamento e alla luce della giurisprudenza del Consiglio di Stato.

Diritti dei pazienti

In base alle indicazioni dell’Autorità, il paziente deve avere il diritto di conoscere, anche attraverso campagne di comunicazione, quali sono i processi decisionali basati su trattamenti automatizzati effettuati attraverso strumenti di AI e di ricevere informazioni chiare sulla logica utilizzata per arrivare a quelle decisioni. Il personale sanitario – si legge nel decalogo – deve controllare, validare o smentire l’elaborazione effettuata dagli strumenti di AI. È opportuno, avverte il Garante, che il titolare del trattamento utilizzi sistemi di intelligenza artificiale affidabili, che riducano gli errori dovuti a cause tecnologiche o umane e ne verifichi periodicamente l’efficacia, mettendo in atto misure tecniche e organizzative adeguate. Questo anche allo scopo di mitigare potenziali effetti discriminatori che un trattamento di dati inesatti o incompleti potrebbe comportare sulla salute della persona.

Trattamento dei dati

Tra i ‘principi’ alla base del decalogo, il trattamento di dati sulla salute attraverso tecniche di AI, effettuato per motivi di interesse pubblico in ambito sanitario, dovrà essere previsto da uno specifico quadro normativo, che individui misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi degli interessati. A tale proposito il Garante ha sottolineato la necessità che, prima di effettuare trattamenti di dati sulla salute mediante sistemi nazionali di AI, sia svolta una valutazione d’impatto allo scopo di individuare le misure idonee a tutelare i diritti e le libertà dei pazienti e garantire il rispetto dei principi del Regolamento Ue. Un sistema centralizzato nazionale che utilizzi l’AI determina infatti un trattamento sistematico su larga scala di dati sanitari che rientra tra quelli ad “alto rischio”, per i quali la valutazione d’impatto è obbligatoria e deve essere svolta a livello centrale per consentire un esame complessivo sull’adeguatezza e omogeneità degli accorgimenti adottati.

Nel decalogo si fa riferimento al principio di non discriminazione algoritmica, secondo cui è opportuno che il titolare del trattamento utilizzi sistemi di AI affidabili che riducano le opacità, gli errori dovuti a cause tecnologiche e/o umane, verificandone periodicamente l’efficacia anche alla luce della rapida evoluzione delle tecnologie impiegate, delle procedure matematiche o statistiche appropriate per la profilazione, mettendo in atto misure tecniche e organizzative adeguate.

16/11/2023

Curated Tags

Stai lasciando l'area PAG

Ora sarai reindirizzato su un contenuto dell'area pubblica