Intelligenza artificiale, servono regole per salvaguardare i cittadini

18 maggio 2023
Aggiornamenti e focus

Intelligenza artificiale, servono regole per salvaguardare i cittadini



Tags:
L'Unione Europea dà il benvenuto all'intelligenza artificiale, essenziale anche per lo sviluppo della ricerca medica, ma vuole regole precise. Nel frattempo, nel nostro paese, ChatGPT, chatbot conversazionale di Open AI da 100 milioni di utenti è di nuovo online dopo che il Garante per la protezione dei dati personali aveva limitato il trattamento dati degli utenti italiani. 

L'Authority aveva osservato la mancanza di una informativa agli utenti nostrani, l'assenza di una base giuridica per la raccolta di dati personali volta ad "addestrare" gli algoritmi sottostanti al funzionamento della piattaforma, la non corrispondenza al dato reale delle informazioni fornite che determinava un trattamento dati personali inesatto, e l'assenza di filtro per la verifica dell'età degli utenti (mai sotto i 13 anni). 

Per far tornare online la piattaforma, il Garante ha chiesto di pubblicare sul sito Open AI un'informativa volta a spiegare a tutti le modalità del trattamento, di consentire agli utenti esercitare il diritto di opporsi ai trattamenti svolti dalla società dei loro dati, di permettere a richiesta la correzione di dati personali, di vietare la chatbot ai minori con strumenti di age verification; ha chiesto infine una campagna informativa sui media italiani sull'uso dei dati personali per addestrare algoritmi.

Le piattaforme informatiche ad oggi non hanno una "morale", eppure stanno sostituendo i giornalisti e il "quarto potere": Newsguard, società che valuta l'affidabilità dei siti di notizie di tutto il mondo, ha trovato 49 siti con nomi generici - Biz Breaking News, Daily Business Post e Market News Reports - in sette lingue (anche francese, inglese, portoghese) che parrebbero generati da modelli di linguaggio basati sull'AI e producono contenuti di politica, salute, varia, finanza, talora con narrazioni false e frasi ripetitive. 

Ma che succede se l'informazione cade in mano ai robot o a chi li programma? Sulla base di questa domanda, il Parlamento europeo sta votando un modello europeo di intelligenza artificiale rispettosa della privacy, dell'individuo e dei diritti fondamentali, cui quanto meno i produttori di chatbot dovranno attenersi. 

La proposta vieta pratiche come il 'social scoring', classificazione dei comportamenti sociali, proibisce algoritmi che leggono le emozioni in contesti di lavoro o educativo e preclude l'uso di telecamere biometriche a riconoscimento facciale nei luoghi pubblici. Inoltre divide le tecnologie in classi di rischio imponendo un processo di revisione, certificazione e controllo umano per quelle di AI. Una volta che l'Eurocamera avrà approvato il testo, Consiglio e Commissione Ue dovranno dire la loro e potrebbero, si sospetta, "mitigare" un po' gli altolà rilanciati dai gruppi parlamentari di Bruxelles.


fonte: Sanità33



Salute oggi:

...e inoltre su Dica33:
Ultimi articoli
Seguici su:

Seguici su FacebookSeguici su YoutubeSeguici su Instagram
Farmacista33Doctor33Odontoiatria33Codifa