Intelligenza artificiale, servono regole per salvaguardare i cittadini
Le piattaforme informatiche ad oggi non hanno una "morale", eppure stanno sostituendo i giornalisti e il "quarto potere": Newsguard, società che valuta l'affidabilità dei siti di notizie di tutto il mondo, ha trovato 49 siti con nomi generici - Biz Breaking News, Daily Business Post e Market News Reports - in sette lingue (anche francese, inglese, portoghese) che parrebbero generati da modelli di linguaggio basati sull'AI e producono contenuti di politica, salute, varia, finanza, talora con narrazioni false e frasi ripetitive.
Ma che succede se l'informazione cade in mano ai robot o a chi li programma? Sulla base di questa domanda, il Parlamento europeo sta votando un modello europeo di intelligenza artificiale rispettosa della privacy, dell'individuo e dei diritti fondamentali, cui quanto meno i produttori di chatbot dovranno attenersi.
La proposta vieta pratiche come il 'social scoring', classificazione dei comportamenti sociali, proibisce algoritmi che leggono le emozioni in contesti di lavoro o educativo e preclude l'uso di telecamere biometriche a riconoscimento facciale nei luoghi pubblici. Inoltre divide le tecnologie in classi di rischio imponendo un processo di revisione, certificazione e controllo umano per quelle di AI. Una volta che l'Eurocamera avrà approvato il testo, Consiglio e Commissione Ue dovranno dire la loro e potrebbero, si sospetta, "mitigare" un po' gli altolà rilanciati dai gruppi parlamentari di Bruxelles.
Salute oggi:
- Notizie e aggiornamenti
- Libri e pubblicazioni
- Dalle aziende
- Appunti di salute
- Nutrire la salute
- Aperi-libri
- Allenati con noi
...e inoltre su Dica33: