
ππ¨π―ππ«π§ππ«π π₯’ππ§πππ₯π₯π’π ππ§π³π ππ«ππ’ππ’ππ’ππ₯π ππ«π π«ππ π¨π₯ππ¦ππ§πππ³π’π¨π§π π π«π’π¬ππ‘π’
Lβintelligenza artificiale entra in una nuova fase di regolamentazione con lβintroduzione degli standard internazionali ISO/IEC 42001 e ISO/IEC 42005.
Il primo definisce i requisiti per creare un sistema di gestione dellβIA responsabile, garantendo controllo, trasparenza e tracciabilitΓ dei processi automatizzati.
Il secondo, invece, introduce il modello di AI System Impact Assessment, utile per valutare e documentare i rischi connessi ai sistemi di intelligenza artificiale, dalla protezione dei dati alla sicurezza informatica, fino agli impatti etici e sociali.
Di questi temi si Γ¨ discusso nel convegno ospitato allβUniversitΓ Suor Orsola Benincasa di Napoli, che ha riunito esperti, professionisti e studiosi per confrontarsi sulle nuove sfide della governance dellβIA.
A spiegarci nel dettaglio come queste norme cambieranno lβapproccio delle aziende Γ¨ il CEO di Certifica, il Dottor Salvatore Scutiero, che ha avuto il ruolo di relatore all’interno di tale evento:
“Oggi abbiamo cercato di fare un focus su tutto ciΓ² che rappresenta l’intelligenza artificiale e sui rischi che puΓ² portare. Una maggiore attenzione sull’applicazione di queste tecniche che pervadono la societΓ Γ¨ necessaria. L’obiettivo Γ¨ dare una linea guida, delle indicazioni tecniche per individuare e mitigare i rischi all’applicazione dell’intelligenza artificiale. Gli aspetti deleteri di un errato uso oggi sono visti in maniera miope. Non ci si concentra sui problemi reali. Allora il punto Γ¨, in che modo ci si mette nelle condizione di adottare quelle tecniche necessarie per mitigare questo rischio: oggi abbiamo cercato di focalizzare la nostra attenzione su questa tematica”.



