IA: OBBLIGHI PER LE AZIENDE

Il Regolamento sull’Intelligenza Artificiale mira a garantire che essa sia utilizzata in modo etico, sicuro e responsabile, proteggendo i diritti individuali e collettivi. Le regole si applicano a una vasta gamma di sistemi basati sull’IA, inclusi quelli utilizzati nei settori della salute, dei trasporti, della finanza e dell’energia.

Tra le disposizioni più importanti del regolamento vi è l’obbligo per i fornitori di IA di garantire la trasparenza e la tracciabilità dei sistemi, nonché di rispettare norme etiche e di protezione dei dati. Gli enti e le imprese utilizzatori  sono tenuti a monitorare attentamente l’uso dei sistemi, a mitigare i rischi per la sicurezza e a informare i cittadini sull’impiego dell’IA.

Il Regolamento  è una pietra miliare nella regolamentazione dell’IA a livello europeo( 13 marzo 2024) e rappresenta un importante passo avanti nel promuovere un utilizzo responsabile della tecnologia. Si auspica che questa normativa possa servire da modello per altre giurisdizioni in tutto il mondo nell’affrontare le sfide poste dall’IA.

DEPLOYER: NOZIONI E LIMITAZIONI

La nozione di “deployer”, in definitiva, si applica a qualsiasi persona fisica o giuridica, compresi un’autorità pubblica, un’agenzia o altro organismo, che utilizza un sistema di IA sotto la sua autorità.

  • Utilizzatori finali: persone fisiche o giuridiche che utilizzano un sistema di IA per scopi professionali o non professionali.
  • Operatori di formazione: persone fisiche o giuridiche che forniscono formazione riguardante l’utilizzo di sistemi di Intelligenza Artificiale.
  • Autorità pubbliche: enti pubblici che utilizzano sistemi di IA per svolgere le proprie funzioni.
  • Organismi di certificazione: enti che rilasciano certificazioni riguardanti sistemi di Intelligenza Artificiale

COSA E’ VIETATO

Vi sono, tuttavia, dei sistemi il cui utilizzo è vietato.

Ad esempio:

  • sistemi che discriminano in base a caratteristiche personali come razza, etnia, genere, orientamento sessuale, religione, ecc.;
  • sistemi che incitano alla violenza, all’odio o alla discriminazione;
  • sistemi che minano la privacy delle persone senza il loro consenso;
  • sistemi che violano i diritti umani fondamentali.

CONDIZIONI D’USO E RISCHI

La legge sull’IA si propone di individuare e regolamentare i diversi livelli di rischio associati all’impiego di sistemi di intelligenza artificiale

Per i sistemi  ad alto rischio, la legge prevede una serie di misure specifiche, come ad esempio la necessità di sottoporsi a una valutazione del rischio dettagliata, di essere soggetti a speciali requisiti di trasparenza e di accountability, nonché di garantire la tracciabilità delle decisioni prese dal sistema.

Per i sistemi  a rischio basso o minimo, invece, la disciplina prevede misure più leggere e proporzionate al livello di rischio, come ad esempio la semplice comunicazione dell’uso di un sistema di IA all’utente finale.

Inoltre, la legge sull’IA prevede l’istituzione di un’autorità nazionale competente per monitorare e garantire il rispetto delle regole stabilite, nonché per offrire orientamenti e supporto ai soggetti interessati.

Fra i sistemi di IA classificati  “ad alto rischio”  ad esempio:

  • sistemi di identificazione biometrica remota;
  • sistemi utilizzati come componenti di sicurezza nella gestione e nel funzionamento delle infrastrutture digitali critiche, del traffico stradale e della fornitura di acqua, gas, riscaldamento ed elettricità;
  • sistemi finalizzati a determinare l’accesso, l’ammissione o l’assegnazione agli istituti di istruzione e formazione professionale;
  • sistemi relativi alla valutazione dell’occupazione, ad ottimizzare la gestione dei lavoratori e l’accesso al lavoro autonomo;

LE SANZIONI

Il Regolamento sull’IA presenta un esaustivo e innovativo di disposizioni che entreranno in vigore  gradualmente.

Non conformarsi significa rischiare  sanzioni fissate – alla stregua del GDPR – in una percentuale del fatturato della società.

  • fino a 35 milioni di euro di sanzione o al 7% del fatturato, per violazioni relative a pratiche vietate o per l’inosservanza di requisiti in materia di dati;
  • fino a 15 milioni di euro o al 3% del fatturato per l’inosservanza di qualsiasi altro requisito o obbligo del regolamento;
  • fino a 7,5 milioni di euro o all’1,5% del fatturato mondiale per la fornitura di informazioni inesatte, incomplete o fuorvianti agli organismi notificati e alle autorità nazionali competenti in risposta a una richiesta.