L’uso dell’intelligenza artificiale è sempre più diffuso all’interno dei piccoli business e anche nelle aziende più strutturate. La rapida evoluzione di questi strumenti rende l’esperienza sempre più interessante ed utile.
Ormai l’intelligenza artificiale non serve solo per svolgere più velocemente delle operazioni ripetitive, ma è anche uno strumento per pensare in modo potenziato e trovare idee creative e tante opzioni per la soluzione di problemi di varia natura.
Insomma si tratta ormai di uno strumento che fa parte della nostra quotidianità e del nostro lavoro e che ci aiuta a velocizzare processi, sviluppare la creatività e ad automatizzare compiti ripetitivi e noiosi.
Sembrerebbe tutto meraviglioso se non ci fosse, però, anche il rovescio della medaglia!
L’uso di questi strumenti comporta dei rischi, anche elevati, ed è importante limitarli al massimo tenendo bene a mente due principi fondamentali:
- conoscere a fondo il funzionamento degli strumenti che si utilizzano (c.d. Ai Literacy)
- utilizzare questi strumenti nel rispetto delle norme di legge
AI Literacy
L’AI Literacy rappresenta un obbligo di alfabetizzazione sancito dall’art. 4 dell’AI ACT. Il 13 maggio 2025 la Commissione europea ha pubblicato proprio un documento delle FAQ (Frequently Asked Question) in materia di alfabetizzazione per l’IA.
Questo obbligo è entrato in vigore il 2 febbraio 2025 e richiede che, anche coloro che fanno uso di questi strumenti, adottino misure per ottenere un “livello sufficiente” di conoscenza, competenza e consapevolezza di questi strumenti.
Questo obbligo vale, quindi, per chiunque utilizzi – per qualsiasi scopo – sistemi di intelligenza artificiale. Se sei un libero professionista o freelance che usa questi sistemi, hai il dovere giudico di formarti; se sei un’azienda strutturata, devi formare tutte le persone che ne fanno uso nel loro lavoro.
E’ vero che i sistemi di intelligenza artificiale sono sempre molto sexy e affascinanti, soprattuto osservandone la veloce evoluzione e perfezionamento, ma se non curi la conoscenza, competenza e consapevolezza su questi strumenti, non solo non potrai invocare la tua “non conoscenza” a fondamento della tua buona fede in caso di guai, ma potresti anche essere sanzionato.
La cornice normativa
AI ACT
Il nuovo Regolamento europeo sull’IA (AI Act) introduce regole per la trasparenza e l’affidabilità dei sistemi di intelligenza artificiale. Tra i principi fondamentali troviamo:
- trasparenza
- sicurezza
- controllo umano
- gestione del rischio
Come abbiamo avuto modo di vedere in AI ACT 2024: OBBLIGHI PER IMPRESE E LIBERI PROFESSIONISTI l’Unione europea è stata la prima al mondo ad introdurre una legge che regolamenta l’uso dell’Intelligenza artificiale con la pubblicazione del Regolamento UE 2024/1689 (detto AI ACT) nel luglio del 2024.
Come si dice in gergo: L’USA inventa e l’UE regolamenta.
Per ogni approfondimento sul punto, ti rimando quindi al suddetto articolo.
GDPR
Per quanto riguarda il corretto trattamento dei dati personali, occorre tenere a mente due punti fondamentali:
- Quando carichiamo dei dati all’interno di un sistema di intelligenza artificiale, questi dati possono essere utilizzati per l’addestramento del sistema. Poiché non sappiamo come i dati vengano utilizzati per questo tipo di addestramento, perché i fornitori forniscono informazioni ancora molto opache sul punto, rischiamo di dare in pasto dei dati ad un sistema che non sappiamo cosa possa farne in concreto.
- Per risolvere questo problema, ormai quasi tutti i sistemi di intelligenza artificiale consentono, nelle impostazioni generali, di escludere l’uso dei dati per il training. Però, attenzione perché questa funzione è, a volte, concessa solo agli utenti che hanno un piano a pagamento. Coloro che usufruiscono di un piano gratuito, spesso “pagano” con la moneta dei dati dati in pasto al training il prezzo per l’uso dello strumento. Ergo, no account gratuiti se li usi per lavoro!
- Se anche escludiamo che i dati possano essere usati per il training, comunque vengono archiviati da qualche parte e non sempre i fornitori chiariscono dove vengono archiviati e come poterne avere un pieno controllo.
- Per risolvere questo problema, è necessario:
- scegliere fornitori che abbiano contratti molto chiari e con i quali si possa sottoscrivere una Nomina a responsabile del trattamento a norma dell’art. 28 GDPR.
- Verificare dove i dati vengono archiviati, perché non è consentito il trasferimento dei dati al di fuori dell’UE (ovvero archiviarli in server controllati o allocati extra UE) senza una decisione di adeguatezza della Commissione europea (per approfondimenti in merito, leggi Trans-atlantic Data Privacy Framework: cosa devi sapere?)
- Per risolvere questo problema, è necessario:
Diritto d’autore
Un altro terreno delicato è quello del diritto d’autore. I contenuti prodotti dall’IA (testi, immagini, musica) possono contenere elementi derivati da opere protette. Questo solleva due problemi:
- se e come si possa usare commercialmente l’output;
- se rischio di violare i diritti di terzi.
Contratti di lavoro subordinato
Molte aziende hanno introdotto i sistemi di intelligenza artificiale nei flussi di lavoro che coinvolgono il personale dipendente.
Questo si può fare, ma occorre predisporre delle policy interne chiare, che disciplinano le modalità corrette di uso di questi strumenti, con tutti i limiti da rispettare che, in caso di mancata osservanza, possono essere motivo di contestazioni disciplinari o responsabilità contrattuali.
La legge italiana sull’intelligenza artificiale
Mentre scrivevo questo articolo, è stato approvato il testo definitivo della legge nazionale che l’Italia intende adottare in materia di intelligenza artificiale (DDL 1146-B).
La legge si propone di inserirsi con coerenza e in armonia con l’AI ACT.
Ecco i punti fondamentali, che poi approfondirò in un successivo articolo:
- Centralità dell’uomo: l’AI deve sempre rispettare i diritti fondamentali, garantire trasparenza e protezione dei dati, ed evitare discriminazioni. La decisione finale resta nelle mani delle persone, non delle macchine.
- Governance e sicurezza:
- AgID promuove sviluppo e innovazione.
- ACN vigila sulla cybersicurezza e può svolgere ispezioni e comminare sanzioni.
- La cybersicurezza deve essere garantita lungo tutto il ciclo di vita dei sistemi AI.
- Ambiti specifici:
- Sanità: l’AI può supportare diagnosi e cure, ma l’ultima parola spetta sempre al medico.
- Lavoro: deve migliorare condizioni e produttività, senza ledere dignità e diritti dei lavoratori.
- Pubblica Amministrazione e Giustizia: l’AI è solo uno strumento di supporto; le decisioni restano umane.
- Minori: sotto i 14 anni serve il consenso dei genitori per usare tecnologie basate su AI.
- Diritto d’autore: la creatività tutelata per legge resta quella di origine umana, non artificiale.
- Profili penali: introdotte nuove sanzioni per chi diffonde deepfake ingannevoli o usa l’AI come mezzo insidioso per commettere reati.
Qualche buon consiglio
Ecco alcune regole fondamentali da seguire:
- Non inserire dati personali: lavora sempre su documenti anonimizzati ed epurati di ogni dato che possa ricondurre quella informazione ad una persona fisica identificata o identificabile, a meno che tu non utilizzi un sistema che permette un adeguato controllo e protezione dei dati (solitamente disponibile solo con gli abbonamenti a pagamento di importo più elevato).
- Non inserire dati aziendali riservati: soprattutto se hai degli obblighi di riservatezza istituzionali (come è il caso degli avvocati che sono soggetti al segreto professionale) o contrattuali (se hai firmato dei patti specifici), dare in pasto informazioni riservate potrebbe esporti a rischi molto seri.
- Verificare le fonti: l’IA può inventare ed inventa alla grande! Nonostante fornisca delle risposte apparentemente perfette, cade nella trappola di fare un sacco di errori e imprecisioni. Poiché sei tu responsabile di ciò che dici, scrivi o pubblichi, adotta sempre un atteggiamento scettico, controlla le fonti e verifica tutto minuziosamente prima di premere il tasto “invio”.
- Conservare la supervisione umana: nessuna delega totale. Questo è un principio fondamentale dell’AI ACT e del disegno di legge italiano. Nessun processo, attività o output di alcun genere può essere effettuato senza che ci sia un controllo umano (approccio antropocentrico).
- Leggere attentamente i Termini di Servizio, la Privacy Policy e tutta la documentazione di sicurezza delle piattaforme che stai valutando di utilizzare, prima di inserirle a sistema nel tuo flusso di lavoro.
Alcuni esempi concreti
Vediamo alcuni casi pratici in cui la mancata applicazione dei principi di prudenza che abbiamo appena visto, pur se fatta in buona fede, può comportare conseguenze molto serie e gravi.
Lo studio legale e la scorciatoia pericolosa
Nel pieno della preparazione di un parere urgente, un avvocato decide di affidarsi a un sistema di intelligenza artificiale per velocizzare il lavoro. Inserisce nella piattaforma i dettagli del caso, convinto di fare una scelta intelligente. Il risultato appare brillante, ma c’è un rovescio della medaglia: le informazioni riservate sono condivise con terze parti, in violazione del segreto professionale, e archiviate chissà dove.
La campagna pubblicitaria bloccata sul nascere
In una startup, l’entusiasmo per l’IA generativa porta alla creazione di immagini sorprendenti per una nuova campagna social. Tutto sembra pronto per la pubblicazione, finché qualcuno nota una somiglianza sospetta con un’opera già protetta dal diritto d’autore. L’energia dell’innovazione rischia così di trasformarsi in un passo falso legale e reputazionale, capace di mettere in discussione l’intero progetto e la sua reputazione.
La selezione “smart” ma discriminatoria
Un’azienda sceglie di introdurre un algoritmo per ottimizzare la selezione del personale. All’inizio il sistema appare efficiente, capace di individuare i profili più promettenti con rapidità. Poi emerge un dettaglio inquietante: i CV presentate da persone di sesso femminile risultano sistematicamente penalizzati. Una soluzione nata per semplificare il processo rischia così di alimentare nuove forme di discriminazione, con conseguenze difficili da gestire.
Questi sono solo alcuni esempi.
Per non cadere in questi errori, magari fatti in buona fede, ma che possono generare conseguenze molto gravi, è preferibile fare un’analisi approfondita dei processi aziendali e andare ad individuare i passaggi che potrebbero essere velocizzati o migliorati con l’uso dell’AI. A quel punto, si definiscono le procedure e gli accorgimenti per fare correttamente quei passaggi e si crea un regolamento che tutti devono rispettare.
Anche se non lavori in team, questo regolamento è sempre un’utile roadmap per non cadere in errore in periodi di grande sovraccarico e stress lavorativo.
Le sanzioni
Le sanzioni “in palio” sono davvero molto pesanti.
Per violazioni del GDPR abbiamo una forbice fino a 20 milioni di euro o fino al 4% del fatturato annuo mondiale.
Per violazioni dell’AI Act si arriva fino a 35 milioni di euro o fino al 7% del fatturato annuo mondiale.
L’entità delle sanzioni fa capire non soltanto l’importanza dell’argomento ma anche che, se arriva una sanzione, questa potrebbe davvero mettere in grosse difficoltà soprattutto le aziende più piccole come le microimprese e le PMI.
Come possiamo lavorare insieme
Per usare l’IA in modo sicuro e conforme alla legge, posso aiutarti in vari modi, come ad esempio:
- analizzare le condizioni di servizio, la Privacy Policy e la documentazione legale delle piattaforme che ti interessano e, in base all’uso che vuoi farne, consigliarti la migliore per te;
- predisporre una policy aziendale interna che definisca regole chiare sull’uso degli strumenti di IA;
- offrire formazione per i dipendenti sui rischi e sulle corrette modalità di utilizzo;
- aggiornare le informative privacy e le condizioni di servizio del sito, se l’IA viene utilizzata per interagire con i clienti;
- prevedere disclaimer quando si pubblicano contenuti generati, per trasparenza verso il pubblico.
Ma attenzione! L’uso dell’IA corretto deve inserirsi in un sistema di conformità a monte, partendo dal GPDR, per passare alla cybersecurity fino alla regolamentazione corretta dei sistemi di intelligenza artificiale.
Si tratta, quindi, di un frame di un percorso più ampio, che deve necessariamente inserirsi in un sistema di Compliance correttamente impostato, naturalmente tenendo conto della dimensione del tuo business, dei dati trattati e dei processi di lavoro.
Il processo di Compliance non finisce e non deve finire mai. Tuttavia, a fronte di un investimento più impegnativo iniziale, in termini di risorse e tempo da investire, poi una manutenzione ordinaria annuale diventa un importante appuntamento a minore impatto che offre l’occasione di guardare il proprio business dall’alto e tenere le redini di un sistema che, nell’era dell’economia dei dati, ha una valore più alto del petrolio (il nuovo oro nero digitale).