Attenzione ad un uso responsabile dell’AI
Nei progetti e nei software della suite Semanticase che includono modelli di Agentic AI si tiene sempre in considerazione la necessità di operare in modo consapevole e responsabile.
A partire dal 2018, l’AI di Semanticase e Semanticase si è sempre riferita ad un codice di condotta volontario e pubblico (https://www.semanticase.it/wp-content/uploads/Lintelligenza-in-semanticase.png) ispirato ai concetti di spiegabilità e trasparenza.
Con l’introduzione dell’AI ACT, tali principi sono stati ribaditi e rafforzati e continuano ad ispirare l’azione di Semanticase. Nella suite Semanticase e nei progetti AI si integra l’intelligenza Artificiale con una esplicita strategia centrata sulla responsabilità algoritmica e sulla piena conformità normativa. La progettazione e l’adozione di tecnologie e pipeline ibride di modelli NLP e di Agentic AI generativa garantiscee: trasparenza, riservatezza dei dati e spiegabilità dei sistemi.
Come garantiamo la compliance
TRASPARENZA = tracciabilità e accesso informato
Lavoriamo con modelli Ai sviluppando pipeline che integrato algoritmi NLP e LLM. Il processo di integrazione e funzionamento viene:
- esplicitato in documentazione tecnica e funzionale che spiega non solo i modelli AI impiegati (es. LLM o altri modelli AI), ma include anche i webservice, e le tecnologie di interazione, gestione e monitoraggio;
- log e tracciamento delle interazioni con l’AI e codifica e conservazione dei semilavorati del dato: che sia l’interazione con l’AI generativa o l’elaborazione dei dati, lo stato e le informazioni vengono tracciate e conservate per monitoraggio e metriche, accessi e verifiche delle informazioni tracciate, trasparenza delle elaborazioni, eventuali tuning dei modelli.
- comunicazione chiara dell’uso di AI: in tutti i touchpoint dell’utente con l’AI sono disponibili disclaimer, manuali e illustrazioni dei dati di input, i modelli di trasformazione e output operato all’AI. L’utente può comprendere la modalità di gestione e trattamento delle informazioni nel sistema.
RISERVATEZZA = protezione dei dati e uso lecito
Semanticase garantisce la riservatezza dell’uso dei dati nella sua Agentic AI in quanto:
- utilizza nei progetti elaborazione e inferenza su server locali
- esplicita i modelli LLM utilizzati e le modalità di interazione dei dati con gli LLM
- adotta chiamate anonimizzate agli LLM
- utilizza l’AI in un’architettura informatica protetta da idonee misure di sicurezza e cybersecurity.
SPIEGABILITÀ: comprensibilità dei processi AI
Il team di Semanticase, anche in collaborazione con gli enti di ricerca, si impegna a rendere l’Agentic AI comprensibile e interpretabile da parte di utenti, clienti e stakeholder. Adottando il principio di “human-in-the-loop”:
- negli algoritmi NLP non generativi: la pipeline spiegabile prevede sempre l’interazione dei modelli con l’uomo, a cui viene assegnato il controllo e la decisionalità sul processo.
- nell’adozione di AI generativa: gli Agent e applicazioni realizzate integrano protocolli di validazione e verifica delle interazioni con gli agent , consolidando i processi di preparazione dei dati ex ante o controllo dell’interazione, in modo di avere un approccio complesso che permetta di governare l’interazione con l’AI Generativa.
Codice di Condotta
Semanticase ha consolidato questi principi in un Codice di Condotta interno per un uso etico, sicuro e normativamente conforme dell’AI che condivide con gli stakeholder. Inoltre, Semanticase si impegna con un’apposita sezione del proprio catalogo formativo di Piazza Copernico alla formazione delle persone e dei lavoratori per un uso responsabile dell’AI nei processi di lavoro.