Oltre a suscitare curiosità, allarmi e dibattiti, i nuovi strumenti di intelligenza artificiale generativa, come ChatGpt e Google Bard – giusto per citare i più famosi – stanno cominciando a entrare nella vita delle aziende, permettendo a piccole e medie imprese di beneficiare di una tecnologia che non sarebbero in grado di sviluppare in autonomia.
Sebbene al momento non esista una disciplina ben definita atta a regolare l’utilizzo di queste applicazioni, negli ultimi tempi l’Unione Europea ha compiuto ulteriori passi avanti verso l’approvazione di norme più astringenti per regolamentare gli strumenti di intelligenza artificiale, come ChatGPT di OpenAI.
Dopo aver ottenuto il via libera del Parlamento Ue a metà giugno, l’AI Act dell’Unione Europea deve ora essere messo a punto in via definitiva per essere pubblicato sulla Gazzetta ufficiale dell’Ue a inizio 2024.
Una volta approvato, l’AI Act sarà la “prima legge al mondo” a disciplinare l’Intelligenza Artificiale. Uno dei punti più delicati del regolamento è proprio l’integrazione dei sistemi IA da parte delle aziende.
Il testo approvato dal Parlamento prevede infatti una serie di obblighi e responsabilità a carico delle imprese che integreranno queste tecnologie nei propri sistemi digitali. Per adeguarsi al nuovo regolamento, le aziende dovranno quindi acquisire nuove competenze e adattare le proprie strutture interne, così come è accaduto con il Gdpr per la protezione dei dati personali.
Leggi anche: L’ESMA avvia la consultazione UE per l’implementazione del regolamento MiCA sulle criptovalute
Cosa cambierà per le aziende?
Come già noto, le norme dell’AI Act seguono un approccio basato sul rischio e stabiliscono obblighi per i fornitori e per coloro che impiegano sistemi di IA a seconda del livello di rischio che la tecnologia può generare. Saranno quindi vietati i sistemi di IA che presentano un livello di rischio inaccettabile per la sicurezza delle persone, come quelli utilizzati per il social scoring (classificazione delle persone in base al loro comportamento sociale o alle loro caratteristiche personali).
Sul mercato sono già disponibili applicazioni che integrano ChatGPT per creare siti web, ideare e modificare immagini, simulare un’assistente virtuale e tanto altro ancora. Gli ambiti di utilizzo sono numerosissimi e riguardano un po’ tutti i settori, crescendo in maniera esponenziale.
Tuttavia, sebbene strumenti come ChatGPT possano essere un grande aiuto per consentire alle aziende di aumentare i relativi business e la produttività in diversi ambiti, le imprese devono essere consapevoli che l’uso di queste tecnologie comporta una condivisione dei dati che potrebbe ledere i diritti e le libertà degli utenti.
Secondo il Rapporto 2023 sul digitale in Italia messo a punto da Anitec-Assinform (associazione delle aziende Ict), la diffusione dell’IA generativa sta spingendo la crescita del mercato dell’intelligenza artificiale: nel 2022 la spesa delle aziende per implementare questi sistemi è stata di 435 milioni di euro (+32% rispetto al 2021), mentre nel 2023 si prevede che salirà al 48% (nel 2022 era il 26%).
Per contenere i rischi legati all’utilizzo di queste nuove tecnologie, Confindustria e Anitec-Assinform stanno organizzando un programma biennale di incontri rivolto alle micro, piccole e medie imprese (PMI) in tutta Italia.
Tuttavia, vista la complessità della materia e della regolazione, sarà importante che le autorità nazionali incaricate di vigilare e sanzionare le aziende che creano e integrano sistemi di IA offrano anche un supporto allo sviluppo di questa cruciale tecnologia.
Mr. Hankey Coin, la nuova shitcoin
- La prossima crypto da 100x
- Nuova shit coin pronta a esplodere
- Liquidità abbondante
- Comunità di migliaia di investitori