La convenzione Europea sull'intelligenza artificiale si rivolge agli stati perchè facciano regole uniformi.
L'ai act riguarda gli europei. Due defininizioni chiave: processor e alto rischio.
La definizione di processor include chiunque rivende un prodotto o servizio con dentro l'intelligenza artificiale.
Il medico o l'avvocato che usa l'AI per scrivere una ricetta o un contratto è avvertito.
Non riguarda solo chi produce modelli, llm. Riguarda chi rivende i servizi in Europa.
Secondo: la nozione di AI ad alto rischio è ingestibile. Solo con sforzi ho ottenuto una semplificazione degli artt. 6, 7 e allegato III:
{
"Biometria": "Identificazione biometrica e categorizzazione",
"Sicurezza": "Supervisione e requisiti per la sicurezza dei sistemi IA",
"Occupazione": "Impiego dell'IA nel reclutamento e nelle prestazioni lavorative",
"Privacy": "Protezione dei dati personali e diritto alla privacy",
"Giustizia": "Utilizzo dell'IA in ambito giudiziario e decisioni legali",
"Migrazione": "Gestione dell'IA per asilo e confini",
"Democrazia": "Impatto dell'IA su diritti democratici e giustizia sociale",
"Trasparenza": "Obblighi di trasparenza per l'uso dei sistemi IA",
"Salute": "Tutela della salute pubblica e valutazioni di impatto",
"Innovazione": "Sostegno all'innovazione tecnologica e regolamentazione"
}
Vi rientra tutto.
Diremo quindi che per adempiere basterà seguire le faq ufficiali e gli allegati da 4 al 13 che indicano come fare le dichiarazioni: leggeteli, impossibile non essere banali o tralasciare qualcosa. Troppo generici.
In questo contesto i Gafam annunciano che potrebbero (vedremo...) ritirarei i modelli llm open source, perchè l'ai act, a dispetto degli annunci, si applica anche al mondo gratuito, open source, e ai piccoli.
Ci sono ipotesi chiare, è ovvio. Ma per usi più generalisti, i rischi sono tanti, enfatizzati dagli interpreti che in questo momento raccomandano a tutti di adempiere come non fossero pmi.