Microsoft: Counterfit per la sicurezza dell'AI

  • ForumDiscuti sul forum
  • PrecedenteCresce la spesa della aziende per il Cloud
  • SuccessivoTwitter acquisisce Scroll per bloccare l'advertising
 Microsoft: Counterfit per la sicurezza dell'AI

Counterfit è un'utility rilasciata dalla Casa di Redmond che permette di valutare il livello di sicurezza di un sistema basato sull'Intelligenza Artificiale. Si tratta di una soluzione Open Source, il codice è scaricabile da un apposito repository di GitHub, utilizzabile da linea di comando e in grado di effettuare controlli in modo del tutto automatico.

La creazione di questo tool è dovuta al fatto che, come dimostrerebbe una rilevazione svolta dalla stessa Microsoft, la maggior parte delle aziende che adottano piattaforme animate da algoritmi di Machine Learning non dispongono di software pensati specificatamente per questo scopo. Dato l'impiego sempre più ampio della AI in ambiti anche molto delicati come la Sanità, Counterfit potrebbe diventare uno standard in questo settore.

Per testarne l'efficienza, soprattutto dal punto di vista proattivo, il gruppo capitanato da Satya Nadella ha svolto diversi test interni realizzati sono forma di simulazioni di attacco. Per questo scopo sono stati utilizzati inizialmente degli script Python implementati per colpire determinati modelli di AI, successivamente sono stati monitorati i risultati ottenibili nel corso di attacchi automatici di grandi dimensioni.

A rendere Counterfit particolarmente performante è il fatto che esso non effettua alcuna distinzione tra tipi di dato (data agnostic) ed è in grado di trattare nello stesso modo parametri di input generici, testi, immagini o altri contenuti multimediali. Nello stesso modo può essere utilizzato in qualsiasi infrastruttura (environment agnostic) sia essa locale, Cloud based o Edge.

Continua dopo la pubblicità...

Come sottolineato dall'azienda californiana nel post di presentazione del progetto, Counterfit è un generic automation layer che presenta anche il vantaggio di astrarre il funzionamento interno dei modelli di AI (model agnostic) permettendo ai professionisti della sicurezza di concentrarsi sulle valutazioni e non sulla configurazione di riferimento.

I commenti degli utenti

I commenti sono liberi: non è necessario iscriversi per poter commentare su questa pagina. Tutti i commenti, tuttavia, sottoposti alle linee guida di moderazione e prima di essere visibili devono essere approvati da un moderatore.