banner

Blog

Aug 05, 2023

6 sfide legate al machine learning per le aziende

Getty Images/iStockphoto

L’apprendimento automatico promette approfondimenti che possono aiutare le aziende a potenziare l’assistenza clienti, combattere le frodi e anticipare la domanda di prodotti o servizi.

Ma l’implementazione della tecnologia – e la realizzazione dei benefici attesi – può rivelarsi difficile, per usare un eufemismo. Entrano in gioco le questioni spinose legate all’introduzione di qualsiasi nuovo strumento: tra gli ostacoli figurano investimenti insufficienti e la mancanza di accettazione da parte degli utenti. Ma le organizzazioni che implementano il machine learning (ML) devono affrontare una serie di preoccupazioni ancora più ampia, dall’etica all’incertezza epistemica.

Ecco sei sfide ML che le aziende dovrebbero considerare:

Le organizzazioni si assumono una certa quantità di rischi quando perseguono le tecnologie emergenti. Nel caso del riciclaggio, i rischi potenziali sono enormi e tendono ad essere multidimensionali.

"Le sfide più grandi a cui stiamo assistendo, e che tutte le organizzazioni stanno affrontando, sono in realtà legate a preoccupazioni etiche, preoccupazioni di sicurezza, preoccupazioni economiche e considerazioni legali", ha affermato Zakir Hussain, leader dei dati americani presso la società di consulenza EY. "Questi quattro sono in genere quelli di cui molti dei nostri clienti chiedono costantemente."

I pregiudizi nei modelli ML sono tra le principali questioni etiche. Ad esempio, i dati utilizzati per addestrare tali modelli potrebbero non includere dati rappresentativi di tutti i gruppi di persone all’interno di una determinata popolazione. Il modello risultante produrrà risultati sistematicamente pregiudizievoli.

Per quanto riguarda la sicurezza, chi adotta il ML deve affrontare diverse questioni. Questi includono data scientist che potenzialmente scaricano malware insieme ai modelli open source che intendono personalizzare, nonché attacchi tempestivi di ingegneria, ha affermato David Frigeri, amministratore delegato di Slalom e leader della sua pratica AI/ML a Filadelfia. Slalom è una società di consulenza focalizzata su strategia e tecnologia.

Ha anche citato il data-avvelenamento, un attacco in cui un attore della minaccia si infiltra nei dati di formazione di un'azienda per influenzare i risultati delle analisi o l'output del modello.

Le questioni di sicurezza si intrecciano con preoccupazioni più ampie sulla fiducia, in particolare con l’aspetto della creazione di contenuti dell’intelligenza artificiale generativa. "In alcuni casi, non puoi sempre fidarti del contenuto che [AI] ha creato per te", ha detto Frigeri. "Ci devono essere alcuni controlli ed equilibri per capire di cosa ti puoi fidare e di cosa non puoi fidarti."

Le preoccupazioni economiche, nel frattempo, ruotano attorno alle questioni relative al posto di lavoro e ai circa 300 milioni di posti di lavoro che l’intelligenza artificiale dovrebbe influenzare, ha affermato Hussain. Ha osservato che alcune aziende hanno già smesso di assumere persone per posizioni in cui credono che l’intelligenza artificiale possa svolgere il lavoro.

E in ambito legale, Hussain ha citato il caso di un avvocato di New York che si è affidato a ChatGPT per creare una memoria. Lo strumento di intelligenza artificiale ha costituito citazioni legali, il che sottolinea come la tecnologia possa avere allucinazioni e introdurre errori.

Le organizzazioni che implementano il machine learning devono affrontare tali problemi direttamente, ha affermato Hussain. Le misure che aiutano a mitigare il rischio includono la definizione di linee guida etiche e di governance chiare, la priorità sulla qualità dei dati, l’enfasi sull’equità nello sviluppo dei modelli e la garanzia della spiegabilità dei modelli, ha aggiunto.

Nella fretta di creare modelli, le organizzazioni potrebbero evitare il difficile compito di inquadrare un problema che il machine learning possa risolvere.

"Iniziamo la conversazione con i nostri clienti con la semplice idea di amare il problema", ha detto Frigeri. "Troppe volte le persone si innamorano della soluzione prima di comprendere appieno, qualitativamente e quantitativamente, qual è il problema."

I progetti evaporano quando le organizzazioni non riescono a selezionare un forte candidato problematico per il ML. Se il problema scelto non muove l’ago proverbiale, le prove di concetto perdono risorse e non riescono a fornire “apprendimenti o operazionalizzazione”, ha osservato Frigeri.

Le organizzazioni che faticano a inquadrare il problema troveranno difficile anche trovare casi d’uso appropriati, ostacolandone l’implementazione. Più della metà dei 200 strateghi aziendali intervistati da Gartner ha citato “la definizione di un chiaro caso d’uso” come l’ostacolo principale nell’implementazione delle tecnologie emergenti. Il rapporto del luglio 2023 della società di ricerche di mercato ha rilevato che solo il 20% degli strateghi ha utilizzato strumenti legati all’intelligenza artificiale come il machine learning.

CONDIVIDERE