Gli algoritmi di machine learning sono progettati per semplificare la vita e migliorare i sistemi, ma possono andare storto con conseguenze negative.

Cosa sono gli algoritmi di apprendimento automatico? Ecco come funzionano

Annuncio pubblicitario L'intelligenza artificiale e l'apprendimento automatico producono molti dei progressi che vediamo oggi nel settore della tecnologia. Ma come viene data la possibilità alle macchine di apprendere? Inoltre, in che modo il modo in cui lo facciamo comporta conseguenze indesiderate?

Annuncio pubblicitario

L'intelligenza artificiale e l'apprendimento automatico producono molti dei progressi che vediamo oggi nel settore della tecnologia. Ma come viene data la possibilità alle macchine di apprendere? Inoltre, in che modo il modo in cui lo facciamo comporta conseguenze indesiderate?

Ecco la nostra spiegazione rapida su come funzionano gli algoritmi di machine learning, insieme ad alcuni esempi di machine learning andati male.

Cosa sono gli algoritmi di apprendimento automatico?

L'apprendimento automatico è una branca dell'informatica che si concentra sul dare all'IA la capacità di apprendere attività 5 I migliori esperimenti di intelligenza artificiale di Google per esplorare l'intelligenza artificiale 5 I migliori esperimenti di intelligenza artificiale di Google per esplorare l'intelligenza artificiale Google ha diversi esperimenti di intelligenza artificiale con cui puoi giocare e giocare, giusto adesso. Grazie all'apprendimento automatico, possono cambiare il mondo di domani con il tuo aiuto. Leggi di più . Ciò include lo sviluppo di abilità senza che i programmatori codifichino esplicitamente l'IA per fare queste cose. Invece, l'IA è in grado di utilizzare i dati per insegnare se stessa.

I programmatori ottengono questo attraverso algoritmi di apprendimento automatico. Questi algoritmi sono i modelli su cui si basa un comportamento di apprendimento AI. Gli algoritmi, insieme ai set di dati di addestramento, consentono all'apprendimento dell'intelligenza artificiale.

Un algoritmo di solito fornisce un modello che un'intelligenza artificiale può utilizzare per risolvere un problema. Ad esempio, imparare a identificare le immagini di gatti contro cani. L'intelligenza artificiale applica il modello stabilito dall'algoritmo a un set di dati che include immagini di cani e gatti. Nel tempo, l'IA imparerà come identificare i gatti dai cani in modo più preciso e facile, senza input umano.

L'apprendimento automatico migliora la tecnologia come motori di ricerca, dispositivi domestici intelligenti, servizi online e macchine autonome. È come Netflix sa quali film ti piacciono di più e come i servizi di streaming musicale possono consigliare le playlist.

Ma mentre l'apprendimento automatico può rendere le nostre vite molto più facili, ci possono anche essere alcune conseguenze inaspettate.

7 volte in cui l'apprendimento automatico è andato storto

1. Incidenti sui risultati della ricerca di immagini di Google

google-image-ricerca-risultati-polemiche

Ricerca Google ha reso la navigazione sul Web molto più semplice. L'algoritmo del motore prende in considerazione una varietà di cose quando sfornano i risultati, come parole chiave e frequenza di rimbalzo. Ma l'algoritmo impara anche dal traffico degli utenti, il che può causare problemi per la qualità dei risultati di ricerca.

Da nessuna parte questo è più evidente che nei risultati di immagini. Poiché è più probabile che le pagine che ricevono un traffico elevato visualizzino le loro immagini, le storie che attirano un numero elevato di utenti, incluso il clickbait, hanno spesso la priorità.

Ad esempio, i risultati della ricerca di immagini per "campi per occupanti abusivi in ​​Sudafrica" ​​hanno suscitato polemiche quando è stato scoperto che presentava prevalentemente bianchi sudafricani. Ciò nonostante le statistiche dimostrino che la stragrande maggioranza di coloro che vivono in abitazioni informali, come le baracche, sono neri sudafricani.

I fattori utilizzati nell'algoritmo di Google indicano anche che gli utenti di Internet possono manipolare i risultati. Ad esempio, una campagna di utenti ha influenzato i risultati di Google Ricerca immagini nella misura in cui la ricerca del termine "idiota" mostra immagini del presidente degli Stati Uniti Donald Trump.

2. Microsoft Bot trasformato in un nazista

Affidati a Twitter per corrompere un chatbot di apprendimento automatico ben intenzionato. Questo è ciò che è accaduto entro il giorno del rilascio del famigerato chatbot Tay di Microsoft.

Tay ha imitato gli schemi linguistici di una ragazza adolescente e ha imparato attraverso le sue interazioni da altri utenti di Twitter. Tuttavia, divenne uno dei più famosi passi falsi dell'IA quando iniziò a condividere dichiarazioni naziste e insulti razziali. Si scopre che i troll hanno usato l'apprendimento automatico dell'IA contro di esso, inondandolo di interazioni cariche di bigottismo.

Non molto tempo dopo, Microsoft portò Tay offline per sempre.

3. Problemi di riconoscimento facciale AI

Riconoscimento facciale L'intelligenza artificiale spesso fa notizia per tutte le ragioni sbagliate, come storie sul riconoscimento facciale e problemi di privacy. Ma questa IA ha anche causato enormi preoccupazioni nel tentativo di riconoscere le persone di colore.

Nel 2015, gli utenti hanno scoperto che Google Foto stava classificando alcuni neri come gorilla. Nel 2018, una ricerca dell'ACLU ha dimostrato che il software di identificazione del volto Rekognition di Amazon ha identificato 28 membri del Congresso degli Stati Uniti come sospetti della polizia, con falsi positivi che colpiscono in modo sproporzionato le persone di colore.

Un altro incidente ha coinvolto il software Face ID di Apple Vuoi acquistare un iPhone X? Face ID potrebbe farti riconsiderare L'acquisto di un iPhone X? Face ID potrebbe farti riconsiderare La caratteristica più notevole di iPhone X è il sistema di sblocco del dispositivo Face ID. Ma quanto è sicuro? Apple avrà accesso a un enorme database di volti di tutti? Leggi di più identificando erroneamente due diverse donne cinesi come la stessa persona. Di conseguenza, il collega del proprietario dell'iPhone X potrebbe sbloccare il telefono.

Nel frattempo, la ricercatrice del MIT Joy Buolamwini ricorda che spesso ha bisogno di indossare una maschera bianca mentre lavora alla tecnologia di riconoscimento facciale per far riconoscere il software. Per risolvere problemi come questo, Buolamwini e altri professionisti IT stanno attirando l'attenzione sul problema e sulla necessità di set di dati più inclusivi per la formazione AI.

4. Deepfakes utilizzati per i bufale

Mentre le persone usano da tempo Photoshop per creare immagini truffe, l'apprendimento automatico porta questo a un nuovo livello. Software come FaceApp ti consentono di scambiare i soggetti da un video all'altro.

Ma molte persone sfruttano il software per una varietà di usi dannosi, tra cui la sovrapposizione di volti di celebrità a video per adulti o la generazione di video falsi. Nel frattempo, gli utenti di Internet hanno contribuito a migliorare la tecnologia per rendere sempre più difficile distinguere i video reali da quelli falsi. Di conseguenza, questo rende questo tipo di intelligenza artificiale molto potente in termini di diffusione di notizie false e bufale. Facebook offre consigli per aiutarti a individuare le notizie false Facebook offre suggerimenti per aiutarti a individuare le notizie false Mentre Facebook non produce notizie false, è almeno parzialmente responsabile della sua diffusione. Ecco perché ora offre suggerimenti per aiutarti a individuare le notizie false prima che si diffondano. Leggi di più .

Per mettere in mostra il potere della tecnologia, il regista Jordan Peele e il CEO di BuzzFeed, Jonah Peretti, hanno creato un video di deepfake che mostra quello che sembra essere l'ex presidente degli Stati Uniti Barack Obama che consegna un PSA sul potere dei deepfake.

5. L'ascesa dei robot di Twitter

I bot di Twitter sono stati originariamente creati per automatizzare elementi come le risposte del servizio clienti per i marchi. Ma la tecnologia è ora una delle principali preoccupazioni. In effetti, la ricerca ha stimato che fino a 48 milioni di utenti su Twitter sono in realtà robot AI.

Invece di utilizzare semplicemente gli algoritmi per seguire determinati hashtag o rispondere alle domande dei clienti, molti account bot cercano di imitare le persone reali. Queste "persone" promuovono quindi bufale e contribuiscono a rendere virali le notizie false.

Un'ondata di bot di Twitter ha persino influenzato l'opinione pubblica in una certa misura sulla Brexit e sulle elezioni presidenziali statunitensi del 2016. Twitter stesso ha ammesso di aver scoperto circa 50.000 robot di fabbricazione russa che hanno pubblicato notizie sulle elezioni.

I robot continuano ad affliggere il servizio, diffondendo disinformazione. Il problema è così grave che sta anche influenzando la valutazione dell'azienda.

6. I dipendenti affermano che Amazon AI ha deciso che assumere uomini è meglio

Nell'ottobre 2018, Reuters ha riferito che Amazon ha dovuto eliminare uno strumento di assunzione di lavoro dopo che l'IA del software aveva deciso che i candidati maschi erano preferenziali.

I dipendenti che desideravano rimanere anonimi si sono fatti avanti per informare Reuters del loro lavoro sul progetto. Gli sviluppatori volevano che l'IA identificasse i migliori candidati per un lavoro basato sui loro CV. Tuttavia, le persone coinvolte nel progetto hanno presto notato che l'IA ha penalizzato le candidate donne. Hanno spiegato che l'IA ha usato i CV degli ultimi dieci anni, la maggior parte dei quali provenienti da uomini, come set di dati di formazione.

Di conseguenza, l'IA ha iniziato a filtrare i CV in base alla parola chiave "donne". La parola chiave è apparsa nel CV sotto attività come "capitano del club di scacchi femminile". Mentre gli sviluppatori hanno modificato l'intelligenza artificiale per prevenire questa penalizzazione dei CV delle donne, Amazon alla fine ha eliminato il progetto.

7. Contenuti inappropriati su YouTube Kids

YouTube Kids ha molti video sciocchi e stravaganti pensati per intrattenere i bambini. Ma ha anche un problema con i video spam che manipolano l'algoritmo della piattaforma.

Questi video si basano su tag popolari. Poiché i bambini piccoli non sono spettatori molto esigenti, i video spazzatura che utilizzano queste parole chiave attirano milioni di visualizzazioni. L'intelligenza artificiale genera automaticamente alcuni di questi video utilizzando elementi di animazione stock, basati su tag di tendenza. Anche quando i video sono realizzati da animatori, i loro titoli sono generati specificamente per il riempimento di parole chiave.

Queste parole chiave aiutano a manipolare l'algoritmo di YouTube in modo che finiscano nei consigli. Una quantità significativa di contenuti inappropriati è apparsa nei feed dei bambini utilizzando l'app YouTube Kids. Ciò includeva contenuti che descrivono violenza, salti mortali e contenuti sessuali.

Perché l'apprendimento automatico va storto

Ci sono due ragioni principali per cui l'apprendimento automatico ha conseguenze indesiderate: dati e persone. In termini di dati, si applica il mantra di "junk in, junk out". Se i dati forniti a un'intelligenza artificiale sono limitati, di parte o di bassa qualità; il risultato è un'intelligenza artificiale con portata o pregiudizio limitati.

Ma anche se i programmatori ottengono i dati giusti, le persone possono mettere una chiave in mano. I creatori di software spesso non si rendono conto di come le persone possano usare la tecnologia in modo dannoso o per scopi egoistici. Deepfakes nasce dalla tecnologia utilizzata per migliorare gli effetti speciali nel cinema.

Ciò che mira a fornire un intrattenimento più coinvolgente finisce per rovinare la vita delle persone quando sfruttate.

Ci sono persone che lavorano per migliorare le garanzie intorno alla tecnologia di apprendimento automatico per prevenire l'uso dannoso. Ma la tecnologia è già qui. Nel frattempo, molte aziende non mostrano la forza di volontà necessaria per prevenire l'abuso di questi sviluppi.

Gli algoritmi di apprendimento automatico possono aiutarci

Può sembrare un po 'triste e triste quando ti rendi conto di quanto l'apprendimento automatico e l'intelligenza artificiale non siano all'altezza delle aspettative. Ma ci aiuta anche in molti modi, non solo in termini di convenienza, ma per migliorare la nostra vita in generale.

Se ti senti un po 'titubante sull'impatto positivo dell'intelligenza artificiale e dell'apprendimento automatico, scopri come l'intelligenza artificiale sta combattendo il crimine informatico Come l'intelligenza artificiale combatterà gli hacker moderni e il crimine informatico Come l'intelligenza artificiale combatterà gli hacker moderni e il crimine informatico Con un talento di sicurezza informatica carenza ed epidemia di criminalità informatica, come possono le aziende combattere gli hacker? Con intelligenza artificiale! Leggi di più e hacker per ripristinare un po 'di speranza.