Apprendimento federato

Da Wikipedia, l'enciclopedia libera.
Vai alla navigazione Vai alla ricerca

L'apprendimento federato è una tecnica di apprendimento automatico che permette di addestrare un algoritmo attraverso l'utilizzo di dispositivi decentralizzati o server che mantengono i dati, senza la necessità di scambiare i dati stessi. Questo approccio si oppone alle tradizionali tecniche di apprendimento automatico centralizzate dove i dati vengono caricati su un server, o ai più tradizionali metodi decentralizzati che assumono che i dati locali sono distribuiti in modo identico.

L’apprendimento federato permette ai diversi partecipanti di costruire un modello per l’apprendimento automatico comune e robusto, senza lo scambio di qualsiasi dato. L'utilizzo di questa tecnica consente di affrontare problemi critici come la protezione, la sicurezza, e i diritti di accesso ai dati e l’impiego di dati eterogenei. Le principali applicazioni dell’apprendimento federato comprendono vari campi come la difesa, le telecomunicazioni, l’IoT e la farmaceutica.

Definizione[modifica | modifica wikitesto]

L’apprendimento federato ha lo scopo di fornire metodi per addestrare un modello di apprendimento automatico, per esempio le reti neurali profonde, utilizzando i dati locali che sono distribuiti su più nodi senza la necessità dello scambio degli stessi. Il principio generale consiste nell'addestrare modelli locali utilizzando i dati disponibili localmente ai nodi e, attraverso lo scambio dei parametri (ad esempio i pesi di una rete neurale profonda) generare un modello globale. La principale differenza tra l'apprendimento federato e l'apprendimento distribuito risiede nelle ipotesi formulate sulle proprietà dei set di dati locali[1] poiché l'apprendimento distribuito è nato con l'intento di parallelizzare la potenza di calcolo mentre l'approccio federato ha come intento l'addestramento dei modelli su dati eterogenei. Anche se l'approccio distribuito ha come obiettivo l'apprendimento di un singolo modello su server multipli, i dati memorizzati all'interno dei nodi locali vengono considerati identicamente distribuiti e hanno all'incirca le stesse dimensioni per tutti i nodi. Nessuna di queste ipotesi viene fatta per l’apprendimento federato. Infatti, i dati disponibili ai nodi sono generalmente eterogenei ed hanno dimensioni che possono variare anche di molti ordini di grandezza. Inoltre, i nodi coinvolti nell'apprendimento federato possono subire delle disconnessioni o dei guasti, dovute principalmente al mezzo di comunicazione utilizzato (per esempio il Wi-fi) o alla batteria (per esempio dispositivi smartphones o IoT) mentre i nodi considerati nell'addestramento distribuito sono principalmente centri di elaborazione dati con una capacità computazionale molto elevata e possono utilizzare una connessione dedicata ad alta velocità.[2]

Apprendimento federato centralizzato[modifica | modifica wikitesto]

Nei metodi di apprendimento federato centralizzato, un server centrale è incaricato di gestire i differenti passi per gli algoritmi utilizzati e di coordinare i nodi che partecipano al processo di apprendimento. Il server ha la responsabilità di scegliere i nodi all'inizio della procedura e ha il compito di aggregare i modelli ricevuti dai nodi durante la fase di apprendimento. Considerando che tutti i nodi partecipanti devono mandare i modelli ad una singola entità, il server potrebbe costituire una forma di rallentamento per il sistema.[2]

Apprendimento federato decentralizzato[modifica | modifica wikitesto]

Nei metodi di apprendimento federato decentralizzato, i nodi hanno la capacità di coordinarsi al fine di ottenere il modello globale. Queste tecniche permettono di ovviare al problema degli approcci centralizzati dato che i nodi sono in grado di scambiarsi gli aggiornamenti dei modelli senza il coordinamento di un server centrale. Ciononostante, la specifica configurazione della topologia di rete può influenzare le prestazioni del processo di apprendimento.[2]

Federated learning general process in central orchestrator setup
Processo generale di apprendimento federato nella configurazione centralizzata

Caratteristiche principali[modifica | modifica wikitesto]

Apprendimento iterativo[modifica | modifica wikitesto]

Per garantire una buona esecuzione delle attività al fine di ottenere un modello globale condiviso da tutti i nodi, l’apprendimento federato si basa su un processo iterativo suddiviso in un insieme atomico di interazioni client-server noto come federated round. All'interno di ogni ciclo di questo processo, l’attuale stato del modello viene trasmesso ai nodi partecipanti, i nodi aggiornano il modello utilizzando i dati locali a disposizione e producono una serie di potenziali aggiornamenti del modello. Infine, il modello globale viene aggiornato aggregando gli aggiornamenti pervenuti dai nodi.[2]

Nella metodologia seguente, si assume che il processo di apprendimento consideri l’interazione di un server centrale che fornisce i comandi ai nodi sulle operazioni da effettuare. Tuttavia, l’impiego di metodologie che non richiedono l’utilizzo di un’entità centrale, come per esempio gli approcci peer-to-peer, forniscono gli stessi risultati attraverso l'utilizzo di metodologie gossip[3] o di consenso.[4]

Assumendo che un federated round sia composto da una iterazione del processo di apprendimento, la procedura per l’addestramento federato può essere descritta come segue:[5]

  1. Inizializzazione: in base agli input forniti dal server, un modello di apprendimento automatico, per esempio una regressione lineare, una rete neurale o un boosting, viene scelto per essere appreso ai nodi locali e viene inizializzato. Una volta completata la scelta del modello e l’inizializzazione dello stesso, i nodi vengono attivati e rimangono in attesa dei per ulteriori istruzioni dal server.
  2. Selezione dei nodi: una frazione dei nodi disponibili viene scelta per iniziare la fase di apprendimento sui dati locali. I nodi scelti acquisiscono il modello corrente dal server mentre gli altri aspettano il prossimo round.
  3. Configurazione: Il server comunica ai nodi selezionati di iniziare l’apprendimento utilizzando i propri dati locali con una modalità predefinita (per esempio utilizzando delle mini-batch per il calcolo del gradiente).
  4. Comunicazione: I nodi selezionati inviano al server i loro modelli per l’aggregazione. Il server aggrega i modelli ricevuti in base all'algoritmo selezionato all'inizio e restituisce il risultato dell’aggregazione ai nodi. Inoltre, il server gestisce eventuali errori o nodi disconnessi. A questo punto il prossimo round viene fatto iniziare e il processo riparte dalla fase della selezione dei nodi.
  5. Terminazione: quando il criterio di terminazione viene raggiunto, per esempio quando il numero massimo di iterazioni viene raggiunto o l’accuratezza del modello è maggiore di una certa soglia, il server aggrega gli ultimi aggiornamenti forniti dai nodi e costruisce il modello globale.

La procedura considerata precedentemente assume che i modelli vengano aggiornati in modo sincrono. Sviluppi recenti nell'apprendimento federato hanno iniziato ad introdurre meccanismi per l’aggiornamento asincrono. Rispetto agli approcci sincroni, in cui i modelli locali vengono scambiati una volta che i calcoli sono stati eseguiti su tutti i layer della rete neurale, quelli asincroni sfruttano le proprietà delle reti neurali per inviare gli aggiornamenti non appena i calcoli su un certo layer vengono completati. Queste tecniche vengono comunemente chiamate split learning[6][7] e possono essere applicate sia durante la fase di apprendimento che quella di inferenza indipendentemente se si è considerato un approccio centralizzato o decentralizzato per l'apprendimento federato.[2]

Dati non-i.i.d.[modifica | modifica wikitesto]

Nella maggior parte dei casi, l'assunzione di avere dati indipendenti e identicamente distribuiti accessibili ai nodi locali non vale per le configurazioni di apprendimento federato. In queste occasioni, le prestazioni del processo di addestramento possono variare in modo significativo in base allo squilibrio dei dati locali, nonché alla particolare distribuzione di probabilità degli esempi di addestramento (cioè alle caratteristiche ed alle etichette) memorizzati nei nodi locali. Per approfondire gli effetti dei dati distribuiti in modo non i.i.d., la seguente descrizione considera le principali categorie presentate nell'articolo Advances and Open Problems in Federated Learning, Peter Kairouz and al. 2019.

La descrizione di questi particolari tipi di dati si basa sull'analisi della probabilità congiunta tra le caratteristiche e le etichette disponibili a ciascun nodo locale. Ciò consente di disaccoppiare ciascun contributo in base alla specifica distribuzione disponibile ai nodi locali. Le principali categorie possono essere riassunte come segue:[2]

  • Spostamento covariato: i nodi locali possono memorizzare dati che hanno distribuzioni statistiche diverse rispetto ad altri nodi. Questa condizione si verifica, ad esempio, nei set di dati per l'elaborazione del linguaggio naturale dove persone differenti possono scrivere la stessa lettera con larghezze e/o inclinazioni diverse.
  • Spostamento della probabilità a priori: i nodi locali possono memorizzare etichette che hanno distribuzioni statistiche diverse rispetto ad altri nodi. Ciò può accadere se i set di dati sono regionali e/o partizionati demograficamente. Ad esempio, i set di dati contenenti immagini di animali variano in modo significativo da Paese a Paese.
  • Spostamento del concetto (stesse etichette ma differenti caratteristiche): i nodi locali possono condividere le stesse etichette ma alcune di esse corrispondono a caratteristiche differenti per nodi diversi. Ad esempio, le immagini che raffigurano un particolare oggetto possono variare in base alle condizioni meteorologiche in cui sono state catturate.
  • Spostamento del concetto (stesse caratteristiche ma differenti etichette): i nodi locali possono condividere le stesse caratteristiche ma alcuni di esse corrispondono a etichette differenti per nodi diversi. Ad esempio, nell'elaborazione del linguaggio naturale, l'analisi dei sentimenti può produrre sentimenti diversi anche se è stato osservato lo stesso testo.
  • Sbilanciamento: le dimensioni dei dati memorizzati ai nodi può variare significativamente.

Altri descrittori di dati non i.i.d. tengono conto della variazione dinamica della topologia di rete,[8] a causa di guasti o ineleggibilità dei nodi locali durante il processo di apprendimento federato, o spostamenti dei set di dati, in cui i nodi che partecipano alla fase di addestramento per l'apprendimento del modello globale potrebbero non essere idonei durante l'inferenza a causa di capacità computazionali insufficienti. Ciò si traduce in una differenza tra le statistiche dei dati di addestramento e di inferenza.[2]

Iperparametri algoritmici[modifica | modifica wikitesto]

Topologia di rete[modifica | modifica wikitesto]

Il modo in cui gli output statistici locali sono raggruppati e il modo in cui i nodi comunicano tra di loro possono cambiare rispetto al modello centralizzato spiegato nella sezione precedente. Ciò porta a una varietà di approcci di apprendimento federati: ad esempio il caso in cui il server centrale non è presente o quello della comunicazione stocastica.[9]

In particolare, le reti distribuite senza coordinatore centrale rappresentano un'importante variante. In questo caso, non vi è alcun server centrale che invia le richieste ai nodi locali e che aggrega i modelli ricevuti dai nodi. Ogni nodo invia il proprio modello a diversi nodi selezionati casualmente,[10] i quali aggregano i risultati localmente. Questo limita il numero di transazioni, riducendo a volte i tempi di apprendimento e i costi di elaborazione.[10]

Parametri per l'apprendimento federato[modifica | modifica wikitesto]

Una volta scelta la topologia della rete dei nodi, è possibile controllare i diversi parametri del processo di apprendimento federato (in opposizione agli iperparametri del modello di apprendimento automatico) per ottimizzare l'apprendimento:

  • Numero di cicli per l'apprendimento federato:
  • Numero totale di nodi utilizzati durante il processo di apprendimento:
  • Frazione di nodi utilizzati ad ogni iterazione per ciascun nodo:
  • Dimensione del numero di esempi locali utilizzati ad ogni iterazione nel processo di apprendimento:

Si possono considerare, oltre a quelli già elencati, ulteriori parametri come:

  • Numero di iterazioni per l'apprendimento locale al nodo:
  • Tasso di apprendimento locale:

Tali parametri devono essere ottimizzati in base ai vincoli dell'applicazione di apprendimento automatico (ad esempio, potenza di calcolo disponibile, memoria disponibile, larghezza di banda). Ad esempio, scegliendo stocasticamente una frazione limitata di nodi per ciascuna iterazione si possono ridurre i costi di elaborazione e si può impedire l'eccessivo adattamento del modello, allo stesso modo in cui la discesa del gradiente stocastica può ridurre l'adattamento eccessivo.

Metodi per l'apprendimento federato[modifica | modifica wikitesto]

In questa sezione, l'esposizione dell'articolo Communication-Efficient Learning of Deep Networks from Decentralized Data, H. Brendan McMahan and al. 2017 viene presa in considerazione.

Per descrivere i diversi metodi di apprendimento federato, le seguenti notazioni sono introdotte:

  •  : numero totale di nodi;
  •  : indice dei nodi;
  •  : numero di esempi disponibili durante l'addestramento per il nodo  ;
  •  : vettore di peso del modello di apprendimento automatico al nodo , all'iterazione  ;
  •  : funzione di perdita considerata per i pesi e batch  ;
  •  : numero di epoche locali;

Federated Stochastic Gradient Descent (FedSGD)[modifica | modifica wikitesto]

L'addestramento per l'apprendimento profondo si basa principalmente sulle varianti della discesa stocastica del gradiente, in cui i gradienti vengono calcolati su un sottoinsieme casuale dei dati disponibili e successivamente utilizzati per eseguire un passaggio nell'algoritmo della discesa del gradiente.

Il federated stochastic gradient descent[11] è la trasposizione diretta di questo algoritmo all'impostazione federata, ma usando una frazione casuale dei nodi e utilizzando tutti i dati sui nodo considerati. I gradienti sono mediati dal server in modo proporzionale al numero di campioni presenti su ciascun nodo e utilizzati per eseguire uno step per la discesa del gradiente.

Federated averaging[modifica | modifica wikitesto]

Il federated averaging (FedAvg)[12] è una generalizzazione del FedSGD, che consente ai nodi locali di eseguire più di un aggiornamento sui dati locali e vengono scambiati i pesi aggiornati anziché i gradienti. La logica alla base di questa generalizzazione è che in FedSGD, se tutti i nodi locali iniziano dalla stessa inizializzazione, la media dei gradienti è strettamente equivalente alla media dei pesi stessi. Inoltre, la media dei pesi calibrati provenienti dalla stessa inizializzazione non danneggia necessariamente le prestazioni del modello medio risultante.

Limitazioni tecniche[modifica | modifica wikitesto]

L'apprendimento federato richiede una comunicazione frequente tra i nodi durante il processo di apprendimento. Pertanto, richiede non solo sufficiente potenza di calcolo e memoria, ma anche connessioni ad alta larghezza di banda per poter scambiare i parametri del modello di apprendimento automatico. Tuttavia, la tecnologia evita anche la comunicazione dei dati, che può richiedere risorse significative prima di poter avviare l'apprendimento automatico nella versione centralizzata. Tuttavia, i dispositivi tipicamente impiegati nell'apprendimento federato possiedono una limitata capacità comunicativa, ad esempio i dispositivi IoT o gli smartphone sono generalmente collegati alle reti Wi-Fi, quindi, anche se i modelli sono generalmente meno costosi da trasmettere rispetto ai dati grezzi, i meccanismi di apprendimento federato potrebbero non essere adatti nella loro forma generale.

L'apprendimento federato introduce diverse limitazioni statistiche:

  • L'eterogeneità tra i diversi set di dati locali: ogni nodo può presentare delle deviazioni rispetto alla popolazione generale e la dimensione dei set di dati può variare in modo significativo;
  • L'eterogeneità temporale: la distribuzione dei dati memorizzati dai nodi può variare nel tempo;
  • L'interoperabilità del set di dati di ciascun nodo è un prerequisito;
  • Il set di dati di ciascun nodo può richiedere delle cure regolari;
  • L'applicazione di meccanismi di oscuramento dei dati utilizzati per l'addestramento potrebbe consentire a degli utenti malevoli di iniettare backdoor nel modello globale;[13]
  • La mancanza di accesso ai dati globali per l'addestramento rende più difficile identificare deviazioni indesiderate che possono influenzare la fase di apprendimento, per esempio età, genere, orientamento sessuale;
  • La perdita parziale o totale degli aggiornamenti del modello a causa di errori dei nodi possono incidere sul modello globale

Proprietà dell'apprendimento federato[modifica | modifica wikitesto]

Privacy by design[modifica | modifica wikitesto]

Il vantaggio principale dell'utilizzo di approcci federati nell'apprendimento automatico consiste nel garantire la riservatezza o la segretezza dei dati. Infatti, nessun dato locale viene caricato esternamente, concatenato o scambiato. Poiché l'intero database è segmentato in bit locali, questo rende più difficile manometterlo.

Con l'apprendimento federato, vengono scambiati solo i parametri di apprendimento automatico. Inoltre, tali parametri possono essere criptati prima della condivisione tra i cicli di apprendimento per estendere la privacy e gli schemi di crittografia omomorfica possono essere utilizzati per effettuare direttamente calcoli sui dati crittografati senza decriptarli in anticipo. Nonostante queste misure protettive, i parametri possono comunque rendere visibile informazioni associate ai dati sottostanti, ad esempio effettuando più query specifiche su set di dati specifici. La capacità di interrogazione dei nodi è quindi un importante punto di attenzione, che può essere affrontato utilizzando la privacy differenziale o l'aggregazione sicura.[14]

Personalizzazione[modifica | modifica wikitesto]

Il modello generato durante la fase di apprendimento fornisce una comprensione del modello globale appreso dai nodi. Tuttavia, se un nodo partecipante desidera apprendere da schemi globali ma anche adattare i risultati al suo stato peculiare, la metodologia di apprendimento federato può essere adattata per generare due modelli contemporaneamente in un framework di apprendimento multi-task. Inoltre, le tecniche di clustering[15] possono essere applicate per aggregare nodi che condividono alcune somiglianze dopo il completamento del processo di apprendimento. Ciò consente la generalizzazione dei modelli appresi dai nodi secondo anche i loro dati locali.

Nel caso delle reti neurali profonde, è possibile condividere alcuni livelli tra i diversi nodi e mantenerne alcuni su ciascun nodo locale. In genere, i primi livelli che eseguono il riconoscimento generale del modello sono condivisi e addestrati utilizzando tutti i set di dati. Gli ultimi layer, invece, rimarranno su ciascun nodo locale e verranno addestrati solo sul set di dati del nodo locale.[16]

Aspetti legali dell'apprendimento federato[modifica | modifica wikitesto]

I quadri giuridici occidentali sottolineano sempre di più la protezione e la tracciabilità dei dati. Il rapporto della Casa Bianca del 2012[17] ha raccomandato l'applicazione di un principio di minimizzazione dei dati, che è menzionato nel GDPR europeo.[18] In alcuni casi, è impossibile trasferire dati da un paese all'altro (ad es. dati genomici), tuttavia a volte i consorzi internazionali sono necessari per i progressi scientifici. In tali casi, l'apprendimento federato offre soluzioni per la formazione di un modello globale nel rispetto dei vincoli di sicurezza.

Temi di ricerca attuali[modifica | modifica wikitesto]

L'apprendimento federato ha iniziato ad emergere come importante argomento di ricerca nel 2015[1] e nel 2016,[19] con le prime pubblicazioni sul federated averaging nel campo delle telecomunicazioni. Un altro aspetto importante della ricerca è la riduzione della comunicazione durante il processo di apprendimento federato. Nel 2017 e nel 2018, le pubblicazioni hanno sottolineato lo sviluppo di strategie di allocazione delle risorse, in particolare per ridurre i requisiti[20] di comunicazione[12] tra nodi con algoritmi di gossip[21], nonché sulla caratterizzazione della robustezza agli attacchi differenziali alla privacy.[22] Altre attività di ricerca si concentrano sulla riduzione della larghezza di banda durante l'addestramento attraverso metodi[20] di sparsificazione e quantizzazione, in cui i modelli di apprendimento automatico sono sparsificati e/o compressi prima di essere condivisi con altri nodi. Inoltre, alcune tecniche di apprendimento federato stanno iniziando a considerare canali di propagazione reali[23] dato che in implementazioni precedenti venivano utilizzati canali ideali.

Applicazioni[modifica | modifica wikitesto]

L'apprendimento federato viene applicato generalmente quando i singoli attori hanno bisogno di formare modelli su set di dati più grandi dei loro, ma non possono condividere i dati con altri (ad esempio, per motivi legali, strategici o economici). La tecnologia richiede tuttavia buone connessioni tra i server locali e una potenza computazionale minima per ciascun nodo.[2]

Google Gboard[modifica | modifica wikitesto]

Uno delle prime applicazioni considerate nel campo dell'apprendimento federato è stato il Google Gboard, implementato da Google[5][24] per l'utilizzo nelle tastiere predittive. Sotto una forte pressione normativa, è risultato impossibile caricare i messaggi di testo di tutti gli utenti per addestrare l'algoritmo predittivo per predire le parole. Inoltre, un tale processo esporrebbe troppi dati dell'utente ad attacchi di malintenzionati. Nonostante la memoria e la potenza di elaborazione a volte limitate degli smartphone, Google ha realizzato un caso d'uso convincente dalla sua G-board, come presentato durante l'evento Google I/O nel 2019.[25]

Apprendimento federato nell'assistenza sanitaria[modifica | modifica wikitesto]

Nella ricerca farmaceutica, i dati reali vengono utilizzati per la creazione di farmaci e bracci sintetici. La generazione di conoscenze su problemi biologici complessi richiede la raccolta di numerosi dati da diverse istituzioni mediche, desiderose di mantenere il controllo dei loro dati sensibili dei pazienti. L'apprendimento federato consente ai ricercatori di formare modelli predittivi su molti dati sensibili in modo trasparente senza necessariamente che essi siano condivisi.[26]

Sistemi di trasporto: veicoli a guida autonoma[modifica | modifica wikitesto]

Le auto a guida autonoma utilizzano molte tecnologie di apprendimento automatico per funzionare: la visione artificiale per analizzare gli ostacoli, l'apprendimento automatico per adattare il loro ritmo all'ambiente (ad esempio, all'irregolarità della strada). A causa del potenziale elevato numero di auto a guida autonoma e della necessità di rispondere rapidamente a situazioni critiche, l'approccio tradizionale centralizzato può generare rischi per la sicurezza. L'apprendimento federato può rappresentare una soluzione per limitare il volume di trasferimento dei dati e accelerare i processi di apprendimento.[27]

Industria 4.0: sistemi di produzione intelligenti[modifica | modifica wikitesto]

Nell'industria 4.0, è diffusa l'adozione di tecniche di apprendimento automatico[28] per migliorare l'efficienza e l'efficacia dei processi industriali garantendo un elevato livello di sicurezza. Tuttavia, la riservatezza dei dati sensibili per le industrie e le aziende manifatturiere è di fondamentale importanza. Gli algoritmi di apprendimento federato possono essere applicati per queste applicazioni in quanto consentono di non rivelare alcun dato sensibile.[19]

Strumenti software[modifica | modifica wikitesto]

Con l'interesse crescente suscitato nella ricerca sull'apprendimento federato, molti strumenti software sono stati resi accessibili per l'implementazione di diverse configurazioni di apprendimento federato:

  • Tensorflow Federated:[29] è uno strumento software open source che consente a qualsiasi utente di valutare modelli di apprendimento automatico su dati distribuiti. Fornisce diverse funzionalità API per simulare architetture di apprendimento federato e per definire calcoli federati specifici (ad es. diverse varianti di apprendimento federato).
  • PySyft:[30] è una libreria Python che fornisce strumenti per simulare i meccanismi di tutela della privacy all'interno delle tecniche di apprendimento federato. Si basa sul noto pacchetto Pytorch e consente di includere negli algoritmi federati sistemi per la Privacy differenziale e altri meccanismi di sicurezza, ad esempio il secure multy-party computation e la crittografia omomorfica.
  • Leaf:[31] è un framework utilizzato per l'analisi comparativa dei modelli di apprendimento automatico all'interno degli algoritmi di apprendimento federato. Supporta molte tipologie di apprendimento automatico, ad esempio l'apprendimento multi-task, il meta-learning e l'apprendimento online.

Note[modifica | modifica wikitesto]

  1. ^ a b Federated Optimization: Distributed Optimization Beyond the Datacenter, Jakub Konecny, H. Brendan McMahan, Daniel Ramage, 2015
  2. ^ a b c d e f g h Peter Kairouz, H. Brendan McMahan e Brendan Avent, Advances and Open Problems in Federated Learning, in arXiv:1912.04977 [cs, stat], 10 dicembre 2019. URL consultato il 25 giugno 2020.
  3. ^ Decentralized Collaborative Learning of Personalized Models over Networks Paul Vanhaesebrouck, Aurélien Bellet, Marc Tommasi, 2017
  4. ^ Stefano Savazzi, Monica Nicoli e Vittorio Rampa, Federated Learning With Cooperating Devices: A Consensus Approach for Massive IoT Networks, in IEEE Internet of Things Journal, vol. 7, n. 5, 2020-05, pp. 4641-4654, DOI:10.1109/JIOT.2020.2964162. URL consultato il 25 giugno 2020.
  5. ^ a b Keith Bonawitz, Hubert Eichner e Wolfgang Grieskamp, Towards Federated Learning at Scale: System Design, in arXiv:1902.01046 [cs, stat], 22 marzo 2019. URL consultato il 25 giugno 2020.
  6. ^ Otkrist Gupta e Ramesh Raskar, Distributed learning of deep neural network over multiple agents, in arXiv:1810.06060 [cs, stat], 14 ottobre 2018. URL consultato il 25 giugno 2020.
  7. ^ Praneeth Vepakomma, Otkrist Gupta e Tristan Swedish, Split learning for health: Distributed deep learning without sharing raw patient data, in arXiv:1812.00564 [cs, stat], 3 dicembre 2018. URL consultato il 25 giugno 2020.
  8. ^ Hubert Eichner, Tomer Koren e H. Brendan McMahan, Semi-Cyclic Stochastic Gradient Descent, in arXiv:1904.10120 [cs, stat], 22 aprile 2019. URL consultato il 25 giugno 2020.
  9. ^ Collaborative Deep Learning in Fixed Topology Networks, Zhanhong Jiang, Aditya Balu, Chinmay Hegde, Soumik Sarkar, 2017
  10. ^ a b GossipGraD: Scalable Deep Learning using Gossip Communication based Asynchronous Gradient Descent, Jeff Daily, Abhinav Vishnu, Charles Siegel, Thomas Warfel, Vinay Amatya, 2018
  11. ^ Privacy Preserving Deep Learning, R. Shokri and V. Shmatikov, 2015
  12. ^ a b Communication-Efficient Learning of Deep Networks from Decentralized Data, H. Brendan McMahan and al. 2017
  13. ^ Eugene Bagdasaryan, Andreas Veit e Yiqing Hua, How To Backdoor Federated Learning, in arXiv:1807.00459 [cs], 6 agosto 2019. URL consultato il 25 giugno 2020.
  14. ^ (EN) Aaron Segal, Antonio Marcedone, Benjamin Kreuter, Daniel Ramage, H. Brendan McMahan, Karn Seth, Practical Secure Aggregation for Privacy-Preserving Machine Learning, su Google Research, 2017. URL consultato il 25 giugno 2020.
  15. ^ Felix Sattler, Klaus-Robert Müller e Wojciech Samek, Clustered Federated Learning: Model-Agnostic Distributed Multi-Task Optimization under Privacy Constraints, in arXiv:1910.01991 [cs, stat], 4 ottobre 2019. URL consultato il 25 giugno 2020.
  16. ^ Manoj Ghuhan Arivazhagan, Vinay Aggarwal e Aaditya Kumar Singh, Federated Learning with Personalization Layers, in arXiv:1912.00818 [cs, stat], 2 dicembre 2019. URL consultato il 26 giugno 2020.
  17. ^ (EN) A. Anonymous, Consumer Data Privacy in a Networked World: A Framework for Protecting Privacy and Promoting Innovation in the Global Digital Economy, in Journal of Privacy and Confidentiality, vol. 4, n. 2, 1º marzo 2013, DOI:10.29012/jpc.v4i2.623. URL consultato il 26 giugno 2020.
  18. ^ Recital 39 of the Regulation (EU) 2016/679 (General Data Protection Regulation)
  19. ^ a b Jakub Konečný, H. Brendan McMahan e Daniel Ramage, Federated Optimization: Distributed Machine Learning for On-Device Intelligence, in arXiv:1610.02527 [cs], 8 ottobre 2016. URL consultato il 25 giugno 2020.
  20. ^ a b Jakub Konečný, H. Brendan McMahan e Felix X. Yu, Federated Learning: Strategies for Improving Communication Efficiency, in arXiv:1610.05492 [cs], 30 ottobre 2017. URL consultato il 25 giugno 2020.
  21. ^ Michael Blot, David Picard e Matthieu Cord, Gossip training for deep learning, in arXiv:1611.09726 [cs, stat], 29 novembre 2016. URL consultato il 25 giugno 2020.
  22. ^ Robin C. Geyer, Tassilo Klein e Moin Nabi, Differentially Private Federated Learning: A Client Level Perspective, in arXiv:1712.07557 [cs, stat], 1º marzo 2018. URL consultato il 25 giugno 2020.
  23. ^ Mohammad Mohammadi Amiri e Deniz Gunduz, Federated Learning over Wireless Fading Channels, in arXiv:1907.09769 [cs, math], 10 febbraio 2020. URL consultato il 25 giugno 2020.
  24. ^ (EN) Federated Learning: Collaborative Machine Learning without Centralized Training Data, su Google AI Blog. URL consultato il 25 giugno 2020.
  25. ^ Federated Learning: Machine Learning on Decentralized Data, su youtube.com.
  26. ^ Jie Xu e Fei Wang, Federated Learning for Healthcare Informatics, in arXiv:1911.06270 [cs], 12 novembre 2019. URL consultato il 25 giugno 2020.
  27. ^ Ahmet M. Elbir e S. Coleri, Federated Learning for Vehicular Networks, in arXiv:2006.01412 [cs, eess, math], 2 giugno 2020. URL consultato il 25 giugno 2020.
  28. ^ (EN) Raffaele Cioffi, Marta Travaglioni e Giuseppina Piscitelli, Artificial Intelligence and Machine Learning Applications in Smart Production: Progress, Trends, and Directions, in Sustainability, vol. 12, n. 2, 2020/1, p. 492, DOI:10.3390/su12020492. URL consultato il 25 giugno 2020.
  29. ^ (EN) TensorFlow Federated, su TensorFlow. URL consultato il 25 giugno 2020.
  30. ^ OpenMined/PySyft, OpenMined, 25 giugno 2020. URL consultato il 25 giugno 2020.
  31. ^ LEAF, su leaf.cmu.edu. URL consultato il 25 giugno 2020.
  • Khademi Nori Milad, Yun Sangseok, Kim Il-Min, Fast Federated Learning by Balancing Communication Trade-Offs (2021). [1], [2].

Collegamenti esterni[modifica | modifica wikitesto]

  Portale Informatica: accedi alle voci di Wikipedia che trattano di informatica