Învățare federalizată: Este într-adevăr mai bine pentru confidențialitatea și securitatea dvs.?

Învățare federalizată (1)

Cu excepția cazului în care v-ați dedicat să vă mențineți la curent cu ultimele informații artificiale, este posibil să nu fi auzit niciodată termenul de „învățare federată”. Deși este posibil să nu fie la fel de proeminent ca și alte tendințe tehnologice precum imprimarea 3D sau drone, implicațiile sale pentru confidențialitate și învățarea automată ar putea duce la o utilizare mult mai mare în anii următori.

Versiunea scurtă și simplă este aceea că învățarea federată este un model alternativ pentru îmbunătățirea algoritmilor care domină acum multe aspecte ale vieții noastre, fie că sunt Facebook News sau Google Maps. În cadrul sistemului mai tradițional, datele noastre sunt trimise către un server central unde sunt analizate, iar informațiile relevante sunt folosite pentru a modifica algoritmul.

Învățarea federalizată oferă o soluție care îmbunătățește confidențialitatea utilizatorului, deoarece majoritatea datelor cu caracter personal rămân pe dispozitivul unei persoane. Algoritmii se antrenează direct pe dispozitivele utilizatorului și trimit înapoi doar rezumate relevante ale datelor, mai degrabă decât datele în ansamblu. Acest lucru le permite companiilor să își îmbunătățească algoritmii fără a fi nevoie să colecteze toate datele utilizatorului, oferind o soluție mai concentrată asupra vieții private.

Ce este învățarea federată?

Să nu mințim, pentru majoritatea oamenilor, profunzimea învățării federate poate părea complexă și dificil de înțeles. Câmpul AI este mult în afara cunoașterii multor popoare și implică o metodă de matematică și logică mult mai mare decât mulți dintre noi.

În ciuda acestor dificultăți, învățarea federată este o dezvoltare tehnologică interesantă și importantă, așa că merită să încerci să-ți faci capul. Pentru a ușura lucrurile, vom descompune conceptele și le vom explica într-o manieră simplificată, astfel încât să puteți înțelege imaginea mare.

Învățare automată și algoritmi

Cu excepția cazului în care îți petreci zilele plângând în anii 1930, viața ta este plină de algoritmi. În acest context, când ne referim la algoritmi, ne referim în esență formule sau seturi de instrucțiuni care sunt utilizate pentru a descoperi o problemă sau pentru a calcula un rezultat dorit.

Facebook, Instagram și Twitter le folosesc pentru a furniza conținut personalizat care este cel mai probabil să vă intereseze, precum și pentru a face mai multe bani pentru platforme. Motorul de căutare Google folosește algoritmi sofisticați pentru a transforma termenii de căutare în pagini din ceea ce credeți că căutați. E-mailul dvs. filtrează spam-ul cu algoritmi, în timp ce Waze folosește algoritmi pentru a descoperi cel mai eficient mod de a trece de la punctul A la punctul B.

Există nenumărați alți algoritmi care ne ajută să finalizăm sarcinile, să ne țină ocupați sau să ne ascundem sub capota proceselor de zi cu zi.

Companiile sunt încercând permanent să îmbunătățiți acești algoritmi pentru a vă oferi cele mai eficiente, precise și eficiente rezultate, atâta timp cât aceasta se aliniază obiectivelor proprii ale companiei - de obicei câștigarea de bani.

Mulți dintre algoritmii noștri cei mai folosiți au parcurs un drum lung de la desfășurarea lor inițială. Gândiți-vă înapoi la căutarea prin Google la sfârșitul anilor 90 sau începutul anilor 2000 - trebuia să fii incredibil de specific, iar rezultatele erau groaznice în comparație cu zilele noastre.

Deci, cum se îmbunătățesc acești algoritmi?

O parte majoră a modului în care algoritmii se îmbunătățesc la sarcinile lor implică învățarea mașinii, care este un sub-câmp al inteligenței artificiale. Algoritmii de învățare automată încep prin a lua un eșantion de date, analizându-le apoi folosind ceea ce au învățat pentru a îndeplini sarcinile mai eficient. Aceștia sunt capabili să se îmbunătățească fără a fi nevoie să aibă aceste modificări programate de o forță exterioară, cum ar fi un dezvoltator uman.

Învățarea mașinilor a crescut în ultimele decenii, îmbunătățindu-ne algoritmii, ajutându-ne să obținem rezultate mai bune și să ne îndreptăm către noi domenii. Datorită utilității sale, a fost și o producător imens de bani pentru companii precum Facebook, Google și multe altele.

Totul începe cu date - cu cât este mai mare grupul de date și cu atât este mai mare numărul de puncte de înaltă calitate, cu atât mai corecți pot fi acești algoritmi de învățare automată. Cu cât este mai eficient un algoritm, cu atât mai mulți bani pot face, ceea ce a transformat în esență datele într-o marfă.

Aceste condiții au provocat o extindere masivă a cantității de date care sunt colectate pe oameni. În mare parte, aceste date sunt colectate de pe telefoanele utilizatorilor, computerele și alte zone, apoi sunt trimise către un server unde sunt analizate pentru a îmbunătăți algoritmul. În timp ce asta are adesea a dus la îmbunătățirea serviciilor și la o comoditate sporită, de asemenea, s-a înregistrat un impuls semnificativ din partea celor care sunt îngrijorați de confidențialitatea lor.

Există ceva sinistru pentru aceste companii care îți cunosc locația în permanență, știu cu cine ești prieten, știu întregul istoric de căutare și multe altele. Sigur, există modalități de a evita aceste tipuri de colectare de date, dar tehnicile sunt, în general, prea impracticabile pentru ca majoritatea oamenilor să deranjeze.

Pe fondul unei serii de scandaluri privind confidențialitatea datelor, cum ar fi fiasco-ul Cambridge Analytica de Facebook și încălcarea masivă a datelor Google +, companiile au început să ia act. Nevrând să fie uzurpati, par să se uite la căi pentru a-și avansa în continuare obiectivele fără a ridica ire a utilizatorilor sau a legiuitorilor. Poate că momentul cuvei a fost momentul în care Mark Zuckerberg a anunțat că „Viitorul este privat”, la conferința F8 din acest an..

Deși este cel mai bine să privim această mișcare cu scepticism, au existat câteva evoluții pozitive în ceea ce privește confidențialitatea utilizatorilor, dintre care unul este învățarea federată.

Învățare federalizată

În loc să luăm date de pe dispozitivele utilizatorului pe serverul nostru, de ce nu trimitem algoritmul la date?

Acesta este conceptul de bază al învățării federate. Termenul a fost inventat într-o lucrare din 2016 publicată de angajații Google, iar compania a rămas în fruntea domeniului.

învățare federată 1

Procesul de formare a învățării federate.

Învățarea federalizată îmbunătățește algoritmii prin trimiterea versiunii curente a unui algoritm către dispozitive eligibile. Acest model al algoritmului învață apoi din datele private de pe telefoanele unui grup selectat de utilizatori. Când se termină, un rezumat al noilor cunoștințe este trimis înapoi la serverul companiei - datele în sine nu părăsesc niciodată telefonul.

Pentru securitate, aceste cunoștințe sunt, în general, criptate la întoarcerea către server. Pentru a opri serverul să poată descoperi date individuale pe baza rezumatului pe care l-a primit, Google a dezvoltat Agregare sigură protocol.

Acest protocol folosește criptografia pentru a împiedica serverul să acceseze rezumatul informațiilor individuale. În cadrul acestei scheme, serverul poate accesa rezumatul numai după ce a fost adăugat și mediat cu rezultatele de la sute sau mii de alți utilizatori.

Alternativ, confidențialitatea diferențială poate fi utilizată pentru a adăuga zgomot de date aleatoriu la rezumatul unei persoane, ascunzând rezultatele. Aceste date aleatorii sunt adăugate înainte ca rezumatul să fie trimis serverului, oferind serverului un rezultat suficient de precis pentru pregătirea algoritmică, fără ca datele sumare reale să i se dezvăluie. Acest lucru păstrează confidențialitatea persoanei fizice.

Tehnici precum protocolul Securitate de agregare și confidențialitatea diferențială sunt cruciale pentru protejarea informațiilor utilizatorilor atât de organizație cât și de hackeri. Fără ei, învățarea federată nu ar putea asigura confidențialitatea utilizatorilor.

După ce rezumatul informațiilor a fost trimis în siguranță serverului, acestea sunt folosite pentru a actualiza algoritmul. Procesul se repetă de mii de ori, iar versiunile de testare ale algoritmului sunt, de asemenea, trimise către diverse dispozitive de utilizator. Acest lucru permite organizațiilor să evalueze noi versiuni de algoritmi pe date reale ale utilizatorilor. Deoarece analiza se realizează din limitele dispozitivelor utilizatorilor, algoritmii pot fi probați fără a fi necesară combinarea datelor utilizatorilor pe un server central.

Când testele sunt finalizate, modelul actualizat al algoritmului este trimis dispozitivelor utilizator pentru a-l înlocui pe cel vechi. Algoritmul îmbunătățit este apoi utilizat în sarcinile sale normale. Dacă totul a mers conform planului, va fi mai eficient și mai precis la obținerea rezultatelor sale.

Întregul ciclu apoi se repetă din nou:

  • Noul algoritm studiază datele de pe dispozitivele utilizator selectate.
  • Acesta trimite în siguranță rezumate ale datelor acestui utilizator către server.
  • Aceste date sunt apoi mediate cu rezultatele altor utilizatori.
  • Algoritmul învață din aceste informații, produce actualizări și le testează.
  • O versiune mai avansată a algoritmului este transmisă către utilizatori.

De-a lungul timpului, algoritmul învață de la datele utilizatorului și se îmbunătățește continuu, fără a fi nevoie să stocheze datele pe serverele companiei. Dacă totuși te străduiești să îți înfățișezi capul despre ce este învățarea federată și cum funcționează, Google a publicat acest desen animat care explică și te ajută să vizualizezi abordarea învățării federate într-o manieră simplă.

Alte avantaje ale învățării federate

Modelul de învățare federată oferă utilizatorilor câteva alte avantaje pe lângă confidențialitate. În loc să partajați continuu date cu serverul, procesul de învățare poate fi realizat atunci când un dispozitiv se încarcă, conectat la wifi și nu este folosit, minimizarea inconvenientelor cu care se confruntă utilizatorii.

Acest lucru înseamnă că utilizatorii nu își risipește datele prețioase sau bateria atunci când nu sunt. Deoarece învățarea federată transferă doar un rezumat al datelor relevante, mai degrabă decât datele în sine, procesul ajunge să transfere mai puține date în general decât în ​​cadrul modelelor tradiționale de învățare.

Învățarea federalizată poate oferi, de asemenea, modele algoritmice globale și personalizate. Poate să obțină informații de la un grup mai larg de utilizatori și să le combine cu informații de la fiecare utilizator pentru a oferi un model mai eficient care să se potrivească nevoilor unice.

Aplicații ale învățării federate

Învățarea federalizată are o gamă largă de cazuri potențiale de utilizare, în special în situațiile în care problemele de confidențialitate se intersectează cu nevoia de a îmbunătăți algoritmii. În momentul de față, cele mai importante proiecte de învățare federată au fost derulate pe smartphone-uri, dar aceleași tehnici pot fi aplicate computerelor și dispozitivelor IoT precum vehiculele autonome.

Unele dintre utilizările existente și potențiale includ:

Google Gboard

A făcut parte prima implementare la scară largă a învățării federate în lumea reală Aplicația pentru tastatură Google, Gboard. Compania și-a propus să utilizeze tehnica pentru a îmbunătăți sugestiile de cuvinte fără a compromite confidențialitatea utilizatorului.

În conformitate cu vechea abordare de învățare a mașinilor, dezvoltarea mai bune predicții de pe tastatură ar fi fost extrem de invazivă - tot ceea ce am tastat, toate mesajele noastre private și căutările ciudate pe Google ar fi trebuit să fie trimise către un server central pentru analiză și cine știe ce alte date ar fi putut fi folosit pentru.

Din fericire, Google a ales să folosească în schimb abordarea lor de învățare federată. Deoarece modelul algoritmic este plasat pe dispozitivele utilizator, acesta este capabil să învețe din cuvintele pe care utilizatorii le introduc, să rezume informațiile cheie și apoi să le trimită înapoi serverului. Aceste rezumate sunt apoi utilizate pentru a îmbunătăți caracteristica de text predictivă Google, care este apoi testată și transmisă către utilizatori.

Noua versiune a algoritmului va oferi o experiență îmbunătățită datorită celor învățate din proces, iar ciclul se repetă. Acest lucru permite utilizatorilor să îmbunătățească continuu sugestiile tastaturii, fără a fi nevoie să-și compromită confidențialitatea.

Sănătate

Confidențialitatea și securitatea datelor sunt incredibil de complexe în industria medicală. Multe organizații conțin cantități semnificative de date atât sensibile, cât și valoroase despre pacienți, care sunt căutate cu atenție și de hackeri.

Nimeni nu își dorește un diagnostic jenant scăpat publicului. Bogăția de date conținute în aceste depozite este extrem de utilă pentru escrocherii precum furtul de identitate și frauda de asigurare. Din cauza cantităților mari de date și a riscurilor uriașe cu care se confruntă industria de sănătate, majoritatea țărilor au implementat legi stricte despre modul în care ar trebui gestionate datele privind sănătatea, cum ar fi reglementările HIPAA din SUA.

Aceste legi sunt destul de restrictive și vin cu sancțiuni semnificative dacă o organizație le încalcă. Acesta este, în general, un lucru bun pentru pacienții care sunt îngrijorați ca datele lor să fie manipulate greșit. in orice caz, aceste tipuri de legislație îngreunează, de asemenea, utilizarea unor forme de date în studii care ar putea ajuta la noi descoperiri medicale.

Datorită acestei situații juridice complexe, organizații precum Owkin și Intel fac cercetări modul în care s-ar putea susține învățarea federalizată pentru a proteja confidențialitatea pacienților, în timp ce se utilizează datele.

Owkin lucrează la o platformă care folosește învățarea federată pentru a proteja datele despre pacienți în experimente care determină toxicitatea medicamentelor, prezice evoluția bolii și, de asemenea, estimează ratele de supraviețuire pentru tipurile rare de cancer.

În 2018, Intel a făcut parteneriat cu Centrul pentru calcularea și analiza imaginilor biomedicale de la Universitatea din Pennsylvania pentru a demonstra modul în care învățarea federată ar putea fi aplicată imagisticii medicale ca dovadă a conceptului.

Colaborarea a relevat faptul că, sub o abordare de învățare federată, modelul lor particular de învățare profundă ar putea fi instruit să fie 99 la sută la fel de exact ca același model instruit prin metode tradiționale.

Vehicule autonome

Învățarea federalizată poate fi utilă pentru autovehiculele în două moduri majore. Primul este că ar putea proteja confidențialitatea datelor utilizatorilor - mulți oameni nu le place ideea înregistrărilor lor de călătorie și a altor informații de conducere care sunt încărcate și analizate pe un server central. Învățarea federalizată ar putea spori confidențialitatea utilizatorilor prin actualizarea doar a algoritmilor cu rezumate ale acestor date, mai degrabă decât toate informațiile utilizatorului.

Celălalt motiv esențial pentru adoptarea unei abordări de învățare federată este faptul că poate reduce latența. Într-un scenariu viitor probabil în care există un număr mare de autovehicule pe drumurile noastre, va trebui să fie capabil să se răspundă reciproc în timpul incidentelor de siguranță.

Învățarea în cloud tradițională implică transferuri mari de date și un ritm de învățare mai lent, astfel încât există potențialul Învățarea federată ar putea permite vehiculelor autonome să acționeze mai rapid și cu exactitate, reducând accidentele și sporind siguranța.

Respectând reglementările

Învățarea federalizată poate ajuta, de asemenea, organizațiile să își îmbunătățească modelele algoritmice, fără a expune date despre pacienți sau a ajunge la o parte greșită a reglementărilor. Legile, cum ar fi Regulamentul general privind protecția datelor (GDPR) al Europei și Legea din 1996 a asigurărilor de sănătate din SUA, au reglementări stricte cu privire la datele persoanelor și modul în care acestea pot fi utilizate.

Aceste legi sunt, în general, în vigoare pentru a proteja confidențialitatea persoanelor, ceea ce înseamnă că învățarea federată ar putea deschide noi oportunități prin posibilitatea de a aflați din date păstrându-le în siguranță și în cadrul orientărilor de reglementare.

Securitatea și confidențialitatea învățării federate

Învățarea federalizată deschide o lume de noi oportunități pentru formarea modelelor de învățare a mașinilor, fără a compromite confidențialitatea datelor. Cu toate acestea, trebuie să fie pus în aplicare cu atenție pentru a atenua problemele de securitate și posibilitatea expunerii datelor utilizatorilor.

Unele dintre problemele principale, precum și soluțiile potențiale ale acestora includ:

Interceptarea rezumatelor datelor utilizatorilor

Oferirea confidențialității și securității adecvate implică, în general, o combinație de tehnologii diferite, precum și politici. În timp ce învățarea federată ne oferă noi modalități de protejare a datelor, trebuie totuși implementată alături de mecanisme complementare.

Un exemplu de potențial punct slab este faptul că, atunci când sunt trimise rezumate de date ale utilizatorului de pe dispozitiv către serverul central, acestea ar putea fi interceptate de hackeri care le-ar putea folosi pentru a descoperi datele originale.

Din fericire, această problemă are o soluție relativ simplă pe care o implementăm deja în multe domenii de securitate a informațiilor - trebuie pur și simplu să cripțăm datele cu algoritmul adecvat, deoarece acestea se deplasează între cele două puncte..

Figurând datele originale din rezumatele utilizatorilor

În anumite scenarii, rezumatul datelor utilizatorilor poate fi utilizat pentru a determina informațiile originale. Dacă o parte rău intenționată trimite interogări modelului prin API, poate fi posibilă reconstrucția datelor, deși aceasta nu este o problemă unică pentru învățarea federalizată.

Dacă atacatorii sau organizațiile care dețin serverele ar putea descoperi datele originale ale utilizatorului în acest mod, ar fi complet învinge scopul implementării învățării federate. Există două mecanisme cheie care pot fi implementate alături de învățarea federată pentru a preveni apariția acestora: Protocolul de agregare sigură Google și confidențialitatea diferențială.

Protocol de agregare sigură folosește calculul multipartit pentru a calcula media unui grup de rezumate de date ale utilizatorilor, fără a dezvălui rezumatul de date al oricărei persoane individuale serverului sau oricărei alte părți.

În cadrul acestui sistem, fiecare rezumat al utilizatorului este criptat înainte de a părăsi dispozitivul utilizatorului și nu poate fi decriptat de server până când nu au fost adăugate împreună și mediate cu un număr set de alte rezumate ale utilizatorilor. Acest lucru permite serverului să-și antreneze modelul în medie pentru utilizatori, fără a expune rezumate individuale care ar putea fi folosite pentru a descoperi datele private ale unei persoane.

Nu numai că Secure Aggregation împiedică serverul să acceseze rezumatul utilizatorului, dar face și el bărbatul din mijloc atacuri mult mai dificile.

Cealaltă opțiune este confidențialitate diferențială, care include o varietate de tehnici conexe care implică o cantitate specifică de zgomot adăugată la date. Principala premisă a confidențialității diferențiale este că, pentru ca datele unui utilizator să rămână private, întrebările la baza de date nu ar trebui să dezvăluie dacă o persoană a fost inclusă în date și nici informațiile lor.

Pentru a preveni dezvăluirea acestor informații, se pot utiliza mai multe opțiuni diferite pentru a adăuga zgomot la date. Acest zgomot de date este adăugat înainte de a părăsi dispozitivul utilizatorului, împiedicând atât serverul cât și atacatorii să acceseze actualizările în forma lor originală.

Intoxicații model

Învățarea federalizată deschide oportunitatea adversarilor de a „otrăvi” modelul algoritmic. În esență, asta înseamnă că un actor rău intenționat poate corupe modelul prin propriul dispozitiv sau prin preluarea dispozitivelor altor părți implicate în formarea modelului algoritmic.

Aceste atacuri au fost examinate în detaliu de Bagdasaryan et al. în lor Cum se poate învăța în spate federated hârtie. În cadrul unui model de învățare federat, atacatorul are potențialul de a prelua unul sau mai mulți participanți.

În anumite scenarii, este posibil ca aceștia să controleze datele fiecărui participant pe care l-au preluat, pentru a modifica modul în care datele sunt antrenate la nivel local, pentru a modifica hiperparametrele, cum ar fi rata de învățare și ponderea modelului individual (înainte de a fi transmise serverului pentru agregare). De asemenea, este posibil să schimbăm abordarea fiecărui participant la formarea locală de la o rundă la alta.

Cu aceste abilități, atacatorii pot injecta în aer liber care pot modifica algoritmi pentru propriile scopuri. Potrivit cifrelor studiului, otrăvirea modelului a fost mult mai eficientă decât alte atacuri de otrăvire a datelor.

Într-o sarcină de predicție de cuvinte care implică 80.000 de participanți, cercetătorii ar putea obține o precizie de 50% din spate, prin compromiterea a doar opt dintre participanți. Pentru a realiza același efect prin otrăvirea datelor, cercetătorii ar fi trebuit să compromită 400 de participanți.

Una dintre cele mai mari probleme vine din faptul că învățarea federată și protocolul Securitate de agregare vizează păstrarea datelor private ale utilizatorilor. Dacă este implementat corect, acest lucru face imposibilă detectarea de anomalii a serverului în rezumatul unui utilizator.

Așa cum am menționat mai sus, protocolul Secure Agregation permite accesul la rezumatul utilizatorilor numai după ce au fost adăugate împreună cu alte date ale utilizatorilor. Deoarece rezumatul nu poate fi selectat individual, acest lucru face imposibilă observarea anomaliilor care pot apărea în ele, oferind atacurilor de intoxicații modelul modalitatea perfectă de a te strecura.

În această etapă, aceste atacuri și posibilele lor apărări trebuie cercetate mai amănunțit.

Păstrarea modelului privat

Modelele algoritmice sofisticate pot valora milioane, ceea ce le face o țintă pentru hoți. Le pot folosi pentru a câștiga bani în același mod pe care îl fac companiile din spatele algoritmilor, sau chiar le pot folosi în scopuri ilicite. Nu numai că i-ar salva pe hoți să investească sumele imense de finanțare în construirea modelului, dar ar putea devalua și originalul.

Companiile trebuie să-și protejeze proprietatea intelectuală și se pare că trimit modelul direct pe dispozitivele utilizatorilor ar putea rezulta cu ușurință ca aceste modele să fie expuse oricui dorește să le ia. Cu toate acestea, există soluții pe care companiile le pot utiliza pentru a-și proteja modelele algoritmice.

Unul dintre acestea este să pârghie de partajarea secretă a calculului multi-partide. Aceasta permite organizațiilor să ascundă ponderea modelului distribuind fragmente din acesta pe dispozitive. În cadrul acestui sistem, niciuna dintre părțile care dețin secretul nu poate cunoaște întregul model.

Acest lucru le permite organizațiilor să-și împingă modelele algoritmice de pregătire pe dispozitive, fără a fi nevoiți să le fure proprietatea intelectuală.

Limitările învățării federate

Pe lângă potențialele probleme de securitate, învățarea federată are o serie de alte limitări care îl împiedică să fie o pastilă magică pentru a rezolva toate problemele noastre de confidențialitate a datelor..

O considerație este că, în comparație cu metodele tradiționale de învățare a mașinilor, Învățarea federată necesită mai multă putere și memorie ale dispozitivului pentru a antrena modelul. Cu toate acestea, multe dispozitive noi au o putere suficientă pentru aceste funcții, iar această abordare are ca rezultat o cantitate mult mai mică de date care sunt transferate către serverele centrale, reducând utilizarea datelor. Mulți utilizatori pot considera că această compensare este benefică, atât timp cât dispozitivul lor este suficient de puternic.

O altă problemă tehnică implică lățimea de bandă. Învățarea federată se desfășoară prin wifi sau 4G, în timp ce învățarea automată tradițională are loc în centrele de date. Viteza de lățime de bandă pentru wifi sau 4G este mai mare decât cele utilizate între nodurile de lucru și serverele din aceste centre.

Lățimea de bandă la dispozitive nu a crescut la fel de rapid ca puterea lor de calcul de-a lungul anilor, astfel încât lățimea de bandă insuficientă ar putea cauza un blocaj care crește latența și face procesul de învățare mai lent în comparație cu abordarea tradițională.

Dacă instruirea algoritmului este efectuată în timp ce un dispozitiv este în funcțiune, aceasta reduce performanțele unui dispozitiv. Google a rezolvat această problemă doar prin dispozitivele de instruire atunci când sunt la ralanti, pornite și conectate la o priză. În timp ce asta rezolvă problema, ea încetinește ciclul de învățare, deoarece antrenamentul nu se poate face decât la orele de vârf.

O provocare suplimentară este aceea că dispozitivele renunță la procesul de instruire - pot fi folosite de proprietarii lor, oprite sau suferite de o altă perturbare. Este posibil ca datele dispozitivelor care renunță să nu poată fi utilizate în mod corespunzător, ceea ce ar putea duce la un model algoritmic mai puțin precis.

Învățarea federată este noua cale de urmat pentru învățarea automată?

Învățarea federalizată este un model de formare relativ nou și prezintă potențial într-o serie de aplicații diferite. Pentru că este încă în etapele relativ timpurii ale studiului, procesul are nevoie de mult mai multe cercetări înainte ca toate utilizările sale posibile să poată fi determinate, precum și potențialele riscuri de securitate și confidențialitate cu care se confruntă.

Până atunci, este greu de spus cu certitudine cât de pe larg va fi implementată abordarea în viitor. Vestea bună este că am văzut-o deja desfășurată eficient în lumea reală cu Google Gboard.

Cu toate acestea, din cauza unor limitări discutate anterior, este puțin probabil ca învățarea federată să înlocuiască modelele tradiționale de învățare în toate scenariile. Viitorul va depinde, de asemenea, de cât de dedicați la confidențialitate sunt marile noastre companii de tehnologie. În această etapă, avem motive întemeiate să fim sceptici.

Vezi si: Statisticile privind încălcarea datelor din 2019

Brayan Jackson
Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me

About the author

Leave a Reply

Your email address will not be published. Required fields are marked *

63 − 60 =

Adblock
detector