Egyesített tanulás: Valóban jobb-e az Ön személyes adatai és biztonsága?

Egyesített tanulás (1)

Hacsak nem arra törekszik, hogy lépést tartson a legújabb mesterséges intelligenciával, lehet, hogy soha nem hallottad már a „szövetségi tanulás” kifejezést. Bár lehet, hogy nem olyan kiemelkedő, mint más technológiai trendek, például a 3D nyomtatás vagy a drónok, a magánéletre és a gépi tanulásra gyakorolt ​​hatása sokkal nagyobb felhasználást eredményezhet az elkövetkező években.

A rövid és egyszerű változat az, hogy az egyesített tanulás alternatív modell az olyan algoritmusok fejlesztésére, amelyek manapság életünk sok szempontját uralják, legyen az akár Facebook hírcsatorna, akár a Google Maps. A hagyományosabb rendszer szerint az adatokat egy központi szerverre küldjük, ahol azokat elemzik, és a releváns információkat felhasználják az algoritmus megváltoztatására.

Az egyesített tanulás olyan megoldást kínál, amely fokozza a felhasználói adatvédelmet, mert a személyes adatok többsége egy személy eszközén marad. Az algoritmusok közvetlenül a felhasználói eszközökön képezik ki magukat, és csak a vonatkozó adatok összefoglalásait küldik vissza, nem pedig az összes adatot. Ez lehetővé teszi a vállalatok számára az algoritmusok fejlesztését anélkül, hogy a felhasználó összes adatát kellene összegyűjtenie, ezáltal a magánéletre összpontosítva.

Mi az egyesített tanulás??

Ne hazudjunk, a legtöbb ember számára az összevont tanulás mélysége bonyolultnak és nehezen érthetőnek tűnik. Az AI területe messze kívül esik sok ember tudásának területén, és sokkal több matematikát és logikát foglal magában, mint a legtöbbünk számára kényelmesek..

Ezeknek a nehézségeknek ellenére a szövetségi tanulás érdekes és fontos technológiai fejlesztés, ezért érdemes megkísérelni körüljárni a fejét. A dolgok megkönnyítése érdekében lebontjuk a fogalmakat és egyszerűsítve magyarázzuk őket, hogy megértsük a nagy képet.

Gépi tanulás és algoritmusok

Hacsak nem tölti napjait az 1930-as évek lejátszásával, az algoritmusok tele vannak az életeddel. Ebben az összefüggésben, amikor algoritmusokra hivatkozunk, lényegében a következőket értjük képletek vagy utasításkészletek, amelyek a probléma kitalálására vagy a kívánt eredmény kiszámítására szolgálnak.

A Facebook, a Instagram és a Twitter felhasználja azokat a személyre szabott tartalmakat, amelyek valószínűleg érdekli Önt, valamint pénzt keresnek a platformokon. A Google keresőprogramja kifinomult algoritmusokat használ, hogy a keresett kifejezéseket oldalakká alakítsa, amelyekről azt gondolja, hogy keres. Az e-mail az algoritmusokkal kiszűri a levélszemét, míg a Waze kihasználja az algoritmusokat, hogy kitalálja a leghatékonyabb módszert az A pontról a B pontra jutáshoz..

Számos más algoritmus létezik, amelyek segítenek befejezni a feladatokat, elfoglaltak vagyunk a mindennapi folyamatok alatt..

A vállalatok folyamatosan fejleszteni ezeket az algoritmusokat, hogy a leghatékonyabb, legpontosabb és leghatékonyabb eredményeket kapjuk, mindaddig, amíg ez megfelel a vállalat saját céljainak - általában pénzt keresni.

Számos leggyakrabban használt algoritmusunk hosszú utat tett meg az első telepítés óta. Gondoljon vissza a Google-on való keresésre a kilencvenes évek végén vagy a 2000-es évek elején - hihetetlenül specifikusnak kellett lennie, és az eredmények szörnyűek voltak a mai naphoz képest..

Szóval hogyan javíthatók ezek az algoritmusok??

Az algoritmusok jobb kiértékelésében a gépi tanulás jelentős része, amely a mesterséges intelligencia almezője. A gépi tanulási algoritmusok az adatok mintavételével és elemzésével kezdődnek a megtanultak felhasználása a feladatok hatékonyabb végrehajtására. Javítani tudnak anélkül, hogy ezeket a változásokat külső erő, például egy emberi fejlesztő beprogramozhatná.

A gépi tanulás virágzik az elmúlt néhány évtizedben, javítva algoritmusainkat, elősegítve a jobb eredmények elérését és az új területekre való költözést. Hasznossága miatt ez is a hatalmas pénzszerző cégek számára mint a Facebook, a Google és még sokan mások.

Az adatokkal kezdődik - minél nagyobb az adatkészlet, és annál több a jó minőségű adatpont, minél pontosabbak lehetnek ezek a gépi tanulási algoritmusok. Minél hatékonyabb egy algoritmus, annál több pénzt tud keresni, ami lényegében árucikkré változtatja az adatokat.

Ezek a körülmények az emberekről gyűjtött adatok mennyiségének hatalmas növekedését okozták. Ezeket az adatokat nagyrészt a felhasználók telefonjaitól, számítógépeitől és más területektől gyűjtik, majd kiszolgálóra küldik, ahol az algoritmus javítása érdekében elemzik. Bár ez megtörtént gyakran jobb szolgáltatásokhoz és megnövekedett kényelemhez vezettek, és jelentős visszavonulás érkezett azoktól is, akik a magánéletük miatt aggódnak.

Van valami baljós, hogy ezek a cégek mindenkor tudják a tartózkodási helyét, tudják, kikkel barátok, ismerik a teljes keresési előzményeket és még sok minden mást. Persze, vannak módok az ilyen adatgyűjtés elkerülésére, ám a technikák általában túl praktikusak a legtöbb ember számára, hogy zavarja.

Az adatvédelmi botrányok sorozatának közepette, például a Facebook Cambridge Analytica fiaskójában és a Google + tömeges adatsértésében, a cégek már észreveszik a figyelmüket. Mivel nem akarnak bántalmazni, úgy tűnik, hogy olyan lehetőségeket keresnek, amelyek céljaik továbbviteléhez vezetnek, anélkül hogy felhívnák a felhasználóik vagy a törvényhozók haragját. Talán a vízlépcső pillanat volt, amikor Mark Zuckerberg bejelentette, hogy „a jövő magán”, az idei F8 konferencián..

Noha valószínűleg a legjobb ezt a mozgalmat szkepticizmussal vizsgálni, vannak pozitív fejlemények a felhasználói magánélet vonatkozásában, ezek egyike az egyesített tanulás.

Szövetségi tanulás

Ahelyett, hogy adatokat továbbítanánk a felhasználói eszközökről a szerverünkre, miért nem küldjük el az algoritmust az adatokhoz?

Ez az összevont tanulás alapfogalma. A kifejezést egy, a Google alkalmazottai által közzétett 2016. évi cikkben hozták létre, és a vállalat továbbra is a terület élvonalában maradt.

szövetségi tanulás 1

Az egyesített tanulási képzési folyamat.

Az egyesített tanulás javítja az algoritmusokat azáltal, hogy elküldi az algoritmus aktuális verzióját a támogatható eszközökre. Az algoritmus e modellje ezután megtanulja a kiválasztott felhasználói csoport telefonjain található személyes adatokat. Amikor befejeződik, az új ismeretek összefoglalását visszatérítik a vállalat szerverére - maga az adat soha nem hagyja el a telefont.

A biztonság kedvéért ez az ismeret általában visszakerül a szerverre való visszatéréskor. Annak megakadályozására, hogy a szerver az általa kapott összefoglaló alapján kiszámítsa az egyedi adatokat, a Google kifejlesztette a Biztonságos összesítés jegyzőkönyv.

Ez a protokoll kriptográfiát használ annak megakadályozására, hogy a szerver hozzáférjen az egyes információs összefoglalókhoz. Ennek a sémanak a alapján a szerver csak akkor fér hozzá az összefoglalóhoz, miután hozzáadták és átlagolták több száz vagy ezer más felhasználó eredményeiből..

vagylagosan, A differenciált adatvédelem felhasználható véletlenszerű adatzaj hozzáadására az egyén összegzéséhez, eltakarva az eredményeket. Ez a véletlenszerű adat hozzáadódik, mielőtt az összefoglalót eljuttatnák a kiszolgálóhoz, így a kiszolgálónak elég pontos eredménye lenne az algoritmikus képzéshez anélkül, hogy a tényleges összesítő adatokat felfednék. Ez megőrzi az egyén magánéletét.

Az olyan technikák, mint a Secure Aggregation protokoll és a különféle adatvédelem kulcsfontosságúak a felhasználói információk védelmére mind a szervezettől, mind a hackerektől. Nélkülük az összevont tanulás nem tudta biztosítani a felhasználók magánéletét.

Miután az összefoglalókat biztonságosan elküldték a szervernek, felhasználják az algoritmus frissítésére. A folyamat több ezer alkalommal megismétlődik, és az algoritmus tesztverzióit is elküldik különféle felhasználói eszközökre. Ez lehetővé teszi a szervezetek számára, hogy értékeljék az algoritmusok új verzióit a valós felhasználói adatok alapján. Mivel az elemzést a felhasználói eszközök keretein belül végzik, az algoritmusok kipróbálhatók anélkül, hogy a felhasználói adatokat központi szerverre kellene összevonniuk.

A tesztek befejezése után a frissített algoritmusmodell elküldésre kerül a felhasználói eszközökhöz, hogy helyettesítsék a régit. A továbbfejlesztett algoritmust ezután használják a szokásos feladataihoz. Ha minden a terv szerint ment, eredményesebben és pontosabban fogja elérni az eredményeit.

Az egész ciklus ezután újra és újra megismétlődik:

  • Az új algoritmus megvizsgálja a kiválasztott felhasználói eszközök adatait.
  • Biztonságosan elküldi a felhasználói adatok összefoglalóit a kiszolgálóra.
  • Ezekre az adatokra átlagolják a többi felhasználó eredményeit.
  • Az algoritmus ezen információk alapján tanul, frissítéseket készít és tesztel.
  • Az algoritmus fejlettebb verzióját kiszorítják a felhasználók számára.

Az idő múlásával az algoritmus megtanul a felhasználói adatokból és folyamatosan javul, anélkül, hogy az adatokat vállalati szerverekre kellene tárolni. Ha továbbra is azon gondolkodik, hogy körbevágja a fejét, hogy mi az összevont tanulás és hogyan működik, a Google közzétette ezt a rajzfilmet, amely magyarázza és segíti az összevont tanulási megközelítés egyszerű megjelenítését..

A szövetségi tanulás további előnyei

Az egyesített tanulási modell a felhasználók számára a magánélet mellett számos egyéb előnyt kínál. Ahelyett, hogy folyamatosan megosztanánk az adatokat a kiszolgálóval, A tanulási folyamat akkor hajtható végre, amikor egy eszköz töltődik, csatlakozik a wifi-hez és nincs használatban, a felhasználók által tapasztalt kellemetlenségek minimalizálása.

Ez azt jelenti, hogy a felhasználók nem vesztegetik értékes adataikat vagy akkumulátorukat, amikor kint vannak és körülbelül. Mivel az összevont tanulás csak a releváns adatok összefoglalását továbbítja, nem pedig magát az adatokat, a folyamat összességében kevesebb adat átadását eredményezi, mint a hagyományos tanulási modellek esetén.

Az egyesített tanulás globális és személyre szabott algoritmikus modelleket is nyújthat. Gyűjtheti a szélesebb felhasználói csoport betekintését, és egyesítheti azokat az egyes felhasználók információival, hogy egyedülálló igényeikhez igazodva hatékonyabb modellt hozzon létre..

Az összevont tanulás alkalmazásai

Az egyesített tanulás számos felhasználási esettel rendelkezik, különösen olyan helyzetekben, ahol az adatvédelmi kérdések összefonódnak az algoritmusok fejlesztésének szükségességével. Jelenleg a legszembetűnőbb szövetségi tanulási projekteket okostelefonokon hajtották végre, de ugyanazok a technikák alkalmazhatók a számítógépekre és az internet tárgyaire is, mint például az autonóm járművek..

Néhány meglévő és potenciális felhasználás a következőket foglalja magában:

Google Gboard

A szövetségi oktatás első nagyszabású bevezetése a valós világban a A Google billentyűzet-alkalmazása, a Gboard. A vállalat célja, hogy a technikát felhasználva javítsa a szójavaslatokat anélkül, hogy a felhasználó magánéletét veszélyeztetné.

A régi gépi tanulási megközelítés szerint a jobb billentyűzet-előrejelzések kidolgozása rendkívül invazív lett volna - mindent, amit beírtunk, az összes privát üzenetet és a furcsa Google-kereséseket központi szerverre kellett volna küldeni elemzés céljából, és ki tudja, mi az adat még felhasználhatták volna.

Szerencsére a Google inkább az összevont tanulási megközelítést választotta. Mivel az algoritmikus modellt a felhasználói eszközökre helyezik, képes megtanulni a felhasználók által beírt szavakból, összefoglalni a legfontosabb információkat, majd visszaküldeni a kiszolgálóra.. Ezeket az összefoglalókat ezután felhasználják a Google prediktív szöveges funkciójának javítására, amelyet ezután tesztelnek és továbbadnak a felhasználók számára.

Az algoritmus új verziója továbbfejlesztett élményt nyújt annak köszönhetően, amit megtanult a folyamatból, és a ciklus megismétlődik. Ez lehetővé teszi a felhasználók számára, hogy folyamatosan javítsák a billentyűzet-javaslatokat anélkül, hogy veszélyeztetnék a magánéletüket.

Egészségügy

Az adatvédelem és biztonság rendkívül bonyolult az egészségügyi ágazatban. Számos szervezet jelentős mennyiségű érzékeny és értékes betegtételt tárol, amelyet a hackerek is nagyon keresnek.

Senki sem akarja, hogy a szégyenletes diagnózis kiszivárogjon a nyilvánosság előtt. Az ezekben az adattárakban található adatok rendkívül hasznosak olyan csalások esetén, mint például a személyazonosság-lopás és a biztosítási csalások. A nagy mennyiségű adat és az egészségügyi ágazattal járó hatalmas kockázatok miatt, a legtöbb ország szigorú törvényeket hajtott végre az egészségügyi adatok kezelésének módjáról, mint például az USA HIPAA rendeletei.

Ezek a törvények nagyon korlátozó jellegűek, és jelentős szankciókkal járnak, ha egy szervezet megsérti azokat. Ez általában jó dolog azoknak a betegeknek, akik aggódnak adataik helytelen kezelése miatt. azonban, az ilyen típusú jogszabályok megnehezítik az adatok olyan formáinak felhasználását a tanulmányokban, amelyek segíthetnek az új orvosi áttörésekben.

E bonyolult jogi helyzet miatt az olyan szervezetek, mint az Owkin és az Intel kutatásokat végeznek hogyan lehetne felhasználni az összevont tanulást a betegek magánéletének védelme érdekében, miközben az adatokat is felhasználhatná.

Owkin ezen a platformon dolgozik egyesített tanulást használ a betegek adatainak védelme érdekében olyan kísérletekben, amelyek meghatározzák a gyógyszer toxicitását, megjósolják a betegség alakulását és megbecslik a ritka típusú rák túlélési arányát.

2018-ban az Intel együttműködött a Pennsylvaniai Egyetem Biomedical Image Computing and Analytics Központjával annak demonstrálására, hogy az egyesített tanulás miként lehetne alkalmazni az orvosi képalkotásra mint a koncepció bizonyítékára..

Az együttműködés során kiderült, hogy egyesített tanulási megközelítés alapján sajátos mélyreható tanulási modellüket meg lehet tanítani 99 százalékkal olyan pontos, mint a hagyományos módszerekkel kiképzett modell.

Autonóm járművek

Az egyesített tanulás két fő szempontból hasznos lehet az önjáró járművek számára. Az első az, hogy megvédheti a felhasználói adatok magánéletét - sok ember nem szereti azt az elképzelést, hogy az utazási nyilvántartásaikat és egyéb vezetési információkat egy központi szerverre töltsék fel és elemezzék. Az egyesített tanulás javíthatja a felhasználói adatvédelmet azáltal, hogy csak az algoritmusokat frissíti ezen adatok összefoglalásával, nem pedig az összes felhasználói információt.

Az összevont tanulási megközelítés elfogadásának másik kulcsfontosságú oka az, hogy potenciálisan csökkentheti a késleltetést. Egy valószínűsíthető jövőbeli forgatókönyvben, ahol nagy számú önálló vezetésű autó van az utakon, a biztonsági események során gyorsan reagálniuk kell egymásra..

A hagyományos felhő-tanulás nagy adatátvitelt és lassabb tanulási ütemet foglal magában, tehát fennáll annak a lehetősége A szövetségi tanulás lehetővé tenné az autonóm járművek gyorsabb és pontosabb működését, csökkentve a baleseteket és fokozva a biztonságot.

Megfelel a szabályozásnak

Az egyesített tanulás segítheti a szervezeteket az algoritmikus modellek fejlesztésében anélkül, hogy a betegek adatait felfednék, vagy a szabályok rossz oldalára kerülnének. Az olyan törvények, mint például az európai általános adatvédelmi rendelet (GDPR) és az Egyesült Államok 1996-os egészségbiztosítási hordozhatóságáról szóló törvény, szigorú szabályokat tartalmaznak az egyének adataira és az adatok felhasználására vonatkozóan..

Ezek a törvények általában az egyének magánéletének védelme érdekében vannak érvényben, ami azt jelenti, hogy az egyesített tanulás új lehetőségeket nyithat meg azzal, hogy képes tanuljon az adatokból, miközben továbbra is biztonságban van és a szabályozási iránymutatásokon belül.

Az egyesített tanulás biztonsága és magánélete

Az egyesített tanulás új lehetőségeket nyit meg a gépi tanulási modellek képzéséhez, anélkül hogy veszélyeztetné az adatvédelmet. Ezt azonban gondosan végre kell hajtani a biztonsági kérdések és a felhasználói adatok feltárásának lehetőségeinek enyhítése érdekében.

Néhány fő probléma, valamint azok lehetséges megoldásai a következők:

A felhasználói adatok összefoglalóinak elhallgatása

A megfelelő adatvédelem és biztonság biztosítása általában különféle technológiák és politikák kombinációját foglalja magában. Míg az összevont tanulás új módszereket kínál nekünk az adatok védelmére, még mindig végre kell hajtani a kiegészítő mechanizmusok mellett.

A lehetséges gyenge pontok egyik példája az, hogy amikor a felhasználók adatainak összefoglalását elküldik az eszközről a központi szerverre, hackerek elfoghatják őket, akik felhasználhatják az eredeti adatok kitalálására..

Szerencsére ez a probléma egy viszonylag egyszerű megoldást kínál, amelyet már számos információbiztonsági területen megvalósítunk - egyszerűen titkosítani kell az adatokat a megfelelő algoritmussal, mivel a két pont között halad..

Az eredeti adatok kiszámítása a felhasználói összefoglalókból

Bizonyos esetekben a felhasználói adatok összefoglalói felhasználhatók az eredeti információk meghatározására. Ha egy rosszindulatú fél lekérdezéseket küld a modellnek az API-n keresztül, akkor lehetséges az adatok rekonstruálása, bár ez nem egyedülálló probléma az összevont tanulás során.

Ha a támadók vagy a szerverek birtokában lévő szervezetek így tudnák kitalálni az eredeti felhasználói adatokat, akkor ez teljesen megtörténik legyőzni a szövetségi oktatás megvalósításának célját. Két alapvető mechanizmus alkalmazható az egyesített tanulás mellett, hogy megakadályozzák ennek előfordulását: a Google biztonságos összesítésének protokollja és a különféle adatvédelem.

Az Biztonságos összesítési protokoll többoldalú számításokat használ a felhasználói adatok összefoglalóinak egy csoportjának átlagának kiszámításához anélkül, hogy egyetlen szerver adatösszegzéseit kiszolgálná a szervernek vagy bármely más félnek.

Ebben a rendszerben az összes felhasználói összefoglaló titkosítva van, mielőtt elhagynák a felhasználói eszközt, és a szerver nem tudja visszafejteni azokat, amíg össze nem adják őket, és átlagolják meghatározott számú más felhasználói összefoglalóval. Ez lehetővé teszi a szerver számára, hogy a modelljét a felhasználói átlagon belül kiképezze, anélkül, hogy feltárná az egyes összefoglalókat, amelyek felhasználhatók az egyén személyes adatainak feltárására..

A Biztonságos Összesítés nem csak megakadályozza a kiszolgálót a felhasználói összefoglalók elérésében, hanem meg is teszi man-in-the-middle sokkal nehezebb támadások.

A másik lehetőség a magánélet különbsége, amely számos kapcsolódó technikát magában foglal, amelyek magában foglalják az adatok meghatározott mennyiségű zaj hozzáadását. A megkülönböztetett adatvédelem fő előfeltétele, hogy ahhoz, hogy a felhasználói adatok magántulajdonban maradjanak, az adatbázis lekérdezéseinek nem szabad felfedniük, hogy egy adott személy szerepel-e az adatokban, vagy hogy mi volt az információ.

Annak megakadályozása érdekében, hogy a lekérdezések feltárják ezt az információt, számos különféle lehetőség használható a zaj hozzáadására az adatokhoz. Ez az adatzaj hozzáadódik, még mielőtt elhagyná a felhasználói eszközt, megakadályozva a kiszolgálót és a támadókat abban is, hogy az eredeti formájukban elérjék a frissítéseket.

Modellmérgezés

Az egyesített tanulás lehetőséget kínál az ellenfeleknek az algoritmikus modell „megmérgezésére”. Alapvetően ez azt jelenti egy rosszindulatú szereplő megrongálhatja a modellt saját eszközükön keresztül vagy az algoritmikus modell képzésében részt vevő más felek eszközeinek átvételével.

Ezeket a támadásokat Bagdasaryan et al. az ő Hogyan lehet beépíteni az egyesített tanulást? papír. Egyesített tanulási modell szerint a támadónak lehetősége van egy vagy több résztvevő átvételére.

Bizonyos esetekben, lehetősége van számukra az egyes résztvevők adatainak ellenőrzésére, amelyeket átvettek, megváltoztatni az adatok helyi kiképzésének módját, megváltoztatni a hiperparamétereket, például a tanulási sebességet és az egyedi modell súlyát (mielőtt az kiszolgálóra továbbításra kerülnek összesítés céljából). Lehetőség van az egyes résztvevők körének megváltoztatására a helyi képzés megközelítésében is.

Ezekkel a képességekkel a támadók hátsó ajtót fecskendezhetnek be, amelyek az algoritmusokat saját céljaikhoz igazíthatják. A tanulmány adatai szerint a modell mérgezése sokkal hatékonyabb volt, mint más adatmérgezési támadások.

A 80 000 résztvevőt becslő szóbecslési feladatban a kutatók 50% -os hátsóajtó-pontosságot érhetnek el, ha a résztvevők mindössze nyolcát veszélyeztetik. Ugyanazon hatás eléréséhez az adatok megmérgezésével a kutatóknak 400 résztvevőt kellett volna veszélyeztetniük.

Az egyik legnagyobb probléma az a tény, hogy az egyesített tanulás és a Secure Aggregation protokoll célja a felhasználói adatok bizalmas kezelése. Helyes végrehajtás esetén ez nem teszi lehetővé a kiszolgáló számára az egyedi felhasználói összefoglalókban az anomáliák észlelését.

Mint fentebb említettük, a Biztonságos Összesítés protokoll csak akkor teszi lehetővé a felhasználói összefoglalókhoz való hozzáférést, ha azokat összeadták más felhasználói adatokkal. Mivel az összefoglalókat nem lehet külön-külön áttekinteni, ez lehetetlenné teszi a bennük rejlő rendellenességek észlelését, így a modellmérgezési támadások a legmegfelelőbb módszer.

Ebben a szakaszban ezeket a támadásokat és lehetséges védekezésüket alaposabban meg kell vizsgálni.

Tartsa a modellt magántulajdonban

A kifinomult algoritmikus modellek milliókat érhetnek, ami a tolvajok célpontjává teszi őket. Használhatják őket pénzt keresni ugyanúgy, mint az algoritmusok mögött álló vállalatok, vagy akár tiltott célokra is felhasználhatják őket. Ez nem csak megmentné a tolvajokat attól, hogy hatalmas összegeket fektessenek be a modell felépítésébe, hanem az eredeti.

A vállalatoknak meg kell védeniük szellemi tulajdonukat, és úgy tűnik, hogy a modellt közvetlenül a felhasználók eszközeire küldik el könnyen eredményezheti, hogy ezeket a modelleket bárki láthatja, aki el akarja készíteni őket. Vannak olyan megoldások, amelyeket a vállalatok felhasználhatnak az algoritmikus modelleik védelmére.

Ezek egyike az kihasználja a többpártos számítás titkos megosztását. Ez lehetővé teszi a szervezetek számára, hogy elrejtsék a modell súlyozását azáltal, hogy annak fragmentumait elosztják az eszközök között. Ebben a rendszerben a titkos ügyfelek egyike sem ismeri a teljes modellt.

Ez lehetővé teszi a szervezetek számára, hogy algoritmikus képzési modelljeiket eszközökhöz továbbítsák anélkül, hogy aggódnának a szellemi tulajdonuk ellopása miatt.

Az egyesített tanulás korlátozásai

A lehetséges biztonsági kérdések mellett a szövetségi tanulásnak számos egyéb korlátozása is van, amelyek megakadályozzák, hogy mágikus tablettává váljon az összes adatvédelmi problémánk megoldása érdekében..

Az egyik szempont, hogy összehasonlítva a hagyományos gépi tanulási módszerekkel, az egyesített tanuláshoz a modell kiképzéséhez lényegesen több helyi eszköz erő és memória szükséges. Számos új eszköznek viszont elegendő energiája van ezeknek a funkcióknak, és ez a megközelítés azt is eredményezi, hogy sokkal kisebb adatmennyiséget továbbítanak a központi szerverekre, csökkentve az adatfelhasználást. Sok felhasználó számára előnyös lehet ez a kompromisszum, feltéve, hogy eszköze elég nagy teljesítményű.

Egy másik technikai kérdés a sávszélességet érinti. Az egyesített tanulás wifi-n vagy 4G-n keresztül zajlik, míg a hagyományos gépi tanulás az adatközpontokban zajlik. A wifi vagy a 4G sávszélessége alacsonyabb, mint az ezekben a központokban működő csomópontok és szerverek között alkalmazott sávszélesség.

Az eszközök sávszélessége az évek során nem növekedett olyan gyorsan, mint számítási teljesítményük, így a sávszélesség elégtelensége szűk keresztmetszetet okozhat, amely növeli a késést és lassítja a tanulási folyamatot összehasonlítva a hagyományos megközelítéssel.

Ha az algoritmusoktatást egy eszköz használata közben végzik, ez csökkenti az eszköz teljesítményét. A Google csak akkor gyakorolta ezt a problémát, ha tétlen, bekapcsolt és aljzatba csatlakoztatott eszközökkel rendelkezik. Miközben ez megoldja a problémát, mégis lelassítja a tanulási ciklust, mert az edzést csak csúcsidőn kívül lehet elvégezni.

További kihívás az, hogy az eszközök a képzési folyamat során kiesnek - a tulajdonosok használhatják őket, kikapcsolhatják őket vagy más zavarokon menhetnek keresztül. Lehet, hogy a kieső eszközök adatait nem lehet megfelelően használni, ami kevésbé pontos algoritmikus modellhez vezethet.

A gépi tanulás új módja a szövetségi tanulás?

Az egyesített tanulás egy viszonylag új képzési modell, és számos különféle alkalmazásban rejlik. Mert még mindig a tanulmány viszonylag korai szakaszában van, a folyamatnak sokkal több kutatásra van szüksége, mielőtt az összes lehetséges felhasználását meg lehet határozni, valamint a lehetséges biztonsági és adatvédelmi kockázatokkal, amelyekkel szembe kell néznie.

Addig nehéz nehéz biztosan megmondani, milyen széles körűen alkalmazzák ezt a megközelítést a jövőben. A jó hír az, hogy már láttuk, hogy a Google Gboard segítségével hatékonyan alkalmazzák azt a való világban.

A korábban tárgyalt korlátozások némelyike ​​miatt azonban valószínűtlen, hogy az egyesített tanulás minden forgatókönyvben felváltja a hagyományos tanulási modelleket. A jövő attól is függ, hogy mennyire elkötelezettek vagyunk a magánélet mellett a legnagyobb technológiai társaságok. Ebben a szakaszban van indokunk szkeptikusnak lenni.

Lásd még: 2019. évi adatsértési statisztika

Brayan Jackson
Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me

About the author

Leave a Reply

Your email address will not be published. Required fields are marked *

17 − = 11

Adblock
detector