Vis enkel innførsel

dc.contributor.authorSchlegel, Reent
dc.date.accessioned2023-04-11T12:29:24Z
dc.date.available2023-04-11T12:29:24Z
dc.date.issued2023-04-21
dc.date.submitted2023-03-24T09:45:27.926Z
dc.identifiercontainer/50/23/54/53/50235453-2ddb-4d46-91b8-19fdf6168d8d
dc.identifier.isbn9788230860120
dc.identifier.isbn9788230859469
dc.identifier.urihttps://hdl.handle.net/11250/3062405
dc.description.abstractI et distribuert datanettverk samarbeider flere enheter for å løse et problem. Slik kan vi oppnå mer enn summen av delene: samarbeid gjør at problemet kan løses mer effektivt, og samtidig blir det mulig å løse problemer som hver enkelt enhet ikke kan løse på egen hånd. På den annen side kan enheter som bruker veldig lang tid på å fullføre sin oppgave øke den totale beregningstiden betydelig. Denne såkalte straggler-effekten kan oppstå som følge av tilfeldige hendelser som minnetilgang og oppgaver som kjører i bakgrunnen på de ulike enhetene. Straggler-problemet blokkerer vanligvis hele beregningen siden alle enhetene må vente på at de treigeste enhetene blir ferdige. Videre kan deling av data og delberegninger mellom de ulike enhetene belaste kommunikasjonsnettverket betydelig. Spesielt i et trådløst nettverk hvor enhetene må dele en enkelt kommunikasjonskanal, for eksempel ved beregninger langs kanten av et nettverk (såkalte kantberegninger) og ved føderert læring, blir kommunikasjonen ofte flaskehalsen. Sist men ikke minst gir deling av data med upålitelige enheter økt bekymring for personvernet. En som ønsker å bruke et distribuert datanettverk kan være skeptisk til å dele personlige data med andre enheter uten å beskytte sensitiv informasjon tilstrekkelig. Denne avhandlingen studerer hvordan ideer fra kodeteori kan dempe straggler-problemet, øke effektiviteten til kommunikasjonen og garantere datavern i distribuert databehandling. Spesielt gir del A en innføring i kantberegning og føderert læring, to populære instanser av distribuert databehandling, lineær regresjon, et vanlig problem som kan løses ved distribuert databehandling, og relevante ideer fra kodeteori. Del B består av forskningsartikler skrevet innenfor rammen av denne avhandlingen. Artiklene presenterer metoder som utnytter ideer fra kodeteori for å redusere beregningstiden samtidig som datavernet ivaretas ved kantberegninger og ved føderert læring. De foreslåtte metodene gir betydelige forbedringer sammenlignet med tidligere metoder i litteraturen. For eksempel oppnår en metode fra artikkel I en 8%-hastighetsforbedring for kantberegninger sammenlignet med en nylig foreslått metode. Samtidig ivaretar vår metode datavernet, mens den metoden som vi sammenligner med ikke gjør det. Artikkel II presenterer en metode som for noen brukstilfeller er opp til 18 ganger raskere for føderert læring sammenlignet med tidligere metoder i litteraturen.en_US
dc.description.abstractIn a distributed computing network, multiple devices combine their resources to solve a problem. Thereby the network can achieve more than the sum of its parts: cooperation of the devices can enable the devices to compute more efficiently than each device on its own could and even enable the devices to solve a problem neither of them could solve on its own. However, devices taking exceptionally long to finish their tasks can exacerbate the overall latency of the computation. This so-called straggler effect can arise from random effects such as memory access and tasks running in the background of the devices. The effect typically stalls the whole network because most devices must wait for the stragglers to finish. Furthermore, sharing data and results among devices can severely strain the communication network. Especially in a wireless network where devices have to share a common channel, e.g., in edge computing and federated learning, the communication links often become the bottleneck. Last but not least, offloading data to untrusted devices raises privacy concerns. A participant in the distributed computing network might be weary of sharing personal data with other devices without adequately protecting sensitive information. This thesis analyses how ideas from coding theory can mitigate the straggler effect, reduce the communication load, and guarantee data privacy in distributed computing. In particular, Part A gives background on edge computing and federated learning, two popular instances of distributed computing, linear regression, a common problem to be solved by distributed computing, and the specific ideas from coding theory that are proposed to tackle the problems arising in distributed computing. Part B contains papers on the research performed in the framework of this thesis. The papers propose schemes that combine the introduced coding theory ideas to minimize the overall latency while preserving data privacy in edge computing and federated learning. The proposed schemes significantly outperform state-of-the-art schemes. For example, a scheme from Paper I achieves an 8% speed-up for edge computing compared to a recently proposed non-private scheme while guaranteeing data privacy, whereas the schemes from Paper II achieve a speed-up factor of up to 18 for federated learning compared to current schemes in the literature for considered scenarios.en_US
dc.language.isoengen_US
dc.publisherThe University of Bergenen_US
dc.relation.haspartPaper I: R. Schlegel, S. Kumar, E. Rosnes, A. Graell i Amat, Privacy-Preserving Coded Mobile Edge Computing for Low-Latency Distributed Inference, IEEE Journal on Selected Areas in Communications, vol. 40, no. 3, pp. 788-799, March 2022. The article is available in the thesis file. The article is also available at: <a href=" https://doi.org/10.1109/JSAC.2022.3142295" target="blank"> https://doi.org/10.1109/JSAC.2022.3142295</a>en_US
dc.relation.haspartPaper II: R. Schlegel, S. Kumar, E. Rosnes, A. Graell i Amat, CodedPaddedFL and Coded- SecAgg: Straggler Mitigation and Secure Aggregation in Federated Learning, IEEE Transactions on Communications, vol. 71, no. 4, pp. 2013 - 2027, 2023. The article is available in the thesis file. The article is also available at: <a href="https://doi.org/10.1109/TCOMM.2023.3244243" target="blank">https://doi.org/10.1109/TCOMM.2023.3244243</a>en_US
dc.rightsIn copyright
dc.rights.urihttp://rightsstatements.org/page/InC/1.0/
dc.titleCoding for Privacy in Distributed Computingen_US
dc.typeDoctoral thesisen_US
dc.date.updated2023-03-24T09:45:27.926Z
dc.rights.holderCopyright the Author. All rights reserveden_US
dc.description.degreeDoktorgradsavhandling
fs.unitcode12-12-0


Tilhørende fil(er)

Thumbnail

Denne innførselen finnes i følgende samling(er)

Vis enkel innførsel