امنیت و حریم خصوصی در یادگیری فدرال – چالشها
همانطور که در مقاله قبل گفتیم، یادگیری فدرال، یک محیط یادگیری ماشین است که در آن بسیاری از طرفهای ارتباطی مانند تلفن همراه، به طور مشترک یک مدل جهانی را تحت نظارت یک سرور مرکزی آموزش میدهند. این آموزش در شرایطی است که دادههای آموزشی را بصورت غیرمتمرکز نگهداری میکنند. این روش، جمعآوری متمرکز دادهها را به حداقل رسانده و با این کار میتواند جلوی بسیاری از خطرات و هزینههای سیستمی حریم خصوصی ناشی از یادگیری ماشین سنتی و متمرکز را به دلیل ذخیرهسازی دادهها بصورت محلی و عدم انتقال یا مبادله آنها با سرور و یا طرفهای دیگر، بگیرد و آنها را کاهش دهد. حال در این مقاله قصد داریم به یکی از چالشهای مهم در حوزه یادگیری فدرال را بپردازیم.
حریمخصوصی یک چالش مهم در یادگیری کاملا غیرمتمرکز یا همان یادگیری فدرال است که از بازسازی دادههای خصوصی طرفهای حاضر مانند دستگاهها هوشمند که در حال جمعآوری داده و آموزش مدل جهانی تحت نظارت سرور مرکزی بدون ارسال دادههای خصوصی و محلی خود به آن هستند، جلوگیری میکند و در عین حال سطح خوبی از کاربرد مناسب مدلهای آموزش داده شده حفظ میشود. یکی از راهحلهایی که برای جلوگیری از نقض حریمخصوصی دادههای آموزشی پیشنهاد شده است، استفاده از حریم خصوصی تفاضلی است. این تکنیک به این صورت عمل میکند که با افزودن نویز به دادههای محلی، مانع از بازسازی دادههای خصوصی طرفهای مشارکت کننده در آموزش مدل جهانی، میشود. در واقع هدف اصلی این است که مدل جهانی تحت نظارت یک سرور متمرکز و بوسیله طرفهای محلی آموزش ببیند و در عین حال دادههای محلی طرفها، نشت پیدا نکنند. بنابراین با استفاده از تکنیک حریمخصوصی تفاضلی میتوان تا حدودی مدل آموزش دیده محلی را از وجود برخی دادههای حساس و ارتباط آنها با یکدیگر بی خبر کرد. لازم به ذکر است طبق بررسیهای صورت گرفته، گرچه این روش یکی از روشهای پر کاربرد و مناسب جهت حفظ حریم خصوصی دادههای آموزشی است اما در عین حال اغلب هزینههای محاسباتی زیادی را به همراه دارد.