امنیت و حریم خصوصی در یادگیری فدرال – چالش‌ها

 همانطور که در مقاله قبل گفتیم، یادگیری فدرال، یک محیط یادگیری ماشین است که در آن بسیاری از طرف‌های ارتباطی مانند تلفن همراه، به طور مشترک یک مدل جهانی را تحت نظارت یک سرور مرکزی آموزش می‌دهند. این آموزش در شرایطی است که داده‌های آموزشی را بصورت غیرمتمرکز نگهداری می‌کنند. این روش، جمع‌آوری متمرکز داده‌ها را به حداقل رسانده و با این کار می‌تواند جلوی بسیاری از خطرات و هزینه‌های سیستمی حریم خصوصی ناشی از یادگیری ماشین سنتی و متمرکز را به دلیل ذخیره‌سازی داده‌ها بصورت محلی و عدم انتقال یا مبادله آن‌ها با سرور و یا طرف‌های دیگر، بگیرد و آن‌ها را کاهش دهد. حال در این مقاله قصد داریم به یکی از چالش‌های مهم در حوزه یادگیری فدرال را بپردازیم.

 حریم‌خصوصی یک چالش مهم در یادگیری کاملا غیرمتمرکز یا همان یادگیری فدرال است که از بازسازی داده‌های خصوصی طرف‌های حاضر مانند دستگاه‌ها هوشمند که در حال جمع‌آوری داده و آموزش مدل جهانی تحت نظارت سرور مرکزی بدون ارسال داده‌های خصوصی و محلی خود به آن هستند، جلوگیری می‌کند و در عین حال سطح خوبی از کاربرد مناسب مدل‌های آموزش داده شده حفظ می‌شود. یکی از راه‌حل‌هایی که برای جلوگیری از نقض حریم‌خصوصی داده‌های آموزشی پیشنهاد شده است، استفاده از حریم خصوصی تفاضلی است. این تکنیک به این صورت عمل می‌کند که با افزودن نویز به داده‌های محلی، مانع از بازسازی داده‌های خصوصی طرف‌های مشارکت کننده در آموزش مدل جهانی، می‌شود. در واقع هدف اصلی این است که مدل جهانی تحت نظارت یک سرور متمرکز و بوسیله طرف‌های محلی آموزش ببیند و در عین حال داده‌های محلی طرف‌ها، نشت پیدا نکنند. بنابراین با استفاده از تکنیک حریم‌خصوصی تفاضلی می‌توان تا حدودی مدل آموزش دیده محلی را از وجود برخی داده‌های حساس و ارتباط آن‌ها با یکدیگر بی خبر کرد. لازم به ذکر است طبق بررسی‌های صورت گرفته، گرچه این روش یکی از روش‌های پر کاربرد و مناسب جهت حفظ حریم خصوصی داده‌های آموزشی است اما در عین حال اغلب هزینه‌های محاسباتی زیادی را به همراه دارد.