محمد بختیاری

واکنش رئیس بخش حریم خصوصی اپل به انتقادها از ویژگی ایمنی کودکان

اپل اخیراً از چشم‌اندازش برای ارائه ابزارهایی به‌منظور جلوگیری از آسیب و سوءاستفاده‌های جنسی از کودکان رونمایی کرده که تاکنون نظرات ضدونقیضی در رابطه با آن منتشر شده است. ویژگی اصلی‌ جدید به اسکن تصاویر ذخیره‌شده در آی‌کلاد برای تشخیص موارد پورنوگرافی کودکان مربوط می‌شود و همین امر، مورد انتقاد بسیاری از افراد قرار گرفته است؛ زیرا گفته می‌شود اسکن تصاویر ممکن است به سوءاستفاده‌های احتمالی از حریم خصوصی و دادن اطلاعات به دولت‌های ناقض آزادی بیان و حقوق بشر منجر شود.

مقاله‌ی مرتبط:

این امر سبب شده است که اریک نوینشواندر، سرپرست بخش حریم خصوصی اپل به شفاف‌سازی در این رابطه بپردازد. وی در مصاحبه‌ی اخیرش خاطرنشان کرده است که سیستم جدید برای جلوگیری از تهاجم و سوء‌استفاده دولت‌ها طراحی شده است. نوینشواندر در گوشه‌ای از سخنانش در رابطه با انتقادات مبنی بر احتمال دخالت دولت‌ها، می‌گوید احتمالاً این انتقادها مربوط به ایالت متحده آمریکا نمی‌شود؛ چراکه ابزارهای مذکور برای نخستین‌ بار در این کشور ارائه خواهند شد؛ جایی که متمم چهاردهم قانون اساسی آن، مردم را از تفتیش و پیگرد قانونی بی‌دلیل دولت مصون می‌دارد. وی در ادامه می‌گوید:

… حتی فراتر از ایالت متحده، سیستم دارای قابلیت‌ها و محدودیت‌هایی است که نمی‌توان آن‌ها را دور زد. به‌عنوان مثال، لیست هشی که سیستم برای برچسب‌گذاری CSAM از آن استفاده می‌کند در سیستم‌عامل تعبیه شده است و بدون به‌روزرسانی iOS نمی‌توان آن را از طرف اپل به‌روز کرد. اپل همچنین باید هرگونه به‌روزرسانی را در پایگاه داده در مقیاس جهانی منتشر کند؛ بنابراین نمی‌تواند کاربران کشوری را با به‌روزرسانی‌های خاص هدف قرار بدهد.

این سیستم همچنین فقط مجموعه‌های CSAM شناخته‌شده را برچسب‌گذاری می‌کند و به همین دلیل، یک تصویر به‌تنهایی باعث هشدار دادن نمی‌شود. افزون بر این، تصاویری که در پایگاه داده ارائه‌شده توسط مرکز ملی کودکان مفقود و استثمارشده قرار ندارند، برچسب‌گذاری نخواهند شد. با تمامی این تفاسیر، اپل همچنین یک فرایند بررسی دستی دارد. اگر یک حساب آی‌کلاد برای مجموعه‌ای از مطالب CSAM غیر قانونی پرچم‌گذاری شود، یک تیم اپل نقض را بررسی می‌کند تا قبل از هشدار به مراجع ذیصلاح، از صحت آن مطمئن شود؛ بنابراین نفوذ فرضی شامل گذر از این موانع و البته مشروط به این است که اپل فرایند داخلی خود را برای ارجاع مطالب غیرقانونی، مانند تصاویر CSAM شناخته‌شده تغییر بدهد. ما معتقدیم هیچ مبنایی وجود ندارد که افراد بتوانند بر اساس آن، این کار در ایالات متحده انجام بدهند.

 رئیس حریم خصوصی اپل استدلال می‌کند که پس از سپری شدن تمامی این موارد، این کاربر است که انتخاب می‌کند از آی‌کلاد استفاده کند یا خیر. در حقیقت سیستم فقط در صورتی کار می‌کند که کاربر آی‌کلاد فوتوز را فعال کرده باشد. نوینشواندر می‌گوید اگر کاربر سیستم را دوست ندارد، می‌تواند از آی‌کلاد فوتوز استفاده نکند و اگر این قابلیت فعال نباشد، هیچ بخشی از سیستم جدید کار نخواهد کرد. در واقع تشخیص CSAM یک هش عصبی است که با پایگاه داده هش‌های CSAM شناخته‌شده مقایسه می‌شود که بخشی از تصویر سیستم‌عامل هستند و ظاهراً هیچ یک از قسمت‌های اضافه نظیر ایجاد Voucher ایمنی یا بارگذاری Voucher در آی‌کلاد فوتوز را شامل نمی‌شود.

همان‌طور که در ابتدا گفته شد، ویژگی ایمنی کودکان اپل با انتقادهای متعددی مواجه شده است؛ اما اپل صراحتاً استفاده از این سیستم برای کاری غیر از تشخیص موارد CSAM را رد می‌کند. این شرکت تأکید می‌کند که از هرگونه تلاش دولت برای تغییر یا استفاده از سیستم برای چیزی غیر از CSAM جلوگیری خواهد کرد.

برای مطالعه‌ی تمام مقالات مرتبط با اپل به این صفحه مراجعه کنید.

پاسخی بنویسید