اپل عکس‌های آیفون شما را برای یافتن تصاویر کودک‌آزاری اسکن می‌کند!

2

به گزارش فایننشال تایمز، اپل قصد دارد عکس‌های ذخیره شده در آیفون و آی‌کلود (iCloud) را برای محتوای تصاویر کودک‌آزاری اسکن کند. سیستم جدید می‌تواند به اجرای قانون در تحقیقات جنایی کمک کند، اما ممکن است دریچه‌ای را برای افزایش تقاضاهای قانونی و دولتی برای داده‌های کاربران باز کند.

فایننشال تایمز می گوید این سیستم که نیورال‌مچ (neuralMatch) نامیده می‌شود، در صورت تشخیص تصاویر غیرقانونی به تیمی از بازبینان انسانی هشدار می دهد، که در صورت تأیید صحت مطالب، با نیروی انتظامی تماس خواهند گرفت. نیورال‌مچ، که با استفاده از دویست هزار تصویر از مرکز ملی کودکان مفقودالاثر و مورد سوء‌استفاده قرار گرفته تمرین داده شده، ابتدا در ایالات متحده ارائه می‌شود. عکس‌ها به جزئی‌ترین حالت ممکن تقسیم می‌شوند و با پایگاه داده‌ای از تصاویر شناخته شده از سوء استفاده جنسی از کودکان مقایسه می‌شوند.

فایننشال اعلام کرد:

طبق اطلاعاتی که افراد در جریان برنامه ها کسب کردنند، به هر عکسی که در آی‌کلود در ایالات متحده بارگذاری می شود “کوپن ایمنی” داده می شود و اعلام می‌شود که آیا تصویر مشکوک است یا نه.

هنگامی که تعداد معینی از عکس‌ها به عنوان تصویر مشکوک شناسایی و علامت‌گذاری شوند، اپل امکان رمزگشایی همه عکس‌های مشکوک را فراهم می‌کند و در صورت تأیید غیرقانونی بودن، به مقامات مربوطه ارسال می شود.

نگرانی‌هایی درمورد سیستم امینتی جدید اپل

متیو گرین، رمزنگار و استاد دانشگاه جان هاپکینز، چهارشنبه شب نگرانی‌هایی را در مورد این سیستم در توییتر مطرح کرد. گرین می گوید:

این نوع ابزار می‌تواند برای پیدا کردن پورنوگرافی کودکان در تلفن افراد مفید باشد. اما تصور کنید که این کار در دست یک دولت مستبد چه می تواند انجام دهد؟

او می‌افزاید: «حتی اگر فکر می کنید اپل اجازه سوءاستفاده از این ابزارها را نمی‎‌دهد، هنوز جای نگرانی وجود دارد. این سیستم‌ها بر بانک اطلاعاتی داده‌های رسانه‌ای مشکل‌ساز تکیه می‌کنند که شما به عنوان یک مصرف‌کننده نمی‌توانید آنها را مرور کنید.

اپل در حال حاضر فایل‌های داخل آی‌کلود را در برابر تصاویر شناخته شده مربوط به سوء استفاده از کودکان، مانند سایر ارائه دهندگان اصلی کلود بررسی می‌کند. اما سیستمی که در اینجا شرح داده شده است، فراتر از این حرف‌ها می‌رود و اجازه دسترسی به فایل‌های درون گوشی را نیز می‌دهد. همچنین این احتمال وجود دارد که این سیستم در آینده برای جرایم دیگری به‌جز کودک‌آزاری نیز مورد استفاده قرار گیرد.

خوش‌نامی اپل از دفاع در برار حریم خصوصی کاربران

اپل در گذشته از محافظت از حریم خصوصی کاربران در دستگاه‌های خود دفاع کرده بود. سال ۲۰۱۵ و در جریان پرونده سن برناردینو، FBI از اپل خواست یک درب پشتی در آیفون کار بگذارد. با این‌حال اپل از درخواست FBI سرپیچی کرد و ادعا کرد حریم شخصی کاربرانش اهمیت بالایی برای این شرکت دارد.

به گزارش فایننشال تایمز، طبق گفته دو محقق امنیتی که در جلسه قبلی اپل از این موضوع مطلع شده ‌بودند، این شرکت در همین هفته این موضوع را به برخی از جمع دانشگاهیان آمریکایی توضیح داد و آنها را در جریان این موضوع قرار داده است.

اپل اطلاعات بیشتری در مورد گزارش فایننشال تایمز اعلام کرده است. این شرکت ابزارهای جدیدی را برای آی‌مسیج معرفی کرده که به کودکان در مورد ارسال تصاویر برهنه هشدار می‌دهد. ویژگی‌های جدید در ماه‌های آینده و با به روزرسانی iOS 15 ، iPadOS 15 ، watchOS 8 و macOS Monterey ارائه می‌شوند. می‌توانید اطلاعات بیشتری در مورد این نوع محافظت از کودکان را در وب سایت اپل بخوانید.

شاید بخوای اینا رو هم بخونی:

نوشتن دیدگاه

آدرس ایمیل شما منتشر نخواهد شد.

دیدگاه شما پس از بررسی توسط تحریریه منتشر خواهد شد. در صورتی که در بخش نظرات سوالی پرسیده‌اید اگر ما دانش کافی از پاسخ آن داشتیم حتماً پاسخگوی شما خواهیم بود در غیر این صورت تنها به امید دریافت پاسخ مناسب از دیگران آن را منتشر خواهیم کرد.

2 نظر برای این مطلب
  1. در می‌گوید

    یه چیزی واسم خیلی جالبه. اینکه هر وقت حرف از جاسوسی و امنیت میشه(چند موقع پیش پگاسوس) این ها چقدر نگرانن که دست حکومت های زورگو و مستبد نیفته. انحراف ذهن عامه مردم از واقعیت یعنی این. واقعا آفرین به ترفند های رسانه‌ایشون . یاد سریال مضنون افتادم

  2. اا می‌گوید

    خوش‌نامی به سبک تبلیغات، جاسوسی‌قانونی به سبک گوگل و فیسبوک. امنیت واسه این شرکت ها فقط به درد تبلیغات میخوره