اپل از برنامه های خود برای اسکن آیفون های آمریکایی برای مشاهده تصاویر سوء استفاده جنسی از کودکان پرده برداشت ، با تشویق گروه های حامی کودکان اما نگرانی برخی از محققان امنیتی را در مورد سوء استفاده از این سیستم افزایش داد ، از جمله دولت هایی که به دنبال نظارت بر شهروندان خود هستند. تصاویر شناخته شده از سوء استفاده جنسی از کودکان ، به نام "NeuralHash" ، تصاویر را قبل از بارگذاری در iCloud اسکن می کند. اگر مطابقت پیدا کند ، تصویر توسط یک انسان بررسی می شود. در صورت تأیید پورنوگرافی کودکان ، حساب کاربر غیرفعال می شود و مرکز ملی کودکان مفقود شده و استثمار شده به آن اطلاع می دهد. به طور جداگانه ، اپل قصد دارد پیامهای رمزگذاری شده کاربران را برای محتویات جنسی واضح به عنوان یک اقدام ایمنی برای کودکان اسکن کند ، که طرفداران حریم خصوصی را نیز نگران کرده است. سیستم تشخیص فقط تصاویری را که قبلاً در پایگاه داده پورنوگرافی شناخته شده کودکان وجود دارد ، مشخص می کند. احتمالاً والدینی که عکس های بی گناهی از کودک در حمام می گیرند ، نگران نباشند. اما محققان می گویند که ابزار تطبیق – که چنین تصاویری را "نمی بیند" ، بلکه "اثر انگشت" ریاضی که آنها را نشان می دهد – می تواند برای اهداف ناپسندتری انجام شود. متیو گرین ، محقق ارشد رمزنگاری در دانشگاه جان هاپکینز ، هشدار داد که این سیستم می توان از آنها برای ارسال تصویر افراد به ظاهر بی ضرر که برای ایجاد مسابقه برای پورنوگرافی کودکان طراحی شده اند ، استفاده کرد. این می تواند الگوریتم اپل را فریب دهد و به اجرای قانون هشدار دهد. وی درباره توانایی فریب دادن چنین سیستم هایی گفت: "محققان به راحتی این کار را انجام داده اند." سوء استفاده های دیگر می تواند شامل نظارت دولت بر مخالفان یا معترضان باشد. گرین پرسید: "چه اتفاقی می افتد وقتی دولت چین می گوید:" در اینجا لیستی از پرونده هایی است که ما می خواهیم شما آنها را اسکن کنید. " "آیا اپل نه می گوید؟ امیدوارم آنها نه بگویند ، اما فناوری آنها نه خواهد گفت. اپل از این موارد برای اسکن فایل های کاربر ذخیره شده در سرویس iCloud خود ، که به اندازه داده های دستگاهش رمزگذاری نشده است ، برای پورنوگرافی کودکان استفاده کرده است. اپل سالها تحت فشار دولت بوده است تا امکان نظارت بیشتر بر داده های رمزگذاری شده را فراهم کند. با ارائه تدابیر امنیتی جدید ، اپل ملزم به انجام تعادل ظریف بین سرکوب استثمار کودکان و حفظ تعهد خود برای حفظ حریم خصوصی کاربران شد. ، مصالحه اپل در زمینه حفاظت از حریم خصوصی "چهره ای تکان دهنده برای کاربرانی است که در حفظ حریم خصوصی و امنیت به رهبری این شرکت اعتماد کرده اند". در همین حال ، دانشمند رایانه ای که بیش از یک دهه پیش PhotoDNA را اختراع کرد ، فناوری که توسط نیروی انتظامی برای شناسایی آنلاین پورنوگرافی کودکان استفاده می شود ، احتمال سوء استفاده از سیستم اپل را تایید کرد اما گفت که ضرورت مبارزه با سوء استفاده جنسی از کودکان بسیار بیشتر از آن است. " آیا امکان دارد؟ البته. اما آیا چیزی است که من نگران آن هستم؟ نه ، "هانی فرید ، محقق در دانشگاه کالیفرنیا در برکلی ، می گوید که بسیاری از برنامه های دیگر که برای محافظت از دستگاه ها در برابر تهدیدات مختلف طراحی شده اند ،" این نوع ماموریت را تجربه نکرده اند ". به عنوان مثال ، WhatsApp برای محافظت از حریم خصوصی خود ، رمزگذاری سرتاسری را در اختیار کاربران قرار می دهد ، اما همچنین از سیستم تشخیص بدافزارها و هشدار به کاربران برای عدم کلیک روی پیوندهای مضر استفاده می کند. اپل یکی از اولین شرکت های بزرگ بود که از "end-to" استفاده کرد. -end ”رمزگذاری ، که در آن پیامها به هم ریخته اند به طوری که فقط فرستندگان و گیرندگان آنها می توانند آنها را بخوانند. با این حال ، مجریان قانون مدتهاست که شرکت را برای دسترسی به این اطلاعات تحت فشار قرار می دهند تا جنایاتی مانند تروریسم یا استثمار جنسی کودکان را مورد بررسی قرار دهند. اپل گفت که آخرین تغییرات امسال به عنوان بخشی از به روز رسانی نرم افزار عملیاتی آن برای iPhone ، Mac ها اعمال می شود. جان کلارک ، رئیس و مدیرعامل مرکز ملی کودکان مفقود و استثمار شده ، در بیانیه ای گفت: "حمایت گسترده اپل از کودکان تغییر می کند." با توجه به تعداد زیادی از افرادی که از محصولات اپل استفاده می کنند ، این اقدامات ایمنی جدید قابلیت نجات جان کودکان را دارد. " جولیا کوردوآ ، مدیرعامل Thorn ، گفت که فناوری اپل "نیاز به حفظ حریم خصوصی و امنیت دیجیتالی برای کودکان" را متعادل می کند. Thorn ، یک موسسه غیرانتفاعی است که توسط دمی مور و اشتون کوچر تأسیس شده است ، از فناوری برای شناسایی کودکان در برابر سوء استفاده جنسی با شناسایی قربانیان و همکاری با سیستم عامل های فناوری استفاده می کند. اما مرکز دموکراسی و فناوری غیر انتفاعی مستقر در واشنگتن از اپل خواسته است تا تغییرات را کنار بگذارد ، که به گفته وی به طور م’sثری ضمانت شرکت "رمزگذاری سرتاسری" را از بین می برد. اسکن پیام ها برای محتوای جنسی واضح در تلفن ها یا رایانه ها به طور م securityثری امنیت را از بین می برد. این سازمان همچنین فناوری اپل را برای تمایز بین محتوای خطرناک و چیزی که به عنوان هنر یا میم رام است زیر سوال برد. CDT در بیانیه ای از طریق ایمیل گفت که چنین فناوری هایی به طور مشهور مستعد خطا هستند. اپل این تغییرات را به عنوان یک در پشتی می داند که رمزگذاری آن را تضعیف می کند. این اپلیکیشن می گوید که آنها با دقت در نظر گرفته شده اند که حریم خصوصی کاربران را مختل نمی کند بلکه به شدت از آن محافظت می کند. به طور جداگانه ، اپل گفت که برنامه پیام رسانی آن از یادگیری ماشین روی دستگاه برای شناسایی و محو کردن عکس های واضح جنسی در تلفن های کودکان استفاده می کند و همچنین می تواند به والدین هشدار دهد. کودکان کوچکتر از طریق پیام کوتاه همچنین گفته می شود وقتی کاربران سعی می کنند موضوعات مربوط به سوء استفاده جنسی از کودکان را جستجو کنند ، نرم افزار آن "مداخله می کند". به منظور دریافت هشدارها در مورد تصاویر جنسی در دستگاه های فرزندان خود ، والدین باید تلفن فرزند خود را ثبت نام کنند. کودکان بالای 13 سال می توانند ثبت نام خود را لغو کنند ، به این معنی که والدین نوجوان اعلاناتی دریافت نمی کنند. اپل گفت هیچ یک از این موارد امنیت ارتباطات خصوصی را به خطر نمی اندازد و به پلیس اطلاع نمی دهد .___ نویسنده فناوری AP ، مایک لیتکه در این مقاله مشارکت داشته است. .
اپل آیفون های آمریکایی را برای تصاویر سوء استفاده جنسی از کودکان اسکن می کند
