ایپل کے CSAM سسٹم کو دھوکہ دیا گیا تھا، لیکن کمپنی کے پاس دو حفاظتی اقدامات ہیں۔

اپ ڈیٹ: ایپل نے سرور کے دوسرے معائنے کا تذکرہ کیا، اور ایک پیشہ ور کمپیوٹر ویژن کمپنی نے ذیل میں "دوسرا معائنہ کیسے کام کر سکتا ہے" میں اس بات کے امکان کا خاکہ پیش کیا۔
ڈویلپرز کی جانب سے اس کے انجنیئر کردہ حصوں کو ریورس کرنے کے بعد، ایپل CSAM سسٹم کے ابتدائی ورژن کو مؤثر طریقے سے ایک معصوم تصویر کو نشان زد کرنے کے لیے دھوکہ دیا گیا ہے۔تاہم، ایپل نے کہا کہ اس کے پاس حقیقی زندگی میں ایسا ہونے سے روکنے کے لیے اضافی تحفظات ہیں۔
تازہ ترین پیش رفت نیورل ہیش الگورتھم کے اوپن سورس ڈویلپر ویب سائٹ GitHub پر شائع ہونے کے بعد ہوئی، کوئی بھی اس کے ساتھ تجربہ کر سکتا ہے…
تمام CSAM سسٹم نیشنل سینٹر فار مسنگ اینڈ ایکسپلوئٹڈ چلڈرن (NCMEC) جیسی تنظیموں سے معلوم بچوں کے جنسی استحصال کے مواد کا ڈیٹا بیس درآمد کرکے کام کرتے ہیں۔ڈیٹا بیس تصویروں سے ہیش یا ڈیجیٹل فنگر پرنٹس کی شکل میں فراہم کیا جاتا ہے۔
اگرچہ زیادہ تر ٹیکنالوجی کمپنیاں کلاؤڈ میں اپ لوڈ کی گئی تصاویر کو اسکین کرتی ہیں، ایپل سٹور شدہ تصویر کی ہیش ویلیو بنانے کے لیے کسٹمر کے آئی فون پر نیورل ہیش الگورتھم کا استعمال کرتا ہے، اور پھر اس کا موازنہ CSAM ہیش ویلیو کی ڈاؤن لوڈ کردہ کاپی سے کرتا ہے۔
کل، ایک ڈویلپر نے دعوی کیا کہ اس نے ایپل کے الگورتھم کو ریورس انجنیئر کیا ہے اور کوڈ کو GitHub کو جاری کیا ہے- ایپل کے ذریعہ اس دعوے کی مؤثر طریقے سے تصدیق کی گئی تھی۔
GitHib کے جاری ہونے کے چند گھنٹوں کے اندر، محققین نے کامیابی سے الگورتھم کا استعمال کرتے ہوئے ایک جان بوجھ کر غلط مثبت - دو مکمل طور پر مختلف تصاویر تخلیق کیں جس سے ایک ہی ہیش ویلیو پیدا ہوئی۔اسے ٹکراؤ کہتے ہیں۔
اس طرح کے سسٹمز کے لیے ہمیشہ تصادم کا خطرہ رہتا ہے، کیونکہ ہیش یقیناً تصویر کی ایک بہت ہی آسان نمائندگی ہے، لیکن یہ حیرت کی بات ہے کہ کوئی اتنی جلدی تصویر بنا سکتا ہے۔
یہاں جان بوجھ کر ٹکراؤ تصور کا محض ایک ثبوت ہے۔ڈویلپرز کو CSAM ہیش ڈیٹا بیس تک رسائی نہیں ہے، جس کے لیے حقیقی وقت کے نظام میں غلط مثبتات کی تخلیق کی ضرورت ہوگی، لیکن یہ ثابت کرتا ہے کہ تصادم کے حملے اصولی طور پر نسبتاً آسان ہیں۔
ایپل نے مؤثر طریقے سے تصدیق کی کہ الگورتھم اس کے اپنے نظام کی بنیاد ہے، لیکن مدر بورڈ کو بتایا کہ یہ حتمی ورژن نہیں ہے۔کمپنی نے یہ بھی کہا کہ اس کا کبھی بھی اسے خفیہ رکھنے کا ارادہ نہیں تھا۔
ایپل نے مدر بورڈ کو ایک ای میل میں بتایا کہ GitHub پر صارف کے ذریعہ تجزیہ کردہ ورژن ایک عام ورژن ہے، نہ کہ iCloud Photo CSAM کا پتہ لگانے کے لیے استعمال ہونے والا حتمی ورژن۔ایپل نے کہا کہ اس نے الگورتھم کا بھی انکشاف کیا۔
"نیورل ہیش الگورتھم [...] دستخط شدہ آپریٹنگ سسٹم کوڈ کا حصہ ہے [اور] سیکورٹی محققین اس بات کی تصدیق کر سکتے ہیں کہ اس کا رویہ تفصیل کے مطابق ہے،" ایک ایپل دستاویز نے لکھا۔
کمپنی نے مزید کہا کہ دو اور اقدامات ہیں: اپنے سرور پر ایک ثانوی (خفیہ) مماثلت کا نظام چلانا، اور دستی جائزہ۔
ایپل نے یہ بھی کہا کہ صارفین 30 میچوں کی حد سے گزرنے کے بعد، ایپل کے سرورز پر چلنے والا دوسرا غیر عوامی الگورتھم نتائج کی جانچ کرے گا۔
"اس آزاد ہیش کا انتخاب اس امکان کو مسترد کرنے کے لیے کیا گیا تھا کہ غلط NeuralHash غیر CSAM امیجز کی مخالف مداخلت کی وجہ سے ڈیوائس پر موجود انکرپٹڈ CSAM ڈیٹا بیس سے میل کھاتا ہے اور مماثل حد سے زیادہ ہے۔"
Roboflow کے بریڈ Dwyer نے تصادم کے حملے کے تصور کے ثبوت کے طور پر پوسٹ کی گئی دو تصاویر کے درمیان آسانی سے فرق کرنے کا ایک طریقہ تلاش کیا۔
میں متجسس ہوں کہ یہ تصاویر اسی طرح کی لیکن مختلف نیورل فیچر ایکسٹریکٹر OpenAI کے CLIP میں کیسی نظر آتی ہیں۔CLIP NeuralHash کی طرح کام کرتا ہے۔یہ ایک تصویر لیتا ہے اور فیچر ویکٹر کا ایک سیٹ تیار کرنے کے لیے نیورل نیٹ ورک کا استعمال کرتا ہے جو تصویر کے مواد کو نقشہ بناتا ہے۔
لیکن OpenAI کا نیٹ ورک مختلف ہے۔یہ ایک عام ماڈل ہے جو تصاویر اور متن کے درمیان نقشہ بنا سکتا ہے۔اس کا مطلب یہ ہے کہ ہم اسے انسانی قابل فہم تصویری معلومات نکالنے کے لیے استعمال کر سکتے ہیں۔
میں نے اوپر کی دو تصادم کی تصاویر کو CLIP کے ذریعے یہ دیکھنے کے لیے چلایا کہ آیا اسے بھی بے وقوف بنایا گیا تھا۔مختصر جواب ہے: نہیں۔اس کا مطلب یہ ہے کہ ایپل کو پتہ چلنے والی CSAM تصاویر پر دوسرا فیچر ایکسٹریکٹر نیٹ ورک (جیسے CLIP) لاگو کرنے کے قابل ہونا چاہیے تاکہ یہ معلوم کیا جا سکے کہ آیا وہ اصلی ہیں یا جعلی۔ایسی تصاویر بنانا زیادہ مشکل ہے جو بیک وقت دو نیٹ ورکس کو دھوکہ دیتی ہیں۔
آخر میں، جیسا کہ پہلے ذکر کیا گیا ہے، تصاویر کا دستی طور پر جائزہ لیا جاتا ہے تاکہ یہ تصدیق ہو سکے کہ وہ CSAM ہیں۔
ایک سیکیورٹی محقق نے کہا کہ صرف حقیقی خطرہ یہ ہے کہ جو بھی ایپل کو ناراض کرنا چاہتا ہے وہ انسانی جائزہ لینے والوں کو غلط مثبتات فراہم کرسکتا ہے۔
ایپل نے دراصل اس سسٹم کو ڈیزائن کیا ہے، اس لیے ہیش فنکشن کو خفیہ رکھنے کی ضرورت نہیں ہے، کیوں کہ 'نان CSAM بطور CSAM' کے ساتھ آپ صرف ایک ہی کام کر سکتے ہیں ایپل کی رسپانس ٹیم کو کچھ فضول تصاویر سے ناراض کرنا ہے جب تک کہ وہ اسے ختم کرنے کے لیے فلٹرز کو لاگو نہ کر دیں۔ تجزیہ پائپ لائن میں موجود کچرا جھوٹے مثبت ہیں،" یونیورسٹی آف کیلیفورنیا، برکلے میں انسٹی ٹیوٹ آف انٹرنیشنل کمپیوٹر سائنس کے سینئر محقق نکولس ویور نے مدر بورڈ کو آن لائن چیٹ میں بتایا۔
پرائیویسی آج کی دنیا میں بڑھتی ہوئی تشویش کا مسئلہ ہے۔ہماری رہنما خطوط میں رازداری، سیکورٹی وغیرہ سے متعلق تمام رپورٹس پر عمل کریں۔
Ben Lovejoy ایک برطانوی تکنیکی مصنف اور 9to5Mac کے EU ایڈیٹر ہیں۔وہ اپنے کالموں اور ڈائری کے مضامین کے لیے جانا جاتا ہے، وقت کے ساتھ ساتھ ایپل کی مصنوعات کے ساتھ اپنے تجربے کو مزید جامع جائزے حاصل کرنے کے لیے تلاش کرتا ہے۔وہ ناول بھی لکھتے ہیں، دو تکنیکی تھرلر، چند مختصر سائنس فکشن فلمیں اور ایک روم کام!


پوسٹ ٹائم: اگست-20-2021