blank

Meta, Discord اور دیگر نے بچوں کے آن لائن جنسی استحصال اور بدسلوکی کا مقابلہ کرنے کی کوششوں کی نقاب کشائی کی۔

blank

ٹیک کولیشن، ٹیک کمپنیوں کا گروپ جو آن لائن بچوں کے جنسی استحصال اور بدسلوکی (CSEA) سے نمٹنے کے لیے نقطہ نظر اور پالیسیاں تیار کر رہا ہے، نے آج ایک نئے پروگرام، لالٹین کے آغاز کا اعلان کیا، جو سوشل میڈیا پلیٹ فارمز کو سرگرمی کے بارے میں “سگنلز” کا اشتراک کرنے کے قابل بنانے کے لیے ڈیزائن کیا گیا ہے۔ ایسے اکاؤنٹس جو CSEA کے خلاف ان کی پالیسیوں کی خلاف ورزی کر سکتے ہیں۔

لالٹین میں حصہ لینے والے پلیٹ فارمز – جس میں اب تک Discord، Google، Mega، Meta، Quora، Roblox، Snap اور Twitch شامل ہیں – لالٹین پر ایسی سرگرمی کے بارے میں سگنل اپ لوڈ کر سکتے ہیں جو ان کی شرائط کے خلاف چلتی ہے، The Tech Coalition وضاحت کرتا ہے. سگنلز میں پالیسی کی خلاف ورزی کرنے والے اکاؤنٹس سے منسلک معلومات شامل ہو سکتی ہیں، جیسے کہ ای میل پتے اور صارف نام، یا مطلوبہ الفاظ دولہا نیز بچوں کے جنسی استحصال کے مواد (CSAM) کی خرید و فروخت۔ اس کے بعد دیگر حصہ لینے والے پلیٹ فارمز لالٹین میں دستیاب سگنلز میں سے انتخاب کر سکتے ہیں، منتخب سگنلز کو اپنے پلیٹ فارم کے خلاف چلا سکتے ہیں، کسی بھی سرگرمی کا جائزہ لے سکتے ہیں اور سگنلز کی سطح پر مواد لے سکتے ہیں اور مناسب کارروائی کر سکتے ہیں۔

ایک پائلٹ پروگرام کے دوران، دی ٹیک کولیشن، جس کا دعویٰ ہے کہ باہر کے “ماہرین” سے جاری فیڈ بیک کے ساتھ لالٹین دو سالوں سے ترقی کے مراحل میں ہے، کا کہنا ہے کہ فائل ہوسٹنگ سروس میگا نے ایسے یو آر ایل شیئر کیے جنہیں میٹا نے 10,000 سے زیادہ فیس بک پروفائلز اور صفحات کو ہٹانے کے لیے استعمال کیا۔ اور انسٹاگرام اکاؤنٹس۔

دی ٹیک کولیشن کا کہنا ہے کہ لالٹین کے “پہلے مرحلے” میں کمپنیوں کے ابتدائی گروپ کے پروگرام کا جائزہ لینے کے بعد، اضافی شرکاء کو شامل ہونے کا خیرمقدم کیا جائے گا۔

لالٹین

تصویری کریڈٹ: لالٹین

“کیونکہ [child sexual abuse] تمام پلیٹ فارمز پر پھیلی ہوئی ہے، بہت سے معاملات میں، کوئی بھی ایک کمپنی شکار کو پہنچنے والے نقصان کا صرف ایک ٹکڑا دیکھ سکتی ہے۔ مکمل تصویر کو ننگا کرنے اور مناسب کارروائی کرنے کے لیے، کمپنیوں کو مل کر کام کرنے کی ضرورت ہے،” دی ٹیک کولیشن نے ایک بلاگ پوسٹ میں لکھا۔ “ہم ٹیک کولیشن کی سالانہ شفافیت کی رپورٹ میں لالٹین کو شامل کرنے اور شرکت کرنے والی کمپنیوں کو پروگرام میں ان کی شرکت کو ان کی اپنی شفافیت کی رپورٹنگ میں شامل کرنے کے بارے میں تجاویز فراہم کرنے کے لیے پرعزم ہیں۔”

آن لائن پرائیویسی کو دبائے بغیر CSEA سے کیسے نمٹا جائے اس پر اختلاف کے باوجود، بچوں کے ساتھ بدسلوکی کے مواد کی بڑھتی ہوئی وسعت کے بارے میں تشویش ہے – دونوں حقیقی اور deepfaked – اب آن لائن گردش کر رہا ہے۔ 2022 میں، گمشدہ اور استحصال زدہ بچوں کے قومی مرکز کو CSAM کی 32 ملین سے زیادہ رپورٹس موصول ہوئیں۔

ایک حالیہ RAINN اور YouGov سروے پتا چلا کہ 82% والدین کا خیال ہے کہ ٹیک انڈسٹری، خاص طور پر سوشل میڈیا کمپنیوں کو، بچوں کو آن لائن جنسی زیادتی اور استحصال سے بچانے کے لیے مزید کچھ کرنا چاہیے۔ اس نے قانون سازوں کو عمل میں لانے کی حوصلہ افزائی کی ہے – اس کے باوجود ملا ہوا نتائج.

ستمبر میں، تمام 50 امریکی ریاستوں کے علاوہ چار خطوں کے اٹارنی جنرل، دستخط شدہ پر ایک خط کانگریس سے AI سے چلنے والے CSAM کے خلاف کارروائی کرنے کا مطالبہ۔ دریں اثنا، یورپی یونین نے مجوزہ یہ حکم دینے کے لیے کہ ٹیک کمپنیاں اپنے پلیٹ فارمز پر بچوں کو نشانہ بنانے والی گرومنگ سرگرمی کی شناخت اور رپورٹنگ کے دوران CSAM کے لیے اسکین کریں۔



Source link
techcrunch.com

اپنا تبصرہ بھیجیں