blank

اخلاقیات نے ‘AI Pause’ کے خط پر جوابی فائرنگ کی جس کا کہنا ہے کہ ‘اصل نقصانات کو نظر انداز کرتے ہیں’

معروف AI اخلاقیات کے ایک گروپ نے اس ہفتے کے متنازعہ خط کا جواب لکھا ہے جس میں AI کی ترقی پر چھ ماہ کے “توقف” کا مطالبہ کیا گیا ہے، اور اس پر تنقید کرتے ہوئے مستقبل کے فرضی خطرات پر توجہ مرکوز کی گئی ہے جب حقیقی نقصانات آج ٹیکنالوجی کے غلط استعمال سے منسوب ہیں۔ .

سٹیو ووزنیاک اور ایلون مسک جیسے جانے پہچانے ناموں سمیت ہزاروں لوگ، اس ہفتے کے شروع میں فیوچر آف لائف انسٹی ٹیوٹ کے کھلے خط پر دستخط کیے، تجویز پیش کرتے ہوئے کہ دیگر خطرات کے علاوہ “ہماری تہذیب کے کنٹرول سے محروم” سے بچنے کے لیے GPT-4 جیسے AI ماڈلز کی ترقی کو روک دیا جانا چاہیے۔

Timnit Gebru، Emily M. Bender، Angelina McMillan-Major اور Margaret Mitchell سبھی AI اور اخلاقیات کے ڈومینز کی اہم شخصیات ہیں، جنہیں گوگل سے باہر دھکیلنے کے لیے جانا جاتا ہے (اپنے کام کے علاوہ) کاغذ AI کی صلاحیتوں پر تنقید۔ وہ فی الحال DAIR انسٹی ٹیوٹ میں ایک ساتھ کام کر رہے ہیں، ایک نیا تحقیقی لباس جس کا مقصد AI سے وابستہ نقصانات کا مطالعہ کرنا اور ان کو بے نقاب کرنا اور روکنا ہے۔

لیکن وہ دستخط کنندگان کی فہرست میں نہیں پائے جاتے تھے، اور اب ہیں۔ ایک سرزنش شائع کی ٹیک کی وجہ سے موجودہ مسائل سے نمٹنے میں خط کی ناکامی کو پکارنا۔

انہوں نے کارکنوں کے استحصال، ڈیٹا کی چوری، مصنوعی میڈیا کا حوالہ دیتے ہوئے لکھا، “یہ فرضی خطرات لانگٹرمزم نامی خطرناک نظریے کا مرکز ہیں جو آج AI سسٹمز کی تعیناتی کے نتیجے میں ہونے والے حقیقی نقصانات کو نظر انداز کرتا ہے، جو موجودہ طاقت کے ڈھانچے اور مزید ارتکاز کو فروغ دیتا ہے۔” ان طاقت کے ڈھانچے کو کم ہاتھوں میں۔

ٹرمینیٹر- یا میٹرکس-ایسک روبوٹ apocalypse کے بارے میں فکر کرنے کا انتخاب ایک سرخ ہیرنگ ہے جب ہمارے پاس، اسی لمحے میں، Clearview AI جیسی کمپنیوں کی رپورٹیں آتی ہیں۔ پولیس کی طرف سے بنیادی طور پر ایک بے گناہ آدمی کو فریم کرنے کے لیے استعمال کیا جا رہا ہے۔. T-1000 کی ضرورت نہیں ہے جب آپ کو آن لائن ربڑ اسٹیمپ وارنٹ فیکٹریوں کے ذریعے ہر سامنے والے دروازے پر رنگ کیمز دستیاب ہوں۔

اگرچہ DAIR کا عملہ خط کے کچھ مقاصد سے اتفاق کرتا ہے، جیسے مصنوعی میڈیا کی شناخت کرنا، وہ اس بات پر زور دیتے ہیں کہ آج کے مسائل پر، ہمارے پاس دستیاب علاج کے ساتھ، ابھی ایکشن لینا چاہیے۔

ہمیں ضرورت ہے وہ ضابطہ جو شفافیت کو نافذ کرے۔ جب ہم مصنوعی میڈیا کا سامنا کر رہے ہوتے ہیں تو نہ صرف یہ ہمیشہ واضح ہونا چاہئے، بلکہ ان نظاموں کو بنانے والی تنظیموں کو تربیتی ڈیٹا اور ماڈل آرکیٹیکچرز کو دستاویز اور ظاہر کرنے کی بھی ضرورت ہے۔ ایسے ٹولز بنانے کی ذمہ داری جو استعمال کرنے کے لیے محفوظ ہوں ان کمپنیوں پر ہونی چاہیے جو جنریٹو سسٹم بناتی ہیں اور ان کو تعینات کرتی ہیں، جس کا مطلب یہ ہے کہ ان سسٹمز کے بنانے والوں کو ان کی مصنوعات سے پیدا ہونے والی پیداوار کے لیے جوابدہ بنایا جانا چاہیے۔

موجودہ دوڑ “AI تجربات” کے لیے پہلے سے طے شدہ راستہ نہیں ہے جہاں ہمارا واحد انتخاب یہ ہے کہ کتنی تیزی سے دوڑنا ہے، بلکہ منافع کے مقصد سے چلنے والے فیصلوں کا ایک مجموعہ ہے۔ کارپوریشنز کے اعمال اور انتخاب کو ضابطے کے ذریعے تشکیل دیا جانا چاہیے جو لوگوں کے حقوق اور مفادات کا تحفظ کرتا ہے۔

یہ واقعی کام کرنے کا وقت ہے: لیکن ہماری تشویش کا مرکز خیالی “طاقتور ڈیجیٹل ذہن” نہیں ہونا چاہئے۔ اس کے بجائے، ہمیں ان کمپنیوں کے انتہائی حقیقی اور انتہائی موجودہ استحصالی طریقوں پر توجہ مرکوز کرنی چاہیے جو ان کی تعمیر کا دعویٰ کر رہی ہیں، جو طاقت کو تیزی سے مرکزیت دے رہی ہیں اور سماجی عدم مساوات کو بڑھا رہی ہیں۔

اتفاق سے، یہ خط اس جذبات کی باز گشت کرتا ہے جو میں نے Uncharted Power کی بانی جیسیکا میتھیوز سے سیئٹل میں کل کے AfroTech ایونٹ میں سنا تھا: “آپ کو AI سے خوفزدہ نہیں ہونا چاہیے۔ تمہیں ان لوگوں سے ڈرنا چاہیے جو اسے بنا رہے ہیں۔” (اس کا حل: اس کی تعمیر کرنے والے لوگ بنیں۔)

اگرچہ اس بات کا امکان بہت کم ہے کہ کوئی بھی بڑی کمپنی کبھی بھی کھلے خط کے مطابق اپنی تحقیقی کوششوں کو روکنے پر راضی ہو جائے گی، لیکن اس سے ملنے والی مصروفیت سے یہ واضح ہے کہ AI کے خطرات — حقیقی اور فرضی — بہت سے حصوں میں بہت زیادہ تشویش کا باعث ہیں۔ معاشرہ لیکن اگر وہ ایسا نہیں کریں گے، تو شاید کسی کو ان کے لیے یہ کرنا پڑے گا۔



Source link
techcrunch.com

اپنا تبصرہ بھیجیں