blank

طریقہ کار کا انصاف تخلیقی AI کے اعتماد/قانونیت کے مسئلے کو حل کر سکتا ہے۔

جنریٹو AI کی بہت زیادہ آمد نے اعتماد اور حفاظت کے بارے میں ایک جانی پہچانی بحث کو دوبارہ شروع کر دیا ہے: کیا معاشرے کے بہترین مفادات کو ذہن میں رکھنے کے لیے ٹیک ایگزیکٹوز پر بھروسہ کیا جا سکتا ہے؟

چونکہ اس کا تربیتی ڈیٹا انسانوں نے بنایا ہے، اس لیے AI فطری طور پر تعصب کا شکار ہے اور اس لیے دنیا کو دیکھنے کے ہمارے اپنے نامکمل، جذباتی طور پر چلنے والے طریقوں کے تابع ہے۔ ہم خطرات کو بخوبی جانتے ہیں، امتیازی سلوک اور نسلی عدم مساوات کو تقویت دینے سے لے کر پولرائزیشن کو فروغ دینے تک۔

OpenAI کے سی ای او سیم آلٹ مین کے پاس ہے۔ ہمارے “صبر اور نیک نیتی” کی درخواست کی جیسا کہ وہ “اسے درست کرنے” کے لیے کام کرتے ہیں۔

کئی دہائیوں سے، ہم نے صبر کے ساتھ اپنے عقیدے کو ٹیک ایگزیکٹس کے ساتھ اپنے خطرے میں رکھا ہے: انہوں نے اسے بنایا، اس لیے جب انہوں نے کہا کہ وہ اسے ٹھیک کر سکتے ہیں تو ہم نے ان پر یقین کیا۔ ٹیک کمپنیوں پر اعتماد مسلسل گر رہا ہے، اور 2023 ایڈل مین ٹرسٹ بیرومیٹر کے مطابق، عالمی سطح پر 65 فیصد پریشان ٹیک یہ جاننا ناممکن بنا دے گی کہ لوگ جو کچھ دیکھ رہے ہیں یا سن رہے ہیں وہ حقیقی ہے۔

اب وقت آگیا ہے کہ سیلیکون ویلی اپنا اعتماد حاصل کرنے کے لیے ایک مختلف انداز اپنائے — جو کہ ملک کے قانونی نظام میں موثر ثابت ہوا ہے۔

اعتماد اور قانونی حیثیت کے لیے ایک طریقہ کار انصاف کا طریقہ

سماجی نفسیات کی بنیاد پر، طریقہ کار کا انصاف تحقیق پر مبنی ہے جس سے ظاہر ہوتا ہے کہ لوگ یقین رکھتے ہیں کہ ادارے اور اداکار اس وقت زیادہ قابل اعتماد اور جائز ہوتے ہیں جب ان کی بات سنی جاتی ہے اور انہیں غیر جانبدارانہ، غیر جانبدارانہ اور شفاف فیصلہ سازی کا تجربہ ہوتا ہے۔

طریقہ کار انصاف کے چار اہم اجزاء ہیں:

  • غیر جانبداری: فیصلے غیرجانبدارانہ اور شفاف استدلال سے رہنمائی کرتے ہیں۔
  • احترام: سب کے ساتھ عزت اور وقار کے ساتھ سلوک کیا جاتا ہے۔
  • آواز: ہر ایک کو کہانی کا اپنا رخ بتانے کا موقع ملتا ہے۔
  • قابل اعتمادی: فیصلہ ساز اپنے فیصلوں سے متاثر ہونے والوں کے بارے میں قابل اعتماد محرکات بیان کرتے ہیں۔

اس فریم ورک کا استعمال کرتے ہوئے، پولیس نے اپنی برادریوں میں اعتماد اور تعاون کو بہتر بنایا ہے اور کچھ سوشل میڈیا کمپنیاں شروع کر رہی ہیں۔ ان خیالات کو حکمرانی اور اعتدال کی تشکیل کے لیے استعمال کریں۔ نقطہ نظر

یہاں چند آئیڈیاز ہیں کہ AI کمپنیاں کس طرح اس فریم ورک کو اعتماد اور جواز پیدا کرنے کے لیے ڈھال سکتی ہیں۔

صحیح سوالات کو حل کرنے کے لیے صحیح ٹیم بنائیں

جیسا کہ یو سی ایل اے پروفیسر صفیہ نوبل استدلال کرتے ہیں، الگورتھمک تعصب سے متعلق سوالات اکیلے انجینئرز کے ذریعے حل نہیں کیے جا سکتے، کیونکہ یہ نظامی سماجی مسائل ہیں جن کے لیے انسانی نقطہ نظر کی ضرورت ہوتی ہے — کسی ایک کمپنی سے باہر — سماجی گفتگو، اتفاق رائے اور بالآخر ضابطے کو یقینی بنانے کے لیے — خود اور حکومت دونوں۔

میں “سسٹم کی خرابی: کہاں بگ ٹیک غلط ہوئی اور ہم کیسے ریبوٹ کر سکتے ہیں،” اسٹینفورڈ کے تین پروفیسرز کمپیوٹر سائنس کی تربیت اور انجینئرنگ کلچر کی خامیوں پر تنقیدی طور پر اس کی اصلاح کے جنون کے لیے بحث کرتے ہیں، جو اکثر جمہوری معاشرے میں بنیادی اقدار کو ایک طرف دھکیل دیتے ہیں۔

ایک بلاگ پوسٹ میں، اوپن اے آئی کا کہنا ہے کہ یہ سماجی ان پٹ کو اہمیت دیتا ہے۔: “چونکہ AGI کا فائدہ بہت اچھا ہے، ہم نہیں مانتے کہ معاشرے کے لیے اس کی ترقی کو ہمیشہ کے لیے روکنا ممکن یا مطلوب ہے۔ اس کے بجائے، معاشرے اور AGI کے ڈویلپرز کو یہ معلوم کرنا ہوگا کہ اسے کیسے درست کیا جائے۔”

تاہم، کمپنی کی خدمات حاصل کرنے کے صفحے اور بانی سیم آلٹ مین کی ٹویٹس دکھائیں کہ کمپنی مشین لرننگ انجینئرز اور کمپیوٹر سائنسدانوں کی خدمات حاصل کر رہی ہے کیونکہ “ChatGPT کا ایک پرجوش روڈ میپ ہے اور اس میں انجینئرنگ کی رکاوٹ ہے۔”

کیا یہ کمپیوٹر سائنسدان اور انجینئر ایسے فیصلے کرنے کے لیے لیس ہیں، جیسا کہ OpenAI نے کہا ہے، “معاشرے میں عام طور پر نئی ٹیکنالوجیز پر لاگو ہونے سے کہیں زیادہ احتیاط کی ضرورت ہوگی۔“؟

ٹیک کمپنیوں کو ملٹی ڈسپلنری ٹیموں کی خدمات حاصل کرنی چاہئیں جن میں سماجی سائنسدان شامل ہوں جو ٹیکنالوجی کے انسانی اور سماجی اثرات کو سمجھتے ہوں۔ AI ایپلی کیشنز کو تربیت دینے اور حفاظتی پیرامیٹرز کو لاگو کرنے کے بارے میں مختلف نقطہ نظر کے ساتھ، کمپنیاں اپنے فیصلوں کے لیے شفاف استدلال بیان کر سکتی ہیں۔ یہ، بدلے میں، ٹیکنالوجی کے بارے میں عوام کے تاثر کو غیر جانبدار اور قابل اعتماد بنا سکتا ہے۔

بیرونی نقطہ نظر کو شامل کریں۔

طریقہ کار انصاف کا ایک اور عنصر لوگوں کو فیصلہ سازی کے عمل میں حصہ لینے کا موقع فراہم کرنا ہے۔ حال ہی میں بلاگ اس بارے میں کہ OpenAI تعصب سے کیسے نمٹ رہا ہے، کمپنی نے کہا کہ وہ “ہماری ٹکنالوجی پر بیرونی ان پٹ” کی تلاش میں ہے جو کہ ایک حالیہ ریڈ ٹیمنگ مشق کی طرف اشارہ کرتی ہے، جو ایک مخالفانہ نقطہ نظر کے ذریعے خطرے کا اندازہ لگانے کا عمل ہے۔

اگرچہ ریڈ ٹیمنگ خطرے کا اندازہ کرنے کے لیے ایک اہم عمل ہے، لیکن اس میں باہر کا ان پٹ شامل ہونا چاہیے۔ میں اوپن اے آئی کی ریڈ ٹیمنگ ایکسرسائز103 میں سے 82 شرکاء ملازمین تھے۔ بقیہ 23 شرکاء میں سے اکثریت مغربی یونیورسٹیوں کے کمپیوٹر سائنس اسکالرز کی تھی۔ متنوع نقطہ نظر حاصل کرنے کے لئے، کمپنیوں کو اپنے ملازمین، مضامین اور جغرافیہ سے باہر دیکھنے کی ضرورت ہے.

وہ صارفین کو AI کی کارکردگی پر زیادہ سے زیادہ کنٹرول فراہم کر کے AI پروڈکٹس میں براہ راست فیڈ بیک کو بھی فعال کر سکتے ہیں۔ وہ نئی پالیسی یا مصنوعات کی تبدیلیوں پر عوامی تبصرے کے مواقع فراہم کرنے پر بھی غور کر سکتے ہیں۔

شفافیت کو یقینی بنائیں

کمپنیوں کو اس بات کو یقینی بنانا چاہیے کہ تمام قواعد اور متعلقہ حفاظتی عمل شفاف ہیں اور فیصلے کیسے کیے گئے اس کے بارے میں قابل اعتماد محرکات بیان کریں۔ مثال کے طور پر، عوام کو معلومات فراہم کرنا ضروری ہے کہ ایپلی کیشنز کو کس طرح تربیت دی جاتی ہے، ڈیٹا کہاں سے حاصل کیا جاتا ہے، تربیت کے عمل میں انسانوں کا کیا کردار ہوتا ہے اور غلط استعمال کو کم کرنے کے لیے حفاظتی پرتیں موجود ہیں۔

محققین کو AI ماڈلز کو آڈٹ کرنے اور سمجھنے کی اجازت دینا اعتماد پیدا کرنے کی کلید ہے۔

آلٹ مین نے اسے حال ہی میں ٹھیک سمجھا اے بی سی نیوز انٹرویو میں جب اس نے کہا، “میرے خیال میں معاشرے کے پاس یہ جاننے کے لیے محدود وقت ہے کہ اس پر کیا ردعمل ظاہر کیا جائے، اسے کیسے منظم کیا جائے، اسے کیسے ہینڈل کیا جائے۔”

ٹکنالوجی کے پیشروؤں کے نقطہ نظر کی دھندلاپن اور اندھے یقین کے بجائے ایک طریقہ کار کے انصاف کے نقطہ نظر کے ذریعے، AI پلیٹ فارمز بنانے والی کمپنیاں معاشرے کو اس عمل میں شامل کر سکتی ہیں اور – مطالبہ نہیں – اعتماد اور قانونی حیثیت حاصل کر سکتی ہیں۔





Source link
techcrunch.com

اپنا تبصرہ بھیجیں