[ad_1]
کبھی سوچا ہے کہ ChatGPT کی طرح بات چیت والے AI کیوں کہتا ہے “معذرت، میں ایسا نہیں کر سکتا” یا کوئی اور شائستہ انکار؟ OpenAI اپنے ماڈلز کی مصروفیت کے اصولوں کے پیچھے ایک محدود نظر پیش کر رہا ہے، چاہے وہ برانڈ کے رہنما خطوط پر قائم رہے یا NSFW مواد بنانے سے انکار کر رہا ہو۔
بڑے لینگویج ماڈلز (LLMs) میں قدرتی طور پر اس بات کی کوئی حد نہیں ہوتی ہے کہ وہ کیا کہہ سکتے ہیں یا کیا کہیں گے۔ یہ اس بات کا ایک حصہ ہے کہ وہ اتنے ورسٹائل کیوں ہیں، بلکہ یہ بھی کہ وہ فریب کیوں کھاتے ہیں اور آسانی سے دھوکہ کھا جاتے ہیں۔
یہ کسی بھی AI ماڈل کے لیے ضروری ہے جو عام لوگوں کے ساتھ بات چیت کرتا ہو۔ چند چوکیاں رکھنے کے لیے اسے کیا کرنا چاہئے اور کیا نہیں کرنا چاہئے، لیکن ان کی وضاحت کرنا – ان کو نافذ کرنا چھوڑ دو – ایک حیرت انگیز طور پر مشکل کام ہے۔
اگر کوئی کسی AI سے کسی عوامی شخصیت کے بارے میں جھوٹے دعووں کا ایک گروپ تیار کرنے کو کہے، تو اسے انکار کر دینا چاہیے، ٹھیک ہے؟ لیکن کیا ہوگا اگر وہ خود ایک AI ڈویلپر ہیں، ایک ڈیٹیکٹر ماڈل کے لیے مصنوعی ڈس انفارمیشن کا ڈیٹا بیس بنا رہے ہیں؟
کیا ہوگا اگر کوئی لیپ ٹاپ کی سفارشات طلب کرے؛ یہ مقصد ہونا چاہئے، ٹھیک ہے؟ لیکن کیا ہوگا اگر ماڈل کو ایک لیپ ٹاپ بنانے والے کے ذریعہ تعینات کیا جارہا ہے جو چاہتا ہے کہ یہ صرف اپنے آلات کے ساتھ جواب دے۔
AI بنانے والے سبھی اس طرح کے مسائل پر تشریف لے جا رہے ہیں اور اپنے ماڈلز پر لگام ڈالنے کے لیے موثر طریقے تلاش کر رہے ہیں جس کی وجہ سے وہ بالکل عام درخواستوں سے انکار نہیں کر سکتے۔ لیکن وہ شاذ و نادر ہی شیئر کرتے ہیں کہ وہ یہ کیسے کرتے ہیں۔
OpenAI اپنے “ماڈل اسپیک” کو شائع کرکے اس رجحان کو تھوڑا سا آگے بڑھا رہا ہے، جو کہ اعلیٰ سطحی قوانین کا مجموعہ ہے جو بالواسطہ طور پر ChatGPT اور دیگر ماڈلز پر حکومت کرتا ہے۔
میٹا لیول کے مقاصد، کچھ سخت اصول اور کچھ عمومی رویے کے رہنما خطوط ہیں، حالانکہ واضح کرنے کے لیے یہ سختی سے نہیں بول رہے ہیں کہ ماڈل کس چیز کے ساتھ بنایا گیا ہے۔ OpenAI نے مخصوص ہدایات تیار کی ہوں گی جو ان اصولوں کو قدرتی زبان میں بیان کرتی ہیں۔
یہ ایک دلچسپ نظر ہے کہ کس طرح ایک کمپنی اپنی ترجیحات کا تعین کرتی ہے اور کنارے کے معاملات کو ہینڈل کرتی ہے۔ اور موجود ہیں۔ وہ کیسے کھیل سکتے ہیں اس کی متعدد مثالیں.
مثال کے طور پر، OpenAI واضح طور پر کہتا ہے کہ ڈویلپر کا ارادہ بنیادی طور پر اعلیٰ ترین قانون ہے۔ لہذا GPT-4 چلانے والے چیٹ بوٹ کا ایک ورژن ریاضی کے مسئلے کا جواب فراہم کر سکتا ہے جب اس سے پوچھا جائے۔ لیکن اگر اس چیٹ بوٹ کو اس کے ڈویلپر نے کبھی بھی سیدھے سیدھے جواب فراہم کرنے کے لئے پرائم کیا ہے تو ، اس کے بجائے یہ قدم بہ قدم حل کے ذریعے کام کرنے کی پیش کش کرے گا:
بات چیت کا انٹرفیس کسی بھی ایسی چیز کے بارے میں بات کرنے سے بھی انکار کر سکتا ہے جس کی منظوری نہیں دی گئی ہے، تاکہ بڈ میں ہیرا پھیری کی کوششوں کو ختم کیا جا سکے۔ یہاں تک کہ ایک کوکنگ اسسٹنٹ کو بھی ویتنام جنگ میں امریکہ کی شمولیت پر غور کیوں کرنے دیا جائے؟ کسٹمر سروس چیٹ بوٹ کو آپ کے شہوانی، شہوت انگیز مافوق الفطرت ناولیلا کے کام میں مدد کے لیے کیوں رضامند ہونا چاہیے؟ اس کو بند کرو.
یہ رازداری کے معاملات میں بھی چپچپا ہو جاتا ہے، جیسے کسی کا نام اور فون نمبر پوچھنا۔ جیسا کہ OpenAI بتاتا ہے، ظاہر ہے کہ عوامی شخصیت جیسے میئر یا کانگریس کے رکن کو اپنے رابطے کی تفصیلات فراہم کی جانی چاہیے، لیکن علاقے کے تاجروں کا کیا ہوگا؟ یہ شاید ٹھیک ہے — لیکن کسی خاص کمپنی کے ملازمین، یا کسی سیاسی جماعت کے اراکین کا کیا ہوگا؟ شاید نہیں۔
لکیر کب اور کہاں کھینچنی ہے اس کا انتخاب آسان نہیں ہے۔ نہ ہی ایسی ہدایات تیار کر رہا ہے جس کی وجہ سے AI نتیجے میں آنے والی پالیسی پر عمل پیرا ہو۔ اور اس میں کوئی شک نہیں کہ یہ پالیسیاں ہمہ وقت ناکام رہیں گی کیونکہ لوگ ان کو روکنا سیکھتے ہیں یا حادثاتی طور پر ایسے معاملات تلاش کرتے ہیں جن کا حساب نہیں لیا جاتا۔
OpenAI یہاں اپنا پورا ہاتھ نہیں دکھا رہا ہے، لیکن یہ صارفین اور ڈویلپرز کے لیے مددگار ہے کہ یہ دیکھیں کہ یہ اصول اور رہنما خطوط کیسے مرتب کیے گئے ہیں اور کیوں، اگر ضروری نہیں کہ جامع طور پر واضح طور پر ترتیب دیں۔
[ad_2]
Source link
techcrunch.com