OpenAI نے وعدہ کیا ہے کہ وہ US AI سیفٹی انسٹی ٹیوٹ کو اپنے اگلے ماڈل تک جلد رسائی فراہم کرے گا۔

[ad_1]

OpenAI کے سی ای او سیم آلٹمین کا کہنا ہے کہ OpenAI US AI سیفٹی انسٹی ٹیوٹ کے ساتھ مل کر کام کر رہا ہے، ایک وفاقی حکومت کا ادارہ جس کا مقصد AI پلیٹ فارمز میں خطرات کا جائزہ لینا اور ان سے نمٹنے کے لیے، حفاظتی جانچ کے لیے اپنے اگلے بڑے جنریٹو AI ماڈل تک جلد رسائی فراہم کرنے کے معاہدے پر ہے۔

دی اعلان، جو Altman نے جمعرات کی شام دیر گئے X پر ایک پوسٹ میں کیا تھا، تفصیلات پر روشنی تھی۔ لیکن یہ – ایک کے ساتھ اسی طرح کا سودا جون میں برطانیہ کے AI سیفٹی باڈی کے ساتھ مارا گیا – ایسا لگتا ہے کہ اس بیانیہ کا مقابلہ کرنا ہے کہ OpenAI نے زیادہ قابل، طاقتور جنریٹیو AI ٹیکنالوجیز کے حصول میں AI سیفٹی پر کام کو ترجیح دی ہے۔

مئی میں، OpenAI نے “سپر ذہانت” AI سسٹم کو بدمعاش ہونے سے روکنے کے لیے کنٹرولز کی ترقی کے مسئلے پر کام کرنے والے یونٹ کو مؤثر طریقے سے ختم کر دیا۔ رپورٹنگ – ہمارے سمیت – تجویز کیا کہ اوپن اے آئی نے ٹیم کی حفاظتی تحقیق کو نئی مصنوعات شروع کرنے کے حق میں ایک طرف رکھ دیا، جس سے بالآخر استعفی ٹیم کے دو شریک لیڈز میں سے، جان لیک (جو اب AI سٹارٹ اپ Anthropic میں حفاظتی تحقیق کی قیادت کر رہے ہیں) اور OpenAI کے شریک بانی Ilya Sutskever (جنہوں نے اپنی حفاظت پر مبنی AI کمپنی شروع کی، سیف سپر انٹیلی جنس انکارپوریشن.)

ناقدین کے بڑھتے ہوئے کورس کے جواب میں، OpenAI نے کہا کہ وہ اسے ختم کر دے گا۔ غیر تحقیر کی پابندی والی شقیں جس نے واضح طور پر سیٹی بجانے کی حوصلہ شکنی کی اور ایک سیفٹی کمیشن بنایا اور ساتھ ہی اس کے 20% کمپیوٹ کو حفاظتی تحقیق کے لیے وقف کیا۔ (منتخب شدہ حفاظتی ٹیم کو اس کے کام کے لیے OpenAI کے حساب سے 20% دینے کا وعدہ کیا گیا تھا، لیکن آخر کار اسے کبھی نہیں ملا۔) Altman نے 20% وعدے کے لیے دوبارہ عہد کیا اور دوبارہ تصدیق کی کہ OpenAI نے نئے اور موجودہ عملے کے لیے عدم تضحیک کی شرائط کو کالعدم قرار دیا ہے۔ مئی میں۔

اس اقدام نے کچھ مبصرین کو راضی کرنے میں بہت کم کام کیا، تاہم – خاص طور پر جب OpenAI نے سیفٹی کمیشن کو مکمل طور پر کمپنی کے اندرونی افراد بشمول آلٹ مین اور حال ہی میں، دوبارہ تفویض دوسرے org کے لئے ایک اعلی AI سیفٹی ایگزیکٹو۔

ہوائی سے تعلق رکھنے والے ڈیموکریٹ برائن شیٹز سمیت پانچ سینیٹرز، سوالات اٹھائے اوپن اے آئی کی پالیسیوں کے بارے میں ایک حالیہ خط میں جو آلٹ مین کو لکھے گئے تھے۔ اوپن اے آئی کے چیف اسٹریٹیجی آفیسر جیسن کوون جواب دیا آج خط میں لکھا ہے کہ OpenAI “[is] ہمارے عمل کے ہر مرحلے پر سخت حفاظتی پروٹوکول کو نافذ کرنے کے لیے وقف ہے۔

یو ایس اے آئی سیفٹی انسٹی ٹیوٹ کے ساتھ اوپن اے آئی کے معاہدے کا وقت کمپنی کی روشنی میں تھوڑا سا مشتبہ لگتا ہے۔ توثیق فیوچر آف انوویشن ایکٹ کے اس ہفتے کے شروع میں، سینیٹ کا ایک مجوزہ بل جو سیفٹی انسٹی ٹیوٹ کو ایک ایگزیکٹو باڈی کے طور پر اختیار کرے گا جو AI ماڈلز کے لیے معیارات اور رہنما اصول طے کرتا ہے۔ ایک ساتھ اقدامات کو ریگولیٹری کیپچر کی کوشش کے طور پر سمجھا جا سکتا ہے – یا کم از کم وفاقی سطح پر AI پالیسی سازی پر OpenAI کے اثر و رسوخ کے طور پر۔

کچھ بھی نہیں، آلٹ مین امریکی محکمہ ہوم لینڈ سیکیورٹی کے مصنوعی ذہانت کے تحفظ اور حفاظتی بورڈ میں شامل ہیں، جو پورے امریکہ کے اہم بنیادی ڈھانچے میں AI کی “محفوظ اور محفوظ ترقی اور تعیناتی” کے لیے سفارشات فراہم کرتا ہے۔ اور OpenAI نے ڈرامائی انداز میں کیا ہے۔ اضافہ ہوا اس سال وفاقی لابنگ پر اس کے اخراجات، 2024 کے پہلے چھ مہینوں میں $800,000 خرچ ہوئے بمقابلہ تمام 2023 میں $260,000۔

یو ایس اے آئی سیفٹی انسٹی ٹیوٹ، جو کامرس ڈیپارٹمنٹ کے نیشنل انسٹی ٹیوٹ آف اسٹینڈرڈز اینڈ ٹیکنالوجی کے اندر واقع ہے، کمپنیوں کے کنسورشیم سے مشورہ کرتا ہے جس میں اینتھروپک کے ساتھ ساتھ گوگل، مائیکروسافٹ، میٹا، ایپل، ایمیزون اور این ویڈیا جیسی بڑی ٹیک فرمیں شامل ہیں۔ انڈسٹری گروپ کو صدر جو بائیڈن کے بیان کردہ اقدامات پر کام کرنے کا کام سونپا گیا ہے۔ اکتوبر AI ایگزیکٹو آرڈرجس میں AI ریڈ ٹیمنگ، صلاحیت کی تشخیص، رسک مینجمنٹ، سیفٹی اور سیکیورٹی اور واٹر مارکنگ مصنوعی مواد کے لیے رہنما خطوط تیار کرنا شامل ہیں۔

[ad_2]

Source link
techcrunch.com

اپنا تبصرہ بھیجیں