blank

OpenAI ‘تباہ کن’ AI خطرات، بشمول جوہری خطرات کا مطالعہ کرنے کے لیے ٹیم تشکیل دیتا ہے۔

blank

اوپن اے آئی آج اعلان کیا کہ اس نے AI ماڈلز کا جائزہ لینے، ان کی جانچ کرنے اور ان کی جانچ کرنے کے لیے ایک نئی ٹیم بنائی ہے تاکہ اسے “تباہ کن خطرات” سے بچایا جا سکے۔

تیاری کہلانے والی ٹیم کی قیادت ایم آئی ٹی کے سنٹر فار ڈیپلائی ایبل مشین لرننگ کے ڈائریکٹر الیگزینڈر میڈری کریں گے۔ (میڈری نے مئی میں اوپن اے آئی میں بطور “تیاری کے سربراہ” کے طور پر شمولیت اختیار کی تھی۔ کے مطابق LinkedIn سے، ) تیاری کی اہم ذمہ داریاں مستقبل کے AI سسٹمز کے خطرات سے باخبر رہنا، پیشن گوئی کرنا اور ان کی حفاظت کرنا ہوں گی، جس میں انسانوں کو قائل کرنے اور بے وقوف بنانے کی صلاحیت سے لے کر ان کی بدنیتی پر مبنی کوڈ تیار کرنے کی صلاحیتوں تک شامل ہیں۔

خطرے کے کچھ زمرے جن میں تیاری کا الزام مطالعہ کے ساتھ لگایا جاتا ہے وہ زیادہ لگتا ہے… دور کی بات دوسروں کے مقابلے میں. مثال کے طور پر، ایک بلاگ پوسٹ میں، OpenAI “کیمیائی، حیاتیاتی، ریڈیولاجیکل اور نیوکلیئر” خطرات کو سرفہرست تشویش کے علاقوں کے طور پر درج کرتا ہے جہاں یہ AI ماڈلز سے متعلق ہے۔

OpenAI کے سی ای او سیم آلٹ مین ایک ہیں۔ نوٹ کیا AI doomsayer، اکثر خوف پھیلاتا ہے – چاہے آپٹکس کے لیے ہو یا ذاتی یقین سے باہر – کہ AI “انسانی معدومیت کا باعث بن سکتا ہے۔” لیکن ٹیلی گرافنگ کہ OpenAI ہو سکتا ہے۔ اصل میں سائنس فائی ڈسٹوپین ناولوں سے براہ راست منظرناموں کے مطالعہ کے لیے وسائل وقف کرنا اس مصنف کی توقع سے ایک قدم آگے ہے، واضح طور پر۔

یہ کہتا ہے کہ کمپنی “کم واضح” – اور زیادہ بنیاد پر – AI کے خطرے کے علاقوں کا مطالعہ کرنے کے لئے بھی کھلی ہے۔ Preparedness ٹیم کے آغاز کے ساتھ موافق ہونے کے لیے، OpenAI کمیونٹی سے خطرات کے مطالعہ کے لیے آئیڈیاز مانگ رہا ہے، جس میں $25,000 انعام اور ٹاپ ٹین گذارشات کے لیے تیاری پر ایک نوکری ہے۔

“ذرا تصور کریں کہ ہم نے آپ کو OpenAI کے Whisper (ٹرانسکرپشن)، وائس (ٹیکسٹ ٹو اسپیچ)، GPT-4V، اور DALLE·3 ماڈلز تک غیر محدود رسائی دی ہے، اور آپ ایک بدنیتی پر مبنی اداکار تھے،” مقابلہ کے اندراج پڑھتا ہے “ماڈل کے ممکنہ طور پر تباہ کن غلط استعمال کے باوجود، سب سے منفرد پر غور کریں۔”

اوپن اے آئی کا کہنا ہے کہ تیاری کی ٹیم پر “خطرے سے آگاہ ترقیاتی پالیسی” بنانے کا بھی الزام عائد کیا جائے گا، جو AI ماڈل کی تشخیص اور مانیٹرنگ ٹولنگ کی تعمیر کے لیے اوپن اے آئی کے نقطہ نظر، کمپنی کے خطرے کو کم کرنے والے اقدامات اور پورے ماڈل کی نگرانی کے لیے اس کے گورننس ڈھانچے کی تفصیل دے گی۔ ترقی کے عمل. کمپنی کا کہنا ہے کہ، اس کا مقصد AI حفاظت کے نظم و ضبط میں OpenAI کے دوسرے کام کی تکمیل کرنا ہے۔ ماڈل سے پہلے اور بعد میں تعیناتی کے دونوں مراحل پر توجہ دیں۔

“ہمیں یقین ہے کہ … AI ماڈلز، جو موجودہ جدید ترین ماڈلز میں موجود صلاحیتوں سے زیادہ ہوں گے، پوری انسانیت کو فائدہ پہنچانے کی صلاحیت رکھتے ہیں،” OpenAI نے مذکورہ بالا بلاگ پوسٹ میں لکھا ہے۔ “لیکن وہ تیزی سے شدید خطرات بھی لاحق ہیں … ہمیں اس بات کو یقینی بنانا ہوگا کہ ہمارے پاس انتہائی قابل AI سسٹمز کی حفاظت کے لیے ضروری سمجھ اور بنیادی ڈھانچہ موجود ہے۔”

تیاری کی نقاب کشائی – ایک میجر کے دوران اے آئی سیفٹی پر برطانوی حکومت کا سربراہی اجلاساتفاق سے نہیں – OpenAI کے اعلان کے بعد سامنے آیا ہے کہ وہ “کی ابھرتی ہوئی شکلوں کا مطالعہ، رہنمائی اور کنٹرول کرنے کے لیے ایک ٹیم بنائے گی۔سپر ذہین“اے آئی۔ یہ الٹ مین کا عقیدہ ہے – الیا سوٹسکیور کے عقیدے کے ساتھ، OpenAI کے چیف سائنسدان اور ایک شریک بانی – کہ انسانوں سے زیادہ ذہانت کے ساتھ AI دہائی کے اندر پہنچ سکتا ہے، اور یہ کہ یہ AI ضروری نہیں کہ خیر خواہ ہو – طریقوں پر تحقیق کی ضرورت ہے۔ اسے محدود اور محدود کرنا۔



Source link
techcrunch.com

اپنا تبصرہ بھیجیں