[ad_1]
یو کے سیفٹی انسٹی ٹیوٹ، برطانیہ کا حال ہی میں قائم کردہ AI سیفٹی باڈی، نے ایک ٹول سیٹ جاری کیا ہے جو صنعت، تحقیقی تنظیموں اور تعلیمی اداروں کے لیے AI کی تشخیص کو آسان بنا کر “AI سیفٹی کو مضبوط بنانے” کے لیے ڈیزائن کیا گیا ہے۔
Inspect کہلاتا ہے، ٹول سیٹ — جو اوپن سورس لائسنس کے تحت دستیاب ہے، خاص طور پر ایک ایم آئی ٹی لائسنس – کا مقصد AI ماڈلز کی کچھ صلاحیتوں کا جائزہ لینا ہے، بشمول ماڈلز کی بنیادی معلومات اور استدلال کرنے کی صلاحیت، اور نتائج کی بنیاد پر ایک سکور بنانا۔
ایک پریس ریلیز میں اعلان جمعہ کو آنے والی خبر میں، سیفٹی انسٹی ٹیوٹ نے دعویٰ کیا کہ انسپیکٹ کے نشانات “پہلی بار ہے کہ اے آئی سیفٹی ٹیسٹنگ پلیٹ فارم جس کی سربراہی ایک ریاستی حمایت یافتہ ادارہ کر رہا ہے، وسیع استعمال کے لیے جاری کیا گیا ہے۔”
سیفٹی انسٹی ٹیوٹ کے چیئر ایان ہوگرتھ نے ایک بیان میں کہا، “اے آئی سیفٹی ٹیسٹنگ پر کامیاب تعاون کا مطلب ہے تشخیص کے لیے مشترکہ، قابل رسائی نقطہ نظر، اور ہم امید کرتے ہیں کہ معائنہ ایک عمارت کا حصہ بن سکتا ہے۔” “ہم امید کرتے ہیں کہ عالمی AI کمیونٹی Inspect کا استعمال کرتے ہوئے نہ صرف ان کے اپنے ماڈل کے حفاظتی ٹیسٹوں کو انجام دیتی ہے، بلکہ اوپن سورس پلیٹ فارم کو اپنانے اور اس کی تعمیر میں مدد کرنے کے لیے تاکہ ہم پورے بورڈ میں اعلیٰ معیار کی تشخیص کر سکیں۔”
جیسا کہ ہم پہلے لکھ چکے ہیں، AI بینچ مارکس سخت ہیں – جس میں سے کم از کم اس لیے نہیں کہ آج کل کے سب سے زیادہ نفیس اے آئی ماڈلز بلیک باکسز ہیں جن کا انفراسٹرکچر، تربیتی ڈیٹا اور دیگر اہم تفصیلات ان کو بنانے والی کمپنیاں لپیٹ میں رکھتی ہیں۔ تو معائنہ چیلنج سے کیسے نمٹتا ہے؟ بنیادی طور پر نئی ٹیسٹنگ تکنیکوں کے لیے قابل توسیع اور قابل توسیع ہونے سے۔
معائنہ تین بنیادی اجزاء پر مشتمل ہے: ڈیٹا سیٹ، حل کرنے والے اور اسکوررز۔ ڈیٹا سیٹ تشخیصی ٹیسٹ کے لیے نمونے فراہم کرتے ہیں۔ حل کرنے والے ٹیسٹ کرنے کا کام کرتے ہیں۔ اور اسکوررز حل کرنے والوں کے کام کا جائزہ لیتے ہیں اور ٹیسٹوں سے میٹرکس میں مجموعی اسکور کرتے ہیں۔
انسپیکٹ کے بلٹ ان اجزاء کو تھرڈ پارٹی پیکجز کے ذریعے بڑھایا جا سکتا ہے جو Python میں لکھے گئے ہیں۔
ایکس پر ایک پوسٹ میں، ڈیبورا راج، موزیلا کی ایک ریسرچ فیلو اور معروف AI اخلاقیات، نے معائنہ کو “AI احتساب کے لیے اوپن سورس ٹولنگ میں عوامی سرمایہ کاری کی طاقت کا ثبوت” کہا۔
AI سٹارٹ اپ Hugging Face کے سی ای او Clément Delangue نے Inspect کو Hugging Face کی ماڈل لائبریری کے ساتھ ضم کرنے یا ٹول سیٹ کے جائزوں کے نتائج کے ساتھ عوامی لیڈر بورڈ بنانے کا خیال پیش کیا۔
انسپیکٹ کی رہائی ریاست کی ایک سرکاری ایجنسی – نیشنل انسٹی ٹیوٹ آف اسٹینڈرڈز اینڈ ٹیکنالوجی (NIST) کے بعد ہوئی ہے۔ شروع کیا NIST GenAI، متن اور تصویر بنانے والی AI سمیت مختلف جنریٹیو AI ٹیکنالوجیز کا جائزہ لینے کا ایک پروگرام۔ NIST GenAI بینچ مارکس جاری کرنے، مواد کی صداقت کا پتہ لگانے کے نظام بنانے میں مدد کرنے اور AI سے تیار کردہ جعلی یا گمراہ کن معلومات کو تلاش کرنے کے لیے سافٹ ویئر کی ترقی کی حوصلہ افزائی کرنے کا ارادہ رکھتا ہے۔
اپریل میں، امریکہ اور برطانیہ نے مشترکہ طور پر جدید ترین AI ماڈل ٹیسٹنگ تیار کرنے کے لیے شراکت داری کا اعلان کیا، اس کے بعد برطانیہ کے اے آئی سیفٹی سمٹ گزشتہ سال نومبر میں بلیچلے پارک میں۔ تعاون کے حصے کے طور پر، امریکہ اپنا AI سیفٹی انسٹی ٹیوٹ شروع کرنے کا ارادہ رکھتا ہے، جس پر وسیع پیمانے پر AI اور جنریٹیو AI سے خطرات کا جائزہ لینے کا الزام عائد کیا جائے گا۔
[ad_2]
Source link
techcrunch.com