[ad_1]
حیا، لوگو، TechCrunch کے باقاعدہ AI نیوز لیٹر میں خوش آمدید۔
گزشتہ اتوار کو صدر جو بائیڈن اعلان کیا کہ وہ ڈیموکریٹک پارٹی کے نامزد امیدوار بننے کے لیے وی پی کملا ہیرس کی “مکمل توثیق” کی پیشکش کرنے کے بجائے دوبارہ انتخاب لڑنے کا ارادہ نہیں رکھتے۔ اگلے دنوں میں، ہیرس نے ڈیموکریٹک مندوب کی اکثریت سے حمایت حاصل کی۔
ہیریس نے ٹیک اور اے آئی پالیسی پر بات کی ہے۔ کیا وہ صدارت جیت جائیں، اس کا امریکی AI ریگولیشن کا کیا مطلب ہوگا؟
میرے ساتھی انتھونی ہا نے ہفتے کے آخر میں اس پر کچھ الفاظ لکھے۔ ہیرس اور صدر بائیڈن پہلے کہا تھا کہ وہ “جھوٹے انتخاب کو مسترد کرتے ہیں جس سے پتہ چلتا ہے کہ ہم یا تو عوام کی حفاظت کر سکتے ہیں یا اختراع کو آگے بڑھا سکتے ہیں۔” اس وقت بائیڈن کے پاس تھا۔ ایک ایگزیکٹو آرڈر جاری کیا کمپنیوں سے AI کی ترقی کے ارد گرد نئے معیار قائم کرنے کا مطالبہ۔ ہیریس نے کہا کہ رضاکارانہ وعدے “ایک محفوظ AI مستقبل کی طرف ایک ابتدائی قدم تھے جس میں مزید کچھ ہونے والا ہے” کیونکہ “ضابطے اور مضبوط حکومتی نگرانی کی عدم موجودگی میں، کچھ ٹیکنالوجی کمپنیاں اپنے صارفین کی فلاح و بہبود پر منافع کو ترجیح دینے کا انتخاب کرتی ہیں۔ ہماری برادریوں کی حفاظت، اور ہماری جمہوریتوں کا استحکام۔”
میں نے AI پالیسی کے ماہرین سے ان کے خیالات جاننے کے لیے بھی بات کی۔ زیادہ تر حصے کے لیے، انھوں نے کہا کہ وہ حارث انتظامیہ کے ساتھ مستقل مزاجی کی توقع کریں گے، جیسا کہ موجودہ AI پالیسی اور عمومی ڈی ریگولیشن کو ختم کرنے کے خلاف ہے جسے ڈونلڈ ٹرمپ کے کیمپ نے چیمپیئن کیا ہے۔
مصنوعی ذہانت پر گلوبل پارٹنرشپ کے AI کنسلٹنٹ Lee Tiedrich نے TechCrunch کو بتایا کہ بائیڈن کی ہیریس کی توثیق امریکی AI پالیسی میں “تسلسل برقرار رکھنے کے امکانات کو بڑھا سکتی ہے”۔ “[This is] 2023 AI ایگزیکٹو آرڈر کے ذریعے تیار کیا گیا اور اقوام متحدہ، G7، کے ذریعے کثیرالجہتی کے ذریعہ بھی نشان زد او ای سی ڈی اور دیگر تنظیمیں، “انہوں نے کہا۔ “ایگزیکٹیو آرڈر اور متعلقہ اقدامات AI کی مزید حکومتی نگرانی کا بھی مطالبہ کرتے ہیں، بشمول نفاذ میں اضافہ، زیادہ سے زیادہ ایجنسی کے AI قوانین اور پالیسیاں، حفاظت پر توجہ اور کچھ بڑے AI سسٹمز کے لیے کچھ لازمی جانچ اور انکشافات۔”
AI میں خصوصی دلچسپی کے ساتھ کارنیل میں گورنمنٹ کی پروفیسر سارہ کریپس نے نوٹ کیا کہ ٹیک انڈسٹری کے کچھ حصوں میں یہ تاثر پایا جاتا ہے کہ بائیڈن انتظامیہ بہت زیادہ جارحانہ طریقے سے ضابطے کی طرف جھک گئی ہے اور یہ کہ AI ایگزیکٹو آرڈر “مائیکرو مینجمنٹ اوور کِل” تھا۔ وہ یہ توقع نہیں کرتی ہے کہ ہیریس بائیڈن کے تحت قائم کردہ کسی بھی AI حفاظتی پروٹوکول کو واپس لے لے گی، لیکن وہ حیران ہے کہ کیا ہیریس انتظامیہ ناقدین کو خوش کرنے کے لیے کم ٹاپ ڈاون ریگولیٹری طریقہ اختیار کر سکتی ہے۔
کرسٹل کاف مین، ڈسٹری بیوٹڈ اے آئی ریسرچ انسٹی ٹیوٹ کے ریسرچ فیلو، کریپس اور ٹائیڈریچ سے اتفاق کرتے ہیں کہ ہیرس غالباً AI کے استعمال سے منسلک خطرات سے نمٹنے کے لیے بائیڈن کے کام کو جاری رکھیں گے اور AI کے ارد گرد شفافیت کو بڑھانے کی کوشش کریں گے۔ تاہم، وہ امید کرتی ہیں کہ اگر ہیریس صدارتی انتخاب جیت لیتی ہیں، تو وہ پالیسی بنانے میں اسٹیک ہولڈر کا ایک وسیع جال ڈالے گی – ایک ایسا جال جو ڈیٹا ورکرز کو پکڑتا ہے جن کی حالت زار (ناقص تنخواہ، کام کے خراب حالات اور دماغی صحت کے چیلنجز) اکثر غیر تسلیم شدہ ہو جاتا ہے.
کاف مین نے کہا کہ “ہیرس کو ڈیٹا ورکرز کی آوازوں کو شامل کرنا چاہیے جو ان اہم بات چیت میں پروگرام AI کی مدد کرتے ہیں۔” “ہم پالیسی پر کام کرنے کے ایک ذریعہ کے طور پر ٹیک سی ای او کے ساتھ بند دروازے کی میٹنگوں کو دیکھنا جاری نہیں رکھ سکتے ہیں۔ اگر یہ جاری رہا تو یہ ہمیں بالکل غلط راستے پر لے جائے گا۔”
خبریں
میٹا نئے ماڈل جاری کرتا ہے۔: میٹا نے اس ہفتے Llama 3.1 405B کو جاری کیا، ایک متن پیدا کرنے والا اور تجزیہ کرنے والا ماڈل جس میں 405 بلین پیرامیٹرز ہیں۔ اس کا اب تک کا سب سے بڑا “اوپن” ماڈل، Llama 3.1 405B مختلف میٹا پلیٹ فارمز اور ایپس میں اپنا راستہ بنا رہا ہے، بشمول فیس بک، انسٹاگرام اور میسنجر پر میٹا اے آئی کا تجربہ۔
ایڈوب فائر فلائی کو تازہ کرتا ہے۔: ایڈوب نے منگل کو فوٹوشاپ اور السٹریٹر کے لیے فائر فلائی کے نئے ٹولز جاری کیے، جو گرافک ڈیزائنرز کو کمپنی کے اندرون ملک AI ماڈلز کو استعمال کرنے کے مزید طریقے پیش کرتے ہیں۔
اسکول میں چہرے کی شناخت: برطانیہ کے ڈیٹا پروٹیکشن ریگولیٹر کی طرف سے ایک انگلش اسکول کو باضابطہ طور پر سرزنش کی گئی ہے کیونکہ اس نے چہرے کی شناخت کرنے والی ٹیکنالوجی کا استعمال کیا تھا بغیر ان کے چہرے کے اسکین پر کارروائی کے لیے طلباء سے مخصوص آپٹ ان رضامندی حاصل کیے تھے۔
Cohere نصف ارب اٹھاتا ہے: Cohere، ایک تخلیقی AI سٹارٹ اپ جس کو گوگل کے سابق محققین نے مشترکہ طور پر قائم کیا ہے، نے Cisco اور AMD سمیت سرمایہ کاروں سے $500 ملین کی نئی رقم اکٹھی کی ہے۔ اپنے بہت سے تخلیقی AI اسٹارٹ اپ حریفوں کے برعکس، Cohere بڑے کاروباری اداروں کے لیے AI ماڈلز کو اپنی مرضی کے مطابق بناتا ہے – اس کی کامیابی کا ایک اہم عنصر۔
سی آئی اے اے آئی ڈائریکٹر کا انٹرویو: TechCrunch کے جاری حصے کے طور پر AI سیریز میں خواتینآپ نے سی آئی اے میں اے آئی کے ڈائریکٹر لکشمی رمن کا واقعی انٹرویو کیا۔ ہم نے ڈائریکٹر تک اس کے راستے کے ساتھ ساتھ CIA کے AI کے استعمال کے بارے میں بات کی، اور نئی ٹیک کو اپنانے اور اسے ذمہ داری کے ساتھ تعینات کرنے کے درمیان توازن قائم کرنے کی ضرورت ہے۔
ہفتہ کا تحقیقی مقالہ
کبھی ٹرانسفارمر کے بارے میں سنا ہے؟ یہ پیچیدہ استدلال کے کاموں، OpenAI کے GPT-4o، Anthropic’s Claude اور بہت سے دوسرے جیسے طاقتور ماڈلز کے لیے انتخاب کا AI ماڈل فن تعمیر ہے۔ لیکن، ٹرانسفارمر جتنے طاقتور ہیں، ان کی خامیاں ہیں۔ اور اس لیے محققین ممکنہ متبادلات کی چھان بین کر رہے ہیں۔
زیادہ امید افزا امیدواروں میں سے ایک ہے۔ ریاستی خلائی ماڈلز (SSM)، جو کہ کئی پرانے قسم کے AI ماڈلز کی خصوصیات کو یکجا کرتا ہے، جیسے کہ بار بار چلنے والے نیورل نیٹ ورکس اور convolutional neural نیٹ ورکس، تاکہ ایک زیادہ کمپیوٹیشنل طور پر موثر فن تعمیر بنایا جا سکے جو ڈیٹا کی طویل ترتیب (سوچیں ناولز اور فلموں) کو ہضم کرنے کے قابل ہو۔ اور ابھی تک SSMs کے سب سے مضبوط اوتاروں میں سے ایک، Mamba-2، تفصیل سے کاغذ اس ماہ تحقیقی سائنسدانوں ٹرائی ڈاؤ (پرنسٹن میں پروفیسر) اور البرٹ گو (کارنیگی میلن)۔
اپنے پیشرو Mamba کی طرح، Mamba-2 ٹرانسفارمر پر مبنی مساوی کے مقابلے میں ان پٹ ڈیٹا کے بڑے حصوں کو سنبھال سکتا ہے جبکہ مسابقتی، کارکردگی کے لحاظ سے، ٹرانسفارمر پر مبنی ماڈلز کے ساتھ مخصوص زبان کی نسل کے کاموں پر۔ ڈاؤ اور گو کا مطلب یہ ہے کہ، اگر SSMs کو بہتر کرنا جاری رکھا جائے، تو وہ کسی دن کموڈٹی ہارڈویئر پر چلیں گے – اور آج کے ٹرانسفارمرز سے زیادہ طاقتور جنریٹو AI ایپلی کیشنز فراہم کریں گے۔
ہفتے کا ماڈل
فن تعمیر سے متعلق ایک اور حالیہ ترقی میں، محققین کی ایک ٹیم نے ایک نئی قسم کا جنریٹو اے آئی ماڈل تیار کیا جس کا وہ دعویٰ کرتے ہیں کہ وہ دونوں مضبوط ترین ٹرانسفارمرز سے مماثل ہو سکتے ہیں — یا ہرا سکتے ہیں۔ اور کارکردگی کے لحاظ سے Mamba.
ٹیسٹ ٹائم ٹریننگ ماڈلز (ٹی ٹی ٹی ماڈلز) کہلاتے ہیں، محققین کے مطابق فن تعمیر لاکھوں ٹوکنز پر استدلال کر سکتا ہے، ممکنہ طور پر مستقبل میں اربوں ٹوکنز تک بہتر ڈیزائن بنائے جا سکتے ہیں۔ (جنریٹیو AI میں، “ٹوکنز” خام ٹیکسٹ کے بٹس اور دوسرے بائٹ سائز ڈیٹا پیسز ہوتے ہیں۔) چونکہ TTT ماڈل روایتی ماڈلز کے مقابلے میں بہت زیادہ ٹوکن لے سکتے ہیں اور ہارڈ ویئر کے وسائل کو ضرورت سے زیادہ دباؤ کے بغیر ایسا کرتے ہیں، وہ طاقت کے لیے موزوں ہیں ” محققین کا خیال ہے کہ اگلی نسل کی تخلیقی AI ایپس۔
TTT ماڈلز میں گہرائی میں غوطہ لگانے کے لیے، ہمارا چیک کریں۔ حالیہ خصوصیت.
بیگ پکڑو
استحکام AI، تخلیقی AI اسٹارٹ اپ جس میں سرمایہ کار، بشمول نیپسٹر کے شریک بانی شان پارکر، حال ہی میں جھپٹا مالی تباہی سے بچانے کے لیے، اس نے اپنی نئی مصنوعات کے استعمال کی محدود شرائط اور لائسنسنگ پالیسیوں پر کافی تنازعہ کھڑا کر دیا ہے۔
کچھ عرصہ پہلے تک، Stability AI کا تازہ ترین اوپن AI امیج ماڈل استعمال کرنے کے لیے، مستحکم بازی 3تجارتی طور پر، سالانہ $1 ملین سے کم آمدنی حاصل کرنے والی تنظیموں کو “تخلیق کار” لائسنس کے لیے سائن اپ کرنا پڑتا ہے جس نے ان تصاویر کی کل تعداد کو محدود کیا جو وہ ہر ماہ 6,000 تک بنا سکتے ہیں۔ بہت سے صارفین کے لیے بڑا مسئلہ، اگرچہ، Stability کی پابندی والی فائن ٹیوننگ کی شرائط تھی، جس نے Stability AI کو اسٹیبل ڈیفیوژن 3 کے ذریعے تیار کردہ امیجز پر تربیت یافتہ کسی بھی ماڈل کے لیے فیس نکالنے اور اس پر کنٹرول کرنے کا حق دیا تھا۔
اسٹیبلٹی AI کے بھاری ہاتھ کے نقطہ نظر نے CivitAI، جو امیج تیار کرنے والے ماڈلز کے سب سے بڑے میزبانوں میں سے ایک ہے، کو Stable Diffusion 3 کی تصاویر پر مبنی یا تربیت یافتہ ماڈلز پر عارضی پابندی عائد کرنے کی قیادت کی جب کہ اس نے نئے لائسنس پر قانونی مشورہ طلب کیا۔
“تشویش کی بات یہ ہے کہ ہماری موجودہ سمجھ کے مطابق، یہ لائسنس Stable AI کو نہ صرف Stable Diffusion 3 پر فائن ٹیونڈ ماڈلز کے استعمال پر بہت زیادہ طاقت دیتا ہے، بلکہ کسی بھی دوسرے ماڈل پر جس میں Stable Diffusion 3 امیجز شامل ہیں، ان کے ڈیٹا سیٹس میں، CivitAI نے ایک میں لکھا پوسٹ اس کے بلاگ پر
بلو بیک کے جواب میں، اسٹیبلٹی اے آئی نے اس ماہ کے اوائل میں کہا تھا کہ وہ زیادہ آزادانہ تجارتی استعمال کی اجازت دینے کے لیے اسٹیبل ڈفیوژن 3 کے لیے لائسنس کی شرائط کو ایڈجسٹ کرے گا۔ “جب تک آپ اسے غیر قانونی سرگرمیوں کے لیے استعمال نہیں کرتے ہیں، یا ہمارے لائسنس یا قابل قبول استعمال کی پالیسی کی واضح طور پر خلاف ورزی کرتے ہیں، استحکام AI آپ سے نتیجہ خیز تصاویر، فائن ٹیونز یا دیگر اخذ کردہ مصنوعات کو حذف کرنے کے لیے کبھی نہیں کہے گا – چاہے آپ کبھی ادائیگی نہ کریں۔ استحکام AI،” استحکام نے a میں واضح کیا۔ بلاگ.
کہانی ان قانونی خرابیوں پر روشنی ڈالتی ہے جو تخلیقی AI کو طاعون دیتے رہتے ہیں – اور متعلقہ طور پر، جس حد تک “کھلا” تشریح کے تابع رہتا ہے۔ مجھے ایک مایوسی پسند کہتے ہیں، لیکن بڑھتی ہوئی نمبر متنازعہ طور پر پابندی والے لائسنسوں سے مجھے پتہ چلتا ہے کہ AI انڈسٹری کسی بھی وقت جلد ہی اتفاق رائے پر نہیں پہنچ پائے گی – یا وضاحت کی طرف انچ نہیں۔
[ad_2]
Source link
techcrunch.com