blank

فرانسیسی اسٹارٹ اپ FlexAI AI کمپیوٹ تک رسائی کو آسان بنانے کے لیے $30M کے ساتھ اسٹیلتھ سے باہر نکلا۔

ایک فرانسیسی آغاز AI ایپلی کیشنز کو زیادہ موثر طریقے سے بنانے اور تربیت دینے کے خواہشمند ڈویلپرز کے لیے “ری آرکیٹیکٹ کمپیوٹ انفراسٹرکچر” کے لیے بیج کی بھاری سرمایہ کاری کی گئی ہے۔

FlexAIجیسا کہ کمپنی کہلاتی ہے، اکتوبر 2023 سے اسٹیلتھ میں کام کر رہی ہے، لیکن پیرس میں مقیم کمپنی بدھ کو باضابطہ طور پر €28.5 ملین ($30 ملین) کی فنڈنگ ​​کے ساتھ لانچ کر رہی ہے، جبکہ اپنی پہلی پروڈکٹ کو چھیڑ رہی ہے: ایک آن ڈیمانڈ کلاؤڈ سروس اے آئی کی تربیت۔

یہ سیڈ راؤنڈ کے لیے ایک چھوٹی سی تبدیلی ہے، جس کا عام طور پر مطلب ہوتا ہے حقیقی بانی نسب – اور یہی معاملہ یہاں ہے۔ FlexAI کے شریک بانی اور CEO برجیش ترپاٹھی اس سے پہلے GPU وشال میں سینئر ڈیزائن انجینئر تھا اور اب اے آئی ڈارلنگ Nvidia، Apple میں مختلف سینئر انجینئرنگ اور آرکیٹیکٹنگ کے کرداروں میں اترنے سے پہلے؛ ٹیسلا (براہ راست ایلون مسک کے تحت کام کرنا)؛ زوکس (پہلے ایمیزون نے حاصل کیا۔ خود مختار ڈرائیونگ اسٹارٹ اپ) اور، حال ہی میں، ترپاٹھی انٹیل کے اے آئی اور سپر کمپیوٹ پلیٹ فارم آف شوٹ، AXG کے VP تھے۔

FlexAI کے شریک بانی اور CTO ڈالی کلیانی ایک متاثر کن CV بھی ہے، جو Nvidia اور Zynga سمیت کمپنیوں میں مختلف تکنیکی کرداروں میں خدمات انجام دے رہا ہے، جبکہ حال ہی میں CTO کا کردار ادا کر رہا ہے۔ فرانسیسی اسٹارٹ اپ لائفنجو کہ صحت کی دیکھ بھال کی صنعت کے لیے ڈیجیٹل انفراسٹرکچر تیار کرتا ہے۔

سیڈ راؤنڈ کی قیادت الفا انٹیلی جنس کیپٹل (AIC)، ایلیا پارٹنرز اور ہارٹ کور کیپٹل نے کی، جس میں فرسٹ کیپٹل، موٹیر وینچرز، پارٹیک اور انسٹا ڈیپ کے سی ای او کریم بیگویر نے شرکت کی۔

پیرس میں FlexAI ٹیم

پیرس میں FlexAI ٹیم

کمپیوٹ کا معمہ

یہ سمجھنے کے لیے کہ ترپاٹھی اور کیلانی FlexAI کے ساتھ کیا کوشش کر رہے ہیں، یہ سب سے پہلے یہ سمجھنے کے قابل ہے کہ “کمپیوٹ” تک رسائی کے معاملے میں ڈویلپرز اور AI پریکٹیشنرز کس کے خلاف ہیں۔ اس سے مراد پروسیسنگ پاور، انفراسٹرکچر اور کمپیوٹیشنل کاموں کو انجام دینے کے لیے درکار وسائل جیسے کہ ڈیٹا کی پروسیسنگ، الگورتھم چلانا، اور مشین لرننگ ماڈلز کو انجام دینا۔

AI اسپیس میں کسی بھی انفراسٹرکچر کا استعمال پیچیدہ ہے۔ یہ بیہوش دل کے لیے نہیں ہے، اور یہ ناتجربہ کار لوگوں کے لیے نہیں ہے،” ترپاٹھی نے ٹیک کرنچ کو بتایا۔ “اس کے استعمال سے پہلے آپ کو بنیادی ڈھانچے کی تعمیر کے بارے میں بہت زیادہ جاننے کی ضرورت ہے۔”

اس کے برعکس، عوامی کلاؤڈ ایکو سسٹم جس نے ان پچھلی دو دہائیوں میں ارتقاء کیا ہے اس کی ایک عمدہ مثال کے طور پر کام کرتا ہے کہ کس طرح ایک صنعت ڈویلپرز کی ایپلی کیشنز بنانے کی ضرورت سے ابھر کر سامنے آئی ہے، بغیر کسی فکر کے۔

“اگر آپ ایک چھوٹے ڈویلپر ہیں اور ایک ایپلیکیشن لکھنا چاہتے ہیں، تو آپ کو یہ جاننے کی ضرورت نہیں ہے کہ یہ کہاں چلائی جا رہی ہے، یا اس کا پچھلا حصہ کیا ہے – آپ کو صرف ایک EC2 (ایمیزون لچکدار کمپیوٹ کلاؤڈمثال کے طور پر اور آپ کا کام ہو گیا،” ترپاٹھی نے کہا۔ “آپ آج AI کمپیوٹ کے ساتھ ایسا نہیں کر سکتے۔”

AI دائرہ کار میں، ڈویلپرز کو یہ معلوم کرنا چاہیے کہ کتنے GPUs (گرافکس پروسیسنگ یونٹس) کو کس قسم کے نیٹ ورک سے آپس میں جڑنے کی ضرورت ہے، جس کا انتظام سافٹ ویئر ایکو سسٹم کے ذریعے کیا جاتا ہے جسے ترتیب دینے کے لیے وہ مکمل طور پر ذمہ دار ہیں۔ اگر کوئی GPU یا نیٹ ورک ناکام ہو جاتا ہے، یا اگر اس سلسلہ میں کوئی چیز خراب ہو جاتی ہے، تو اسے ترتیب دینے کی ذمہ داری ڈویلپر پر ہے۔

ترپاٹھی نے کہا، “ہم AI کمپیوٹ کے بنیادی ڈھانچے کو سادگی کی اسی سطح پر لانا چاہتے ہیں جو عام مقصد کے کلاؤڈ کو حاصل ہوا ہے – 20 سال کے بعد، ہاں، لیکن کوئی وجہ نہیں ہے کہ AI کمپیوٹ ایک جیسے فوائد کو نہیں دیکھ سکتا،” ترپاٹھی نے کہا۔ “ہم اس مقام پر پہنچنا چاہتے ہیں جہاں AI کام کے بوجھ کو چلانے کے لیے آپ کو ڈیٹا سینٹر کے ماہرین بننے کی ضرورت نہیں ہے۔”

مٹھی بھر بیٹا صارفین کے ساتھ اس کی مصنوعات کی موجودہ تکرار کے ساتھ، FlexAI اس سال کے آخر میں اپنی پہلی تجارتی پروڈکٹ لانچ کرے گا۔ یہ بنیادی طور پر ایک کلاؤڈ سروس ہے جو ڈویلپرز کو “ورچوئل ہیٹروجنیئس کمپیوٹ” سے جوڑتی ہے، یعنی وہ اپنے کام کا بوجھ چلا سکتے ہیں اور AI ماڈلز کو ایک سے زیادہ فن تعمیرات میں تعینات کر سکتے ہیں، GPUs کو ڈالر فی گھنٹہ کی بنیاد پر کرایہ پر لینے کے بجائے استعمال کی بنیاد پر ادائیگی کر سکتے ہیں۔

GPUs AI کی ترقی میں اہم cogs ہیں، مثال کے طور پر، بڑے لینگویج ماڈلز (LLMs) کو تربیت دینے اور چلانے کے لیے کام کرتے ہیں۔ Nvidia GPU اسپیس کے نمایاں کھلاڑیوں میں سے ایک ہے، اور AI انقلاب کے اہم فائدہ اٹھانے والوں میں سے ایک ہے۔ اوپن اے آئی اور چیٹ جی پی ٹی. OpenAI کے بعد سے 12 مہینوں میں مارچ 2023 میں ChatGPT کے لیے ایک API شروع کیا۔، ڈویلپرز کو ChatGPT فعالیت کو ان کی اپنی ایپس میں بیک کرنے کی اجازت دیتے ہوئے، Nvidia کے حصص تقریباً $500 بلین سے بڑھ گئے 2 ٹریلین ڈالر سے زیادہ.

ایل ایل ایم ٹیکنالوجی کی صنعت سے باہر نکل رہے ہیں۔، GPUs کی مانگ آسمان کو چھو رہی ہے۔ لیکن GPUs کو چلانا مہنگا ہے، اور چھوٹی ملازمتوں یا ایڈہاک استعمال کے معاملات کے لیے کلاؤڈ فراہم کنندہ سے کرایہ پر لینا ہمیشہ معنی نہیں رکھتا اور یہ ممنوعہ طور پر مہنگا ہو سکتا ہے۔ یہ کیوں ہے AWS چھوٹے AI پراجیکٹس کے لیے محدود وقت کے کرائے پر کام کر رہا ہے۔. لیکن کرایہ ابھی بھی کرایہ پر ہے، یہی وجہ ہے کہ FlexAI بنیادی پیچیدگیوں کو دور کرنا چاہتا ہے اور صارفین کو ضرورت کے مطابق AI کمپیوٹ تک رسائی دینا چاہتا ہے۔

“اے آئی کے لیے ملٹی کلاؤڈ”

FlexAI کا نقطہ آغاز یہ ہے کہ زیادہ تر ڈویلپر ایسا نہیں کرتے ہیں۔ واقعی زیادہ تر حصہ کا خیال رکھیں جن کے GPUs یا چپس وہ استعمال کرتے ہیں، چاہے وہ Nvidia، AMD، Intel، Graphcore یا Cerebras ہو۔ ان کی بنیادی تشویش اپنی AI کو تیار کرنا اور اپنی بجٹ کی رکاوٹوں کے اندر ایپلی کیشنز تیار کرنا ہے۔

یہ وہ جگہ ہے جہاں FlexAI کا “یونیورسل AI کمپیوٹ” کا تصور آتا ہے، جہاں FlexAI صارف کی ضروریات کو پورا کرتا ہے اور اسے مختلف پلیٹ فارمز پر تمام ضروری تبادلوں کا خیال رکھتے ہوئے، اس مخصوص کام کے لیے جو بھی فن تعمیر سمجھ میں آتا ہے اسے مختص کرتا ہے۔ انٹیل کا گاڈی انفراسٹرکچر، AMD کا Rocm یا Nvidia کا CUDA.

“اس کا مطلب یہ ہے کہ ڈویلپر صرف ماڈل بنانے، تربیت دینے اور استعمال کرنے پر مرکوز ہے،” ترپاٹھی نے کہا۔ “ہم نیچے کی ہر چیز کا خیال رکھتے ہیں۔ ناکامیاں، بازیابی، وشوسنییتا، سبھی ہمارے زیر انتظام ہیں، اور آپ جو استعمال کرتے ہیں اس کی ادائیگی آپ کرتے ہیں۔”

بہت سے طریقوں سے، FlexAI AI کے لیے تیزی سے ٹریک کرنے کے لیے نکل رہا ہے جو کلاؤڈ میں پہلے سے ہو رہا ہے، جس کا مطلب تنخواہ فی استعمال کے ماڈل کو نقل کرنے سے زیادہ ہے: اس کا مطلب ہے مختلف فوائد پر ٹیک لگا کر “ملٹی کلاؤڈ” جانے کی صلاحیت مختلف GPU اور چپ انفراسٹرکچر کا۔

مثال کے طور پر، FlexAI کسٹمر کے مخصوص کام کے بوجھ کو اس بات پر منحصر کرے گا کہ ان کی ترجیحات کیا ہیں۔ اگر کسی کمپنی کے پاس اپنے AI ماڈلز کو تربیت دینے اور ٹھیک کرنے کے لیے محدود بجٹ ہے، تو وہ FlexAI پلیٹ فارم کے اندر اپنے پیسے کے لیے کمپیوٹ بینگ کی زیادہ سے زیادہ رقم حاصل کرنے کے لیے اسے سیٹ کر سکتی ہے۔ اس کا مطلب یہ ہو سکتا ہے کہ سستے (لیکن سست) کمپیوٹ کے لیے انٹیل سے گزرنا ہو، لیکن اگر کسی ڈویلپر کے پاس ایک چھوٹی دوڑ ہے جس کے لیے تیز ترین آؤٹ پٹ کی ضرورت ہوتی ہے، تو اس کی بجائے اسے Nvidia کے ذریعے منتقل کیا جا سکتا ہے۔

ہڈ کے تحت، FlexAI بنیادی طور پر ایک “مطالبہ کا جمع کرنے والا” ہے، جو روایتی ذرائع سے ہارڈ ویئر کو کرائے پر دیتا ہے اور Intel اور AMD کے لوگوں کے ساتھ اپنے “مضبوط کنکشن” کا استعمال کرتے ہوئے، ترجیحی قیمتوں کو محفوظ کرتا ہے جو یہ اپنے کسٹمر بیس میں پھیل جاتی ہے۔ لازمی طور پر اس کا مطلب یہ نہیں ہے کہ کنگپین Nvidia کو سائیڈ اسٹیپ کرنا، لیکن اس کا ممکنہ طور پر یہ مطلب ہے کہ بڑی حد تک۔ انٹیل اور اے ایم ڈی جی پی یو سکریپ کے لیے لڑ رہے ہیں۔ Nvidia کے تناظر میں رہ گیا — FlexAI جیسے ایگریگیٹرز کے ساتھ گیند کھیلنے کے لیے ان کے لیے ایک بہت بڑی ترغیب ہے۔

“اگر میں اسے گاہکوں کے لیے کارآمد بنا سکتا ہوں اور سینکڑوں صارفین کو ان کے بنیادی ڈھانچے پر لا سکتا ہوں، تو وہ [Intel and AMD] بہت خوش ہوں گے،” ترپاٹھی نے کہا۔

یہ خلا میں اسی طرح کے GPU کلاؤڈ پلیئرز کے برعکس بیٹھتا ہے۔ جیسے اچھی طرح سے فنڈڈ کور ویو اور لیمبڈا لیبز، جو Nvidia ہارڈ ویئر پر پوری طرح مرکوز ہیں۔

“میں AI کمپیوٹ کو اس مقام تک پہنچانا چاہتا ہوں جہاں موجودہ عمومی مقصد کلاؤڈ کمپیوٹنگ ہے،” ترپاٹھی نے نوٹ کیا۔ “آپ AI پر ملٹی کلاؤڈ نہیں کر سکتے۔ آپ کو مخصوص ہارڈویئر، GPUs کی تعداد، انفراسٹرکچر، کنیکٹوٹی، اور پھر اسے خود ہی برقرار رکھنا ہوگا۔ آج، حقیقت میں AI کمپیوٹ حاصل کرنے کا یہی واحد طریقہ ہے۔

یہ پوچھے جانے پر کہ لانچ کے صحیح شراکت دار کون ہیں، ترپاٹھی نے کہا کہ وہ ان میں سے کچھ کی طرف سے “رسمی وعدوں” کی کمی کی وجہ سے ان سب کے نام بتانے سے قاصر ہیں۔

“انٹیل ایک مضبوط پارٹنر ہے، وہ یقینی طور پر انفراسٹرکچر فراہم کر رہا ہے، اور AMD ایک پارٹنر ہے جو انفراسٹرکچر فراہم کر رہا ہے،” انہوں نے کہا۔ “لیکن شراکت کی ایک دوسری پرت ہے جو Nvidia اور کچھ دوسری سلیکون کمپنیوں کے ساتھ ہو رہی ہے جسے ہم ابھی تک اشتراک کرنے کے لیے تیار نہیں ہیں، لیکن وہ سب مکس اور MOU ​​میں ہیں۔ [memorandums of understanding] ابھی دستخط ہو رہے ہیں۔”

ایلون اثر

ترپاٹھی دنیا کی سب سے بڑی ٹیک کمپنیوں میں کام کرنے کے بعد آنے والے چیلنجوں سے نمٹنے کے لیے زیادہ لیس ہیں۔

“میں GPUs کے بارے میں کافی جانتا ہوں؛ میں GPUs بناتا تھا،” ترپاٹھی نے Nvidia میں اپنے سات سالہ دور کے بارے میں کہا، جو 2007 میں ختم ہوا جب اس نے ایپل کے لیے جہاز کو چھلانگ لگا دی جیسا کہ یہ تھا۔ پہلا آئی فون لانچ کرنا. “ایپل میں، میں حقیقی کسٹمر کے مسائل کو حل کرنے پر مرکوز ہو گیا۔ میں وہاں تھا جب ایپل نے اپنی پہلی SoCs بنانا شروع کیں۔ [system on chips] فونز کے لیے۔”

ترپاٹھی نے 2016 سے 2018 تک ٹیسلا میں ہارڈویئر انجینئرنگ لیڈ کے طور پر دو سال بھی گزارے، جہاں اس نے اپنے اوپر والے دو لوگوں کے اچانک کمپنی چھوڑنے کے بعد اپنے آخری چھ ماہ تک براہ راست ایلون مسک کے تحت کام کیا۔

“ٹیسلا میں، جو چیز میں نے سیکھی ہے اور میں اپنے آغاز میں لے رہا ہوں وہ یہ ہے کہ سائنس اور فزکس کے علاوہ کوئی رکاوٹ نہیں ہے،” انہوں نے کہا۔ “آج چیزیں جس طرح کی جاتی ہیں وہ نہیں ہے کہ اسے کیسے ہونا چاہئے یا کرنے کی ضرورت ہے۔ آپ کو اس کے بعد جانا چاہئے جو صحیح کام پہلے اصولوں سے ہے، اور ایسا کرنے کے لئے، ہر بلیک باکس کو ہٹا دیں.

ترپاٹھی شامل تھے۔ ٹیسلا کی اپنی چپس بنانے میں تبدیلی، ایک ایسا اقدام جو اس کے بعد سے ہے۔ جی ایم کی طرف سے نقل اور ہنڈائی، دوسرے کار سازوں کے درمیان۔

“میں نے ٹیسلا میں جو سب سے پہلے کام کیا ان میں سے ایک یہ معلوم کرنا تھا کہ ایک کار میں کتنے مائیکرو کنٹرولرز ہیں، اور ایسا کرنے کے لیے، ہمیں لفظی طور پر ان بڑے بلیک باکسز کو ترتیب دینا پڑا جس میں دھاتی شیلڈنگ اور اس کے ارد گرد کیسنگ تھے۔ وہاں واقعی چھوٹے چھوٹے مائیکرو کنٹرولرز تلاش کریں،” ترپاٹھی نے کہا۔ “اور ہم نے اسے ایک میز پر رکھ کر ختم کیا، اسے باہر رکھا اور کہا، ‘ایلون، ایک کار میں 50 مائیکرو کنٹرولرز ہیں۔ اور ہم بعض اوقات ان پر 1,000 گنا مارجن ادا کرتے ہیں کیونکہ وہ بڑے دھاتی سانچے میں ڈھال اور محفوظ ہوتے ہیں۔’ اور وہ ایسا ہی ہے، ‘چلو اپنا بنائیں۔’ اور ہم نے ایسا کیا۔”

GPUs بطور ضمانت

مستقبل کو مزید دیکھتے ہوئے، FlexAI ڈیٹا سینٹرز سمیت اپنا بنیادی ڈھانچہ بنانے کی خواہش رکھتا ہے۔ ترپاٹھی نے کہا کہ اس کی مالی اعانت قرض کی مالی اعانت سے کی جائے گی، ایک حالیہ رجحان کی بنیاد پر جس نے خلا میں حریفوں کو دیکھا ہے۔ CoreWeave سمیت اور لیمبڈا لیبز Nvidia چپس استعمال کرتی ہیں۔ قرضوں کو محفوظ کرنے کے لیے ضمانت کے طور پر – زیادہ ایکویٹی دینے کے بجائے۔

ترپاٹھی نے کہا، “بینکر اب جانتے ہیں کہ GPUs کا استعمال کیسے کرنا ہے۔” “کیوں ایکویٹی چھوڑ دیں؟ جب تک ہم ایک حقیقی کمپیوٹ فراہم کنندہ نہیں بن جاتے، ہماری کمپنی کی قیمت ہمیں ڈیٹا سینٹرز کی تعمیر میں سرمایہ کاری کے لیے درکار کروڑوں ڈالر حاصل کرنے کے لیے کافی نہیں ہے۔ اگر ہم صرف ایکویٹی کرتے ہیں تو جب پیسہ ختم ہوجاتا ہے تو ہم غائب ہوجاتے ہیں۔ لیکن اگر ہم واقعی اسے GPUs پر ضمانت کے طور پر بینک کرتے ہیں، تو وہ GPUs کو لے جا سکتے ہیں اور اسے کسی دوسرے ڈیٹا سینٹر میں رکھ سکتے ہیں۔”



Source link
techcrunch.com

اپنا تبصرہ بھیجیں