blank

گیری مارکس امریکی حکومت کے لیے AI کو ریگولیٹ کرنے میں مدد کرنے پر خوش ہیں۔

اس ہفتے کے منگل کو، نیورو سائنٹسٹ، بانی اور مصنف گیری مارکس اوپن اے آئی کے سی ای او سیم آلٹ مین اور کرسٹینا مونٹگمری کے درمیان بیٹھے، جو آئی بی ایم کی چیف پرائیویسی ٹرسٹ آفیسر ہیں، جیسا کہ تینوں نے سینیٹ کی عدلیہ کمیٹی کے سامنے تین گھنٹے سے زیادہ گواہی دی۔ سینیٹرز کی زیادہ تر توجہ Altman پر تھی کیونکہ وہ اس وقت کرہ ارض کی سب سے طاقتور کمپنیوں میں سے ایک چلاتا ہے، اور اس لیے کہ Altman نے ان سے اپنے کام کو منظم کرنے میں مدد کے لیے بارہا کہا ہے۔ (زیادہ تر سی ای او کانگریس سے درخواست کرتے ہیں کہ وہ اپنی صنعت کو تنہا چھوڑ دیں۔)

اگرچہ مارکس کو کچھ عرصے سے علمی حلقوں میں جانا جاتا ہے، لیکن حال ہی میں ان کے نیوز لیٹر کی بدولت ان کا ستارہ عروج پر ہے۔اے آئی کا راستہ جس پر ہم بھروسہ کر سکتے ہیں۔“)، ایک پوڈ کاسٹ (“انسان بمقابلہ مشینیں“)، اور AI کے غیر چیک شدہ عروج کے ارد گرد اس کی متعلقہ بے چینی۔ اس ہفتے کی سماعت کے علاوہ، مثال کے طور پر، وہ اس ماہ بلومبرگ ٹیلی ویژن پر نمودار ہوئے ہیں اور نیویارک ٹائمز میں نمایاں ہوئے ہیں۔ سنڈے میگزین اور وائرڈ دیگر مقامات کے درمیان.

کیونکہ اس ہفتے کی سماعت ان طریقوں سے واقعی تاریخی لگ رہی تھی — سینیٹر جوش ہولی نے AI کو “انسانی تاریخ کی سب سے زیادہ تکنیکی اختراعات میں سے ایک” کے طور پر بیان کیا، جبکہ سینیٹر جان کینیڈی آلٹ مین سے اس قدر متاثر ہوئے کہ انہوں نے آلٹ مین سے اپنے ریگولیٹرز کو منتخب کرنے کو کہا — ہم چاہتے تھے۔ مارکس کے ساتھ بھی بات کریں، تجربے پر بات کرنے کے لیے اور دیکھیں کہ وہ کیا جانتا ہے کہ آگے کیا ہوتا ہے۔

کیا آپ اب بھی واشنگٹن میں ہیں؟

میں اب بھی واشنگٹن میں ہوں۔ میں قانون سازوں اور ان کے عملے اور مختلف دوسرے دلچسپ لوگوں سے ملاقات کر رہا ہوں اور یہ دیکھنے کی کوشش کر رہا ہوں کہ کیا ہم ان چیزوں کو حقیقت میں بدل سکتے ہیں جن کے بارے میں میں نے بات کی ہے۔

آپ نے NYU میں پڑھایا ہے۔ آپ نے AI کمپنیوں کے ایک جوڑے کی مشترکہ بنیاد رکھی ہے، بشمول ایک مشہور روبوٹسٹ روڈنی بروکس کے ساتھ۔ میں نے بروکس کا 2017 میں اسٹیج پر انٹرویو کیا تھا اور اس نے کہا تھا کہ تب اسے نہیں لگتا تھا کہ ایلون مسک واقعی اے آئی کو سمجھتے ہیں اور اس نے سوچا مسک غلط تھا۔ کہ AI ایک وجودی خطرہ تھا۔

مجھے لگتا ہے کہ راڈ اور میں اس بارے میں شکوک و شبہات کا اشتراک کرتے ہیں کہ آیا موجودہ AI مصنوعی جنرل انٹیلی جنس جیسا کچھ ہے۔ کئی مسائل ہیں جن کو آپ کو الگ کرنا ہے۔ ایک ہے: کیا ہم AGI کے قریب ہیں اور دوسرا یہ کہ ہمارے پاس موجودہ AI کتنا خطرناک ہے؟ مجھے نہیں لگتا کہ ہمارے پاس موجودہ AI ایک وجودی خطرہ ہے لیکن یہ خطرناک ہے۔ بہت سے طریقوں سے، میں سمجھتا ہوں کہ یہ جمہوریت کے لیے خطرہ ہے۔ یہ انسانیت کے لیے خطرہ نہیں ہے۔ یہ تمام انسانوں کو ختم کرنے والا نہیں ہے۔ لیکن یہ کافی سنگین خطرہ ہے۔

کچھ عرصہ پہلے آپ بحث کر رہے تھے۔ یان لیکون، میٹا کے چیف اے آئی سائنسدان۔ مجھے یقین نہیں ہے کہ کیا ہے۔ وہ فلیپ کے بارے میں تھا – گہری سیکھنے کے اعصابی نیٹ ورکس کی حقیقی اہمیت؟

لہذا LeCun اور میں نے حقیقت میں بہت سی چیزوں پر بحث کی ہے۔ کئی سال. ہمارے پاس ایک عوامی بحث تھی جسے ڈیوڈ چلمرز، فلسفی نے 2017 میں اعتدال پسند کیا۔ میں حاصل کرنے کی کوشش کر رہا ہوں۔ [LeCun] اس کے بعد سے ایک اور حقیقی بحث کرنا ہے اور وہ ایسا نہیں کرے گا۔ وہ مجھے ٹویٹر پر سب ٹویٹ کرنے کو ترجیح دیتا ہے اور اس طرح کی چیزیں، جو میرے خیال میں بات چیت کرنے کا سب سے بالغ طریقہ نہیں ہے، لیکن چونکہ وہ ایک اہم شخصیت ہیں، میں جواب دیتا ہوں۔

ایک چیز جس کے بارے میں میرے خیال میں ہم متفق نہیں ہیں۔ [currently] ہے، LeCun کے خیال میں ان کو استعمال کرنا ٹھیک ہے۔ [large language models] اور یہ کہ یہاں کوئی ممکنہ نقصان نہیں ہے۔ مجھے لگتا ہے کہ وہ اس کے بارے میں بہت غلط ہے۔ جمہوریت کے لیے ممکنہ خطرات ہیں، غلط معلومات سے لے کر جو جان بوجھ کر برے اداکاروں کی طرف سے پیدا کی جاتی ہیں، حادثاتی طور پر غلط معلومات سے لے کر – جیسے قانون کے پروفیسر پر جنسی طور پر ہراساں کرنے کا الزام لگایا گیا تھا حالانکہ اس نے ایسا نہیں کیا تھا۔ [to the ability to] تربیتی اعداد و شمار کی بنیاد پر لوگوں کے سیاسی عقائد کو باریک بینی سے تشکیل دیں جن کے بارے میں عوام کو کچھ معلوم بھی نہیں ہے۔ یہ سوشل میڈیا کی طرح ہے، لیکن اس سے بھی زیادہ کپٹی۔ آپ ان ٹولز کو دوسرے لوگوں کو جوڑ توڑ کرنے کے لیے بھی استعمال کر سکتے ہیں اور ممکنہ طور پر ان کو کسی بھی چیز میں پھنسانے کے لیے جو آپ چاہتے ہیں۔ آپ انہیں بڑے پیمانے پر پیمانہ کرسکتے ہیں۔ یہاں یقینی طور پر خطرات ہیں۔

آپ نے منگل کو سیم آلٹمین کے بارے میں کچھ دلچسپ بات کہی، سینیٹرز کو بتاتے ہوئے کہ اس نے انہیں یہ نہیں بتایا کہ ان کا سب سے برا خوف کیا ہے، جسے آپ نے “جرمنی” کہا، اور انہیں اس کی طرف بھیج دیا۔ اس نے ابھی تک جو کچھ نہیں کہا اس کا خود مختار ہتھیاروں سے کوئی تعلق ہے، جس کے بارے میں میں نے چند سال پہلے اس سے بات کی تھی۔ میں نے سوچا کہ یہ دلچسپ ہے کہ ہتھیار نہیں آئے۔

ہم نے زمین کا ایک گچھا ڈھانپ لیا، لیکن بہت ساری چیزیں ہیں جن تک ہم نہیں پہنچ سکے، بشمول نفاذ، جو واقعی اہم ہے، اور قومی سلامتی اور خود مختار ہتھیار اور اس جیسی چیزیں۔ کے کئی اور ہوں گے۔ [these].

کیا اوپن سورس بمقابلہ بند نظام کی کوئی بات ہوئی؟

یہ مشکل سے سامنے آیا۔ یہ ظاہر ہے کہ واقعی ایک پیچیدہ اور دلچسپ سوال ہے۔ یہ واقعی واضح نہیں ہے کہ صحیح جواب کیا ہے۔ آپ چاہتے ہیں کہ لوگ آزاد سائنس کریں۔ ہوسکتا ہے کہ آپ ان چیزوں کے ارد گرد کسی قسم کا لائسنس حاصل کرنا چاہتے ہیں جو بہت بڑے پیمانے پر تعینات ہونے جا رہی ہیں، لیکن ان میں خاص خطرات ہوتے ہیں، بشمول سیکیورٹی کے خطرات۔ یہ واضح نہیں ہے کہ ہم چاہتے ہیں کہ ہر برے اداکار کو من مانی طاقتور ٹولز تک رسائی حاصل ہو۔ لہذا اس کے لئے دلائل ہیں اور اس کے خلاف دلائل ہیں، اور شاید صحیح جواب میں اوپن سورس کی منصفانہ ڈگری کی اجازت دینا شامل ہے لیکن اس پر کچھ حدود بھی ہیں کہ کیا کیا جاسکتا ہے اور اسے کیسے تعینات کیا جاسکتا ہے۔

میٹا کی اپنی زبان کے ماڈل کی اجازت دینے کی حکمت عملی کے بارے میں کوئی خاص خیالات دنیا میں باہر لوگوں کے ساتھ ٹنکر کرنے کے لئے؟

مجھے نہیں لگتا کہ یہ بہت اچھا ہے۔ [Meta’s AI technology] LLaMA ایماندار ہونے کے لئے باہر ہے۔ مجھے لگتا ہے کہ یہ تھوڑا سا لاپرواہ تھا. اور، آپ جانتے ہیں، یہ لفظی طور پر ان جینز میں سے ایک ہے جو بوتل سے باہر ہے۔ وہاں کوئی قانونی ڈھانچہ نہیں تھا۔ انہوں نے کسی سے مشورہ نہیں کیا کہ وہ کیا کر رہے ہیں، جہاں تک مجھے نہیں معلوم۔ ہوسکتا ہے کہ انہوں نے کیا ہو، لیکن اس کے ساتھ فیصلہ کرنے کا عمل یا، بنگ کہہ لیں، بنیادی طور پر صرف ہے: ایک کمپنی فیصلہ کرتی ہے کہ ہم یہ کرنے جا رہے ہیں۔

لیکن کمپنیاں جن چیزوں کا فیصلہ کرتی ہیں ان میں سے کچھ نقصان پہنچا سکتی ہیں، چاہے مستقبل قریب میں ہو یا طویل مدتی میں۔ لہذا میرے خیال میں حکومتوں اور سائنس دانوں کو یہ فیصلہ کرنے میں تیزی سے کچھ کردار ادا کرنا چاہئے کہ وہاں کیا ہوتا ہے۔ [through a kind of] AI کے لیے FDA جہاں، اگر آپ وسیع پیمانے پر تعیناتی کرنا چاہتے ہیں، تو پہلے آپ ٹرائل کریں۔ آپ لاگت کے فوائد کے بارے میں بات کرتے ہیں۔ آپ ایک اور ٹرائل کریں۔ اور آخر کار، اگر ہمیں یقین ہے کہ فوائد خطرات سے کہیں زیادہ ہیں، [you do the] بڑے پیمانے پر رہائی. لیکن ابھی، کوئی بھی کمپنی کسی بھی وقت 100 ملین صارفین کو کچھ تعینات کرنے کا فیصلہ کر سکتی ہے اور اسے کسی بھی قسم کی سرکاری یا سائنسی نگرانی کے بغیر کر سکتی ہے۔ آپ کے پاس کوئی ایسا نظام ہونا چاہیے جہاں کچھ غیر جانبدار حکام اندر جا سکیں۔

یہ غیر جانبدار حکام کہاں سے آئیں گے؟ کیا ہر ایک جو اس بارے میں کچھ نہیں جانتا ہے کہ یہ چیزیں پہلے سے ہی کسی کمپنی کے لیے کیسے کام کرتی ہیں؟

میں نہیں. [Canadian computer scientist] یوشوا بینجیو نہیں ہے۔ بہت سارے سائنسدان ہیں جو ان کمپنیوں کے لیے کام نہیں کر رہے ہیں۔ یہ ایک حقیقی پریشانی ہے کہ ان آڈیٹرز کو کیسے حاصل کیا جائے اور انہیں ایسا کرنے کی ترغیب کیسے دی جائے۔ لیکن یہاں 100,000 کمپیوٹر سائنس دان ہیں جن میں مہارت کے کچھ پہلو ہیں۔ یہ سبھی گوگل یا مائیکروسافٹ کے لیے معاہدے پر کام نہیں کر رہے ہیں۔

کیا آپ اس AI ایجنسی میں کوئی کردار ادا کرنا چاہیں گے؟

میں دلچسپی رکھتا ہوں، مجھے لگتا ہے کہ ہم جو کچھ بھی بناتے ہیں وہ عالمی اور غیر جانبدار ہونا چاہیے، ممکنہ طور پر غیر منافع بخش، اور مجھے لگتا ہے کہ میرے پاس یہاں ایک اچھی، غیر جانبدار آواز ہے جسے میں شیئر کرنا چاہوں گا اور ہمیں ایک اچھی جگہ پر پہنچانے کی کوشش کروں گا۔

سینیٹ کی جوڈیشری کمیٹی کے سامنے بیٹھ کر کیسا محسوس ہوا؟ اور کیا آپ کو لگتا ہے کہ آپ کو واپس بلایا جائے گا؟

اگر مجھے واپس بلایا گیا تو میں حیران نہیں ہوں گا لیکن مجھے کوئی اندازہ نہیں ہے۔ میں واقعی اس سے بہت متاثر ہوا تھا اور میں واقعی اس کمرے میں رہنے کے لئے بہت متاثر ہوا تھا۔ مجھے لگتا ہے کہ یہ ٹیلی ویژن کے مقابلے میں تھوڑا سا چھوٹا ہے۔ لیکن ایسا محسوس ہوا کہ ہر کوئی امریکہ کے لیے – انسانیت کے لیے اپنی پوری کوشش کرنے کے لیے موجود ہے۔ ہر کوئی اس لمحے کے وزن کو جانتا تھا اور تمام اکاؤنٹس کے مطابق، سینیٹرز نے اپنا بہترین کھیل پیش کیا۔ ہم جانتے تھے کہ ہم وہاں ایک وجہ سے تھے اور ہم نے اسے اپنا بہترین شاٹ دیا۔





Source link
techcrunch.com

اپنا تبصرہ بھیجیں