معرفی AI Exchange
— yasin
آینده فناوری به سرعت در حال توسعه چه خواهد بود ؟
پیشرفتهای فناوری همیشه یه سری سوالات رو به وجود میاره، مثل : این فناوریها چه فایدهای دارن، چه هزینههایی دارن، چه خطرهایی دارن و از لحاظ اخلاقی چطورین. واسه همینم لازمه که افرادی که پشت این فناوریها هستن، جوابهای درست و حسابی بدن.
حالا بعد از ۱۸ ماه، مشخص شده که هوش مصنوعی بیشتر از هر زمینه دیگهای باعث ایجاد سوالات و نگرانیها شده. کلی آدم، از دانشمندان و توسعهدهندههای نرمافزار گرفته تا سیاستگذارا و تنظیمکنندهها، دارن تلاش میکنن به این سوالات جواب بدن.
برای همین قراره مصاحبههای عمیقی با آدمهایی که تو خط مقدم طراحی و محافظت از این فناوری در حال رشد سریع هستن، انجام بشه تا بررسی کنن که قدرت هوش مصنوعی چطور میتونه روی زندگی ما تاثیر بذاره.
اگر هوش مصنوعی بتواند جایگزین نیروی کار شود ، چیز خوبی است ؟
آرویند کریشنا، مدیر اجرایی IBM، و ریچارد واترز، سردبیر ساحل غربی:
ریچارد واترز: وقتی با کسبوکارها و مدیرای عامل صحبت میکنید و اونا میپرسن «با این هوش مصنوعی چیکار کنیم؟» بهشون چی میگین؟
آروین کریشنا: من همیشه اول به دو سه تا حوزه اشاره میکنم. یکیشون هر چیزی که به خدمات مشتری مربوط میشه، یعنی جواب دادن به سوالای مردم. این حوزه واقعاً مهمیه و به نظرم میتونیم جوابهای بهتری بدیم که شاید تا نصف هزینههای فعلی رو کم کنه. با گذشت زمان، شاید حتی کمتر از نصف هم بشه، ولی میشه خیلی سریع حدود نصف هزینهها رو کاهش داد.
مورد دوم مربوط به فرآیندهای داخلیه. مثلاً هر شرکتی، کوچیک یا بزرگ، همیشه دغدغههایی مثل ارتقا دادن کارمندها، استخدام یا جابجایی اونا رو داره و این فرآیندها باید نسبتاً منصفانه باشن. ولی ۹۰ درصد کارهای مربوط به این موارد فقط جمعآوری اطلاعاته. فکر میکنم هوش مصنوعی میتونه این کار رو انجام بده و در نهایت یه آدم تصمیم نهایی رو بگیره. تو هر سازمانی صدها فرآیند مشابه این هست، پس به نظرم کارای دفتری و اداری با این روش میتونن جایگزین بشن.
بعدش به کارای نظارتی فکر میکنم، حالا چه تو بخش مالی باشه با حسابرسی و چه تو بخش بهداشت و درمان. یه بخش بزرگی از این کارا میتونه با این تکنیکها خودکار بشه. بعدش یه سری کاربردای دیگه هم هست، ولی اونها احتمالا سختترن و یه کم دورتر... مثل کشف داروهای جدید یا تکمیل تحقیقات شیمی
آروین کریشنا، مدیرعامل IBM: اگه به بیشتر کاربردهایی که گفتم فکر کنید، همهشون واسه این هستن که بهرهوری یه شرکت رو بالا ببرن.
ما واقعاً تو دنیای واقعی کمبود نیروی کار داریم و این بخاطر مسئله جمعیتی هست که دنیا باهاش روبرو شده. پس باید تکنولوژیهایی داشته باشیم که کمک کنن. الان نرخ بیکاری تو آمریکا به ۳.۴ درصد رسیده، که تو ۶۰ سال گذشته اینقدر پایین نبوده. شاید بتونیم ابزارهایی پیدا کنیم که بخشی از نیروی کار رو جایگزین کنن، و این بار این یه اتفاق خوبه.
ریچارد واترز: فکر میکنید قراره برنده و بازنده داشته باشیم؟ اگه آره، چه چیزی برندهها رو از بازندهها جدا میکنه؟
آروین کریشنا: دو تا زمینه هست. یکی کار با مشتریهای عادی... و یکی هم شرکتهایی که قراره از این تکنولوژیها استفاده کنن. اگه به بیشتر کاربردهایی که اشاره کردم فکر کنید، همشون واسه اینه که بهرهوری شرکتها رو ببرن بالا. وقتی بهرهوری بیشتر بشه، این شرکتها پول بیشتری برای سرمایهگذاری دارن تا محصولاشون رو قویتر کنن. این سرمایهگذاری میتونه تو تحقیق و توسعه باشه، تو بازاریابی بهتر، فروش بیشتر، یا حتی خرید و اضافه کردن چیزای جدید. کلی جا هست که این پول اضافی رو میتونن خرج کنن.
تهدید هوش مصنوعی برای وجود انسان «مزخرف» است و توجه را از خطرات واقعی منحرف میکند.
آیدان گومز، یکی از بنیانگذاران Cohere، و جورج هاموند، خبرنگار سرمایه گذاری خطرپذیر:
جورج هموند: الان تو نقطه حساس بحثهای مربوط به مقرراتگذاری در زمینه هوش مصنوعی هستیم. برام جالبه نظر شما رو بدونم که آیا مثل ایلان ماسک و بقیه، معتقدید که باید برای شش ماه همه چیز رو متوقف کنیم و سعی کنیم اوضاع رو تحت کنترل در بیاریم؟
آیدان گومز: به نظرم اون نامه برای توقف ششماهه کاملاً مسخرهست. واقعاً یه چیز بیمنطقه. چطوری میخوای یه توقف ششماهه رو عملی کنی؟ کی قراره متوقف بشه؟ چطوری میخوای اجراش کنی؟ چطوری میخوای هماهنگی جهانی براش ایجاد کنی؟ اصلاً منطقی نیست. این اولین مشکلشه.
مشکل دوم خود فرضیهست: تو اون نامه کلی حرف زده شده که یه هوش مصنوعی فوقهوشمند (AGI) قراره بیاد و نسل ما رو منقرض کنه؛ همه انسانها رو از بین ببره. به نظرم این یه روایت خیلی خطرناکه و واقعاً غیرمسئولانهست.
این واقعاً بیفکرانه و آسیبزاست و از ترسهای عموم مردم سوءاستفاده میکنه. چون ما تو این نیمقرن اخیر کلی فیلم علمی-تخیلی ساختیم که نشون میده هوش مصنوعی چطوری ممکنه خراب کنه؛ رباتهای شبیه به «ترمیناتور» و اینجور ترسها. پس داریم از ترس مردم بهرهبرداری میکنیم.
ایدن گومز، همبنیانگذار Cohere: بحث کردن در مورد اینکه نسل ما قراره به خاطر تسلط یه هوش مصنوعی فوقهوشمند منقرض بشه، یه اتلاف وقت مسخرهست.
جورج هموند: آیا اصلاً دلیلی برای این ترس وجود داره؟ وقتی درباره توسعه هوش مصنوعی عمومی (AGI) و احتمال رسیدن به اون لحظه خاص یا «تکینگی» صحبت میکنیم، آیا از نظر فنی همچین چیزی ممکنه، حتی اگه احتمال کمی داشته باشه؟
آیدان گومز: به نظرم احتمال این اتفاق فوقالعاده کمه. این تکنولوژی خطرات واقعی خودش رو داره. دلایلی هست که از این تکنولوژی و نحوه استفاده و کسایی که ازش استفاده میکنن بترسیم. ولی اینکه همش وقتمون رو صرف بحث کنیم که آیا نسل ما به خاطر تسلط یه هوش مصنوعی فوقهوشمند منقرض میشه، واقعاً یه اتلاف وقت مسخره و اشغال ذهن عموم مردمه.
الان میتونیم شبکههای اجتماعی رو پر از حسابهایی کنیم که واقعاً از یه انسان قابل تشخیص نیستن؛ یعنی یه مزرعه ربات خیلی بزرگ میتونه یه روایت خاص رو منتشر کنه. برای این باید راهکارهایی داشته باشیم. یکی از این راهها تایید هویت انسانیه ، یعنی بتونیم بفهمیم کدوم حسابها واقعاً به یه آدم زنده وصلن تا بتونیم فیدها رو طوری فیلتر کنیم که فقط آدمهای واقعی تو مکالمات باشن.
یه سری خطرات بزرگ دیگه هم هست. نباید بیگدار یه ربات رو برای ارائه مشاوره پزشکی کامل و بدون نظارت دکتر راه بندازیم. این کار اصلاً نباید اتفاق بیفته.
به نظرم خطرات واقعی وجود دارن و جا برای مقرراتگذاری هم هست. من ضد مقررات نیستم، در واقع خیلی هم طرفدارشم. ولی واقعاً امیدوارم مردم بدونن که یه سری داستانای تخیلی درباره ریسکها پایه و اساس ندارن. اینا حواسپرتیهایی هستن که جلوی بحثهای اصلی رو میگیرن.
یه مدل هوش مصنوعی مولد که همه چیز رو تحت کنترل خودش بگیره وجود نخواهد داشت.
آدام سلیپسکی، رئیس سابق خدمات وب آمازون و ریچارد واترز، سردبیر ساحل غربی
ریچارد واترز: میشه درباره کار خودتون روی هوش مصنوعی مولد و مدلهای زبانی بزرگ برامون بگید؟ چند وقته دارین روش کار میکنید؟
آدام سلیپاسکی: ما شاید تازه سه قدم اول یه مسابقه ۱۰ کیلومتری رو برداشتیم، و سوال نباید این باشه که «کدوم دونده سه قدم جلوتره؟» بلکه باید بپرسیم «مسیر مسابقه چطوریه؟ قوانینش چی هستن؟ و اصلاً هدفمون تو این مسابقه چیه و میخوایم به کجا برسیم؟
اگه من و تو سال ۱۹۹۶ نشسته بودیم و یکی از ما میپرسید «قراره کدوم شرکت بشه شرکت اینترنتی؟»، این سوال خیلی مسخره به نظر میاومد. ولی الان هم همون رو میشنویم. «برنده این حوزه [هوش مصنوعی] کی قراره باشه؟
هوش مصنوعی مولد قراره یه سری تکنولوژی پایهای برای سالها، شاید حتی دهههای آینده باشه. و کسی نمیدونه که آیا تکنولوژیهای برنده اصلاً تا حالا اختراع شدن یا شرکتهای برنده هنوز شکل گرفتن یا نه.
پس چیزی که مشتریها نیاز دارن، انتخابه. باید بتونن آزمایش کنن. قرار نیست یه مدل باشه که همه رو تحت کنترل بگیره؛ این یه فکر خندهداره.
شرکتها متوجه میشن که برای این کار، یه مدل بهتره و برای یه کار دیگه، یه مدل دیگه بهتر جواب میده، داشتن این انتخاب خیلی اهمیت داره.
آدام سلیپسکی، مدیر سابق Amazon Web Services: هوش مصنوعی مولد قراره سالها، شاید حتی دههها، یه سری تکنولوژی پایهای باشه. و هیچکس نمیدونه که آیا تکنولوژیهای برنده اصلاً تا حالا اختراع شدن یا نه.
مفهوم دومی که تو این لایه میانی خیلی مهمه، امنیت و حریم شخصیه. خیلی از تلاشهای اولیهای که انجام شدن، بدون در نظر گرفتن امنیت و حریم خصوصی بودن. نتیجه این شده که من حداقل با ۱۰ مدیر ارشد فناوری از شرکتهای بزرگ صحبت کردم که ChatGPT رو توی شرکتهاشون ممنوع کردن، چون نگران این هستن که اطلاعات شرکتشون بره تو اینترنت و عمومی بشه یا حتی به رقبا کمک کنه.
ریچارد واترز: یادمه اوایل که موتورهای جستجو تازه راه افتاده بودن، پیشبینی میشد که برای هر هدفی یه موتور جستجوی تخصصی داشته باشیم. ولی در نهایت یک موتور جستجو بود که همه رو گرفت. پس ممکنه در مورد مدلهای زبانی بزرگ هم آخرش به دو سه مدل بزرگ برسیم؟
آدام سلیپاسکی: احتمالاً اینطور میشه که با توجه به هزاران یا شاید دهها هزار کاربرد مختلف برای هوش مصنوعی مولد، چندین برنده خواهیم داشت. مثل اینترنت؛ توی اینترنت هم یه برنده واحد وجود نداره.
به نظرت دنیا با هوش بیشتر بهتره یا با هوش کمتر؟
اندرو انجی، دانشمند کامپیوتر و همبنیانگذار Google Brain، و رایان مکمورو، معاون دفتر پکن:
رایان مکمورو: تو اکتبر [۲۰۲۳] کاخ سفید یه فرمان اجرایی صادر کرد تا نظارت دولت روی هوش مصنوعی رو بیشتر کنه. به نظرت این کار زیادی نیست؟
اندرو انجی: فکر میکنم داریم یه قدم خطرناک برمیداریم. وقتی به آژانسهای مختلف دولتی میگیم که موانع بیشتری برای توسعه هوش مصنوعی بذارن، به نظرم داریم راه رو برای خفه کردن نوآوری و ایجاد قوانین ضد رقابتی هموار میکنیم.
اگه تو دنیا هوش بیشتری داشته باشیم، چه انسانی چه مصنوعی، به همهمون کمک میکنه که بهتر بتونیم مشکلات رو حل کنیم.
میدونیم که ابررایانههای امروز، فردا میتونن به یه ساعت هوشمند تبدیل بشن. پس وقتی استارتآپها رشد میکنن و قدرت پردازش گستردهتر میشه، میبینیم که سازمانهای بیشتری به این حد نصاب پردازشی میرسن. تعیین یه حد نصاب برای قدرت پردازش، به نظرم مثل اینه که بگیم دستگاهی که بیشتر از ۵۰ وات مصرف میکنه، ذاتاً خطرناکتر از دستگاهیه که فقط ۱۰ وات مصرف داره. شاید این حرف درست باشه، ولی این یه روش خیلی سادهانگارانه برای سنجیدن ریسکه.
رایان مکمورو: اگه قرار نباشه قدرت پردازش رو به عنوان معیار در نظر بگیریم، به نظرت چه روش بهتری برای سنجیدن ریسک وجود داره؟
پاسخ: وقتی به کاربردها نگاه میکنیم، میتونیم بفهمیم که چی امنه و چی خطرناکه و همونجا درست تنظیمش کنیم. مشکل تنظیم کردن خود لایه تکنولوژی اینه که چون تکنولوژی توی خیلی از چیزها استفاده میشه، تنظیم کردنش فقط سرعت پیشرفت فناوری رو کم میکنه.
اندرو انگ، دانشمند کامپیوتر و همبنیانگذار Google Brain: ایجاد موانع قانونی برای جلوگیری از رشد هوش، فقط به این خاطر که ممکنه برای مقاصد بدی استفاده بشه. جامعه رو عقب میندازه.
سوال اصلی اینه: فکر میکنیم دنیا با هوش بیشتر بهتر میشه یا با هوش کمتر؟ و درسته که الان هوش شامل هوش انسانی و هوش مصنوعی میشه. و واقعاً هم درسته که هوش میتونه برای اهداف بد هم استفاده بشه.
اما طی قرنهای زیادی، جامعه پیشرفت کرده چون انسانها باهوشتر و آموزشدیدهتر شدن. به نظرم داشتن هوش بیشتر، چه انسانی چه مصنوعی، به همهمون کمک میکنه که بهتر مشکلات رو حل کنیم. پس گذاشتن موانع قانونی برای جلوگیری از رشد هوش، فقط به خاطر اینکه ممکنه برای کارای بد استفاده بشه، به نظرم جامعه رو عقب میندازه.
«همه محتوای تولید شده توسط هوش مصنوعی مضر نیست»
هله تورنینگ-اشمیت، یکی از رؤسای هیئت نظارت متا، و مراد احمد، سردبیر اخبار فناوری
مراد احمد: امسال سال انتخاباته. بیشتر از نصف کشورهای دنیا یا به انتخابات رفتن یا قراره برن. شما در مورد این هشدار دادید که ممکنه امسال، سالی باشه که اطلاعات نادرست، بهویژه دیپفیکهای تولید شده توسط هوش مصنوعی، بتونه دموکراسی رو تحت تأثیر قرار بده. الان وسط سال هستیم؛ آیا این پیشبینی به واقعیت نزدیک شده؟
هله تورنینگ-اشمیت: اگه به کشورهای مختلف نگاه کنید، میبینید که اوضاع خیلی متفاوته. مثلاً در هند، دیپفیکهای هوش مصنوعی خیلی رایجه. تو پاکستان هم خیلی زیاد دیده میشه. از این تکنولوژی برای این استفاده میکنن که حرفهایی به مردم نسبت بدن، حتی اگه طرف فوت کرده باشه. یا نشون میدن کسی که تو زندانه داره صحبت میکنه، یا افراد معروف رو طوری نشون میدن که انگار از حزب خاصی حمایت میکنن که شاید اصلاً حمایت نمیکنن. اما اگه به انتخابات اروپا نگاه کنیم، که من خیلی دقیق زیر نظر داشتم، به نظر نمیاد که هوش مصنوعی داره انتخابات رو دستکاری میکنه.
ما به متا پیشنهاد کردیم که به جای اینکه صرفاً محتوایی رو به خاطر ساخته شدن با هوش مصنوعی حذف کنن، بیشتر به آسیبهایی که ممکنه وارد کنه توجه کنن. همچنین بهشون گفتیم که استانداردهای جامعهشون رو برای مدیریت محتوا بهروز کنن و محتوایی که توسط هوش مصنوعی تولید شده رو برچسبگذاری کنن تا مردم بدونن با چی طرفن.
فکر میکنم در نهایت بتونیم نحوه کار متا رو تو این زمینه تغییر بدیم. به نظرم بعد از چند سال، متا شروع میکنه به برچسبگذاری محتوای ساخته شده با هوش مصنوعی و بهتر میشه در پیدا کردن نشونههای عدم رضایتی که باید از پلتفرمها حذف بشن و این کار رو خیلی سریعتر انجام میده. البته این کار خیلی سخته، ولی اونا نیاز به یه سیستم قوی دارن. همچنین به مدیران محتوای انسانی با شناخت فرهنگی نیاز دارن که بتونن بهشون کمک کنن. (متا از ماه می شروع کرده به برچسبگذاری محتوا با عنوان «ساخته شده با هوش مصنوعی»