برو به محتوای اصلی

معرفی AI Exchange

yasin

آینده فناوری به سرعت در حال توسعه چه خواهد بود ؟

پیشرفت‌های فناوری همیشه یه سری سوالات رو به وجود میاره، مثل : این فناوری‌ها چه فایده‌ای دارن، چه هزینه‌هایی دارن، چه خطرهایی دارن و از لحاظ اخلاقی چطورین. واسه همینم لازمه که افرادی که پشت این فناوری‌ها هستن، جواب‌های درست و حسابی بدن.

حالا بعد از ۱۸ ماه، مشخص شده که هوش مصنوعی بیشتر از هر زمینه دیگه‌ای باعث ایجاد سوالات و نگرانی‌ها شده. کلی آدم، از دانشمندان و توسعه‌دهنده‌های نرم‌افزار گرفته تا سیاست‌گذارا و تنظیم‌کننده‌ها، دارن تلاش می‌کنن به این سوالات جواب بدن.

برای همین قراره مصاحبه‌های عمیقی با آدم‌هایی که تو خط مقدم طراحی و محافظت از این فناوری در حال رشد سریع هستن، انجام بشه تا بررسی کنن که قدرت هوش مصنوعی چطور می‌تونه روی زندگی ما تاثیر بذاره.


اگر هوش مصنوعی بتواند جایگزین نیروی کار شود ، چیز خوبی است ؟

آرویند کریشنا، مدیر اجرایی IBM، و ریچارد واترز، سردبیر ساحل غربی:

ریچارد واترز: وقتی با کسب‌وکارها و مدیرای عامل صحبت می‌کنید و اونا می‌پرسن «با این هوش مصنوعی چیکار کنیم؟» بهشون چی می‌گین؟

آروین کریشنا: من همیشه اول به دو سه تا حوزه اشاره می‌کنم. یکی‌شون هر چیزی که به خدمات مشتری مربوط می‌شه، یعنی جواب دادن به سوالای مردم. این حوزه واقعاً مهمیه و به نظرم می‌تونیم جواب‌های بهتری بدیم که شاید تا نصف هزینه‌های فعلی رو کم کنه. با گذشت زمان، شاید حتی کمتر از نصف هم بشه، ولی می‌شه خیلی سریع حدود نصف هزینه‌ها رو کاهش داد.

مورد دوم مربوط به فرآیندهای داخلیه. مثلاً هر شرکتی، کوچیک یا بزرگ، همیشه دغدغه‌هایی مثل ارتقا دادن کارمندها، استخدام یا جابجایی اونا رو داره و این فرآیندها باید نسبتاً منصفانه باشن. ولی ۹۰ درصد کارهای مربوط به این موارد فقط جمع‌آوری اطلاعاته. فکر می‌کنم هوش مصنوعی می‌تونه این کار رو انجام بده و در نهایت یه آدم تصمیم نهایی رو بگیره. تو هر سازمانی صدها فرآیند مشابه این هست، پس به نظرم کارای دفتری و اداری با این روش می‌تونن جایگزین بشن.

بعدش به کارای نظارتی فکر می‌کنم، حالا چه تو بخش مالی باشه با حسابرسی و چه تو بخش بهداشت و درمان. یه بخش بزرگی از این کارا می‌تونه با این تکنیک‌ها خودکار بشه. بعدش یه سری کاربردای دیگه هم هست، ولی اون‌ها احتمالا سخت‌ترن و یه کم دورتر... مثل کشف داروهای جدید یا تکمیل تحقیقات شیمی

آروین کریشنا، مدیرعامل IBM: اگه به بیشتر کاربردهایی که گفتم فکر کنید، همه‌شون واسه این هستن که بهره‌وری یه شرکت رو بالا ببرن.

ما واقعاً تو دنیای واقعی کمبود نیروی کار داریم و این بخاطر مسئله جمعیتی هست که دنیا باهاش روبرو شده. پس باید تکنولوژی‌هایی داشته باشیم که کمک کنن. الان نرخ بیکاری تو آمریکا به ۳.۴ درصد رسیده، که تو ۶۰ سال گذشته این‌قدر پایین نبوده. شاید بتونیم ابزارهایی پیدا کنیم که بخشی از نیروی کار رو جایگزین کنن، و این بار این یه اتفاق خوبه.

ریچارد واترز: فکر می‌کنید قراره برنده و بازنده داشته باشیم؟ اگه آره، چه چیزی برنده‌ها رو از بازنده‌ها جدا می‌کنه؟

آروین کریشنا: دو تا زمینه هست. یکی کار با مشتری‌های عادی... و یکی هم شرکت‌هایی که قراره از این تکنولوژی‌ها استفاده کنن. اگه به بیشتر کاربردهایی که اشاره کردم فکر کنید، همشون واسه اینه که بهره‌وری شرکت‌ها رو ببرن بالا. وقتی بهره‌وری بیشتر بشه، این شرکت‌ها پول بیشتری برای سرمایه‌گذاری دارن تا محصولاشون رو قوی‌تر کنن. این سرمایه‌گذاری می‌تونه تو تحقیق و توسعه باشه، تو بازاریابی بهتر، فروش بیشتر، یا حتی خرید و اضافه کردن چیزای جدید. کلی جا هست که این پول اضافی رو می‌تونن خرج کنن.


تهدید هوش مصنوعی برای وجود انسان «مزخرف» است و توجه را از خطرات واقعی منحرف می‌کند.

آیدان گومز، یکی از بنیانگذاران Cohere، و جورج هاموند، خبرنگار سرمایه گذاری خطرپذیر:

جورج هموند: الان تو نقطه حساس بحث‌های مربوط به مقررات‌گذاری در زمینه هوش مصنوعی هستیم. برام جالبه نظر شما رو بدونم که آیا مثل ایلان ماسک و بقیه، معتقدید که باید برای شش ماه همه چیز رو متوقف کنیم و سعی کنیم اوضاع رو تحت کنترل در بیاریم؟

آیدان گومز: به نظرم اون نامه برای توقف شش‌ماهه کاملاً مسخره‌ست. واقعاً یه چیز بی‌منطقه. چطوری می‌خوای یه توقف شش‌ماهه رو عملی کنی؟ کی قراره متوقف بشه؟ چطوری می‌خوای اجراش کنی؟ چطوری می‌خوای هماهنگی جهانی براش ایجاد کنی؟ اصلاً منطقی نیست. این اولین مشکلشه.

مشکل دوم خود فرضیه‌ست: تو اون نامه کلی حرف زده شده که یه هوش مصنوعی فوق‌هوشمند (AGI) قراره بیاد و نسل ما رو منقرض کنه؛ همه انسان‌ها رو از بین ببره. به نظرم این یه روایت خیلی خطرناکه و واقعاً غیرمسئولانه‌ست.

این واقعاً بی‌فکرانه و آسیب‌زاست و از ترس‌های عموم مردم سوءاستفاده می‌کنه. چون ما تو این نیم‌قرن اخیر کلی فیلم علمی-تخیلی ساختیم که نشون می‌ده هوش مصنوعی چطوری ممکنه خراب کنه؛ ربات‌های شبیه به «ترمیناتور» و اینجور ترس‌ها. پس داریم از ترس مردم بهره‌برداری می‌کنیم.

ایدن گومز، هم‌بنیان‌گذار Cohere: بحث کردن در مورد اینکه نسل ما قراره به خاطر تسلط یه هوش مصنوعی فوق‌هوشمند منقرض بشه، یه اتلاف وقت مسخره‌ست.

جورج هموند: آیا اصلاً دلیلی برای این ترس وجود داره؟ وقتی درباره توسعه هوش مصنوعی عمومی (AGI) و احتمال رسیدن به اون لحظه خاص یا «تکینگی» صحبت می‌کنیم، آیا از نظر فنی همچین چیزی ممکنه، حتی اگه احتمال کمی داشته باشه؟

آیدان گومز: به نظرم احتمال این اتفاق فوق‌العاده کمه. این تکنولوژی خطرات واقعی خودش رو داره. دلایلی هست که از این تکنولوژی و نحوه استفاده و کسایی که ازش استفاده می‌کنن بترسیم. ولی اینکه همش وقتمون رو صرف بحث کنیم که آیا نسل ما به خاطر تسلط یه هوش مصنوعی فوق‌هوشمند منقرض می‌شه، واقعاً یه اتلاف وقت مسخره و اشغال ذهن عموم مردمه.

الان می‌تونیم شبکه‌های اجتماعی رو پر از حساب‌هایی کنیم که واقعاً از یه انسان قابل تشخیص نیستن؛ یعنی یه مزرعه ربات خیلی بزرگ می‌تونه یه روایت خاص رو منتشر کنه. برای این باید راهکارهایی داشته باشیم. یکی از این راه‌ها تایید هویت انسانیه ، یعنی بتونیم بفهمیم کدوم حساب‌ها واقعاً به یه آدم زنده وصلن تا بتونیم فیدها رو طوری فیلتر کنیم که فقط آدم‌های واقعی تو مکالمات باشن.

یه سری خطرات بزرگ دیگه هم هست. نباید بی‌گدار یه ربات رو برای ارائه مشاوره پزشکی کامل و بدون نظارت دکتر راه بندازیم. این کار اصلاً نباید اتفاق بیفته.

به نظرم خطرات واقعی وجود دارن و جا برای مقررات‌گذاری هم هست. من ضد مقررات نیستم، در واقع خیلی هم طرفدارشم. ولی واقعاً امیدوارم مردم بدونن که یه سری داستانای تخیلی درباره ریسک‌ها پایه و اساس ندارن. اینا حواس‌پرتی‌هایی هستن که جلوی بحث‌های اصلی رو می‌گیرن.


یه مدل هوش مصنوعی مولد که همه چیز رو تحت کنترل خودش بگیره وجود نخواهد داشت.

آدام سلیپسکی، رئیس سابق خدمات وب آمازون و ریچارد واترز، سردبیر ساحل غربی

ریچارد واترز: میشه درباره کار خودتون روی هوش مصنوعی مولد و مدل‌های زبانی بزرگ برامون بگید؟ چند وقته دارین روش کار می‌کنید؟

آدام سلیپاسکی: ما شاید تازه سه قدم اول یه مسابقه ۱۰ کیلومتری رو برداشتیم، و سوال نباید این باشه که «کدوم دونده سه قدم جلوتره؟» بلکه باید بپرسیم «مسیر مسابقه چطوریه؟ قوانینش چی هستن؟ و اصلاً هدفمون تو این مسابقه چیه و می‌خوایم به کجا برسیم؟

اگه من و تو سال ۱۹۹۶ نشسته بودیم و یکی از ما می‌پرسید «قراره کدوم شرکت بشه شرکت اینترنتی؟»، این سوال خیلی مسخره به نظر می‌اومد. ولی الان هم همون رو می‌شنویم. «برنده این حوزه [هوش مصنوعی] کی قراره باشه؟

هوش مصنوعی مولد قراره یه سری تکنولوژی پایه‌ای برای سال‌ها، شاید حتی دهه‌های آینده باشه. و کسی نمی‌دونه که آیا تکنولوژی‌های برنده اصلاً تا حالا اختراع شدن یا شرکت‌های برنده هنوز شکل گرفتن یا نه.

پس چیزی که مشتری‌ها نیاز دارن، انتخابه. باید بتونن آزمایش کنن. قرار نیست یه مدل باشه که همه رو تحت کنترل بگیره؛ این یه فکر خنده‌داره.

شرکت‌ها متوجه می‌شن که برای این کار، یه مدل بهتره و برای یه کار دیگه، یه مدل دیگه بهتر جواب می‌ده، داشتن این انتخاب خیلی اهمیت داره.

آدام سلیپسکی، مدیر سابق Amazon Web Services: هوش مصنوعی مولد قراره سال‌ها، شاید حتی دهه‌ها، یه سری تکنولوژی پایه‌ای باشه. و هیچ‌کس نمی‌دونه که آیا تکنولوژی‌های برنده اصلاً تا حالا اختراع شدن یا نه.

مفهوم دومی که تو این لایه میانی خیلی مهمه، امنیت و حریم شخصیه. خیلی از تلاش‌های اولیه‌ای که انجام شدن، بدون در نظر گرفتن امنیت و حریم خصوصی بودن. نتیجه این شده که من حداقل با ۱۰ مدیر ارشد فناوری از شرکت‌های بزرگ صحبت کردم که ChatGPT رو توی شرکت‌هاشون ممنوع کردن، چون نگران این هستن که اطلاعات شرکتشون بره تو اینترنت و عمومی بشه یا حتی به رقبا کمک کنه.

ریچارد واترز: یادمه اوایل که موتورهای جستجو تازه راه افتاده بودن، پیش‌بینی می‌شد که برای هر هدفی یه موتور جستجوی تخصصی داشته باشیم. ولی در نهایت یک موتور جستجو بود که همه رو گرفت. پس ممکنه در مورد مدل‌های زبانی بزرگ هم آخرش به دو سه مدل بزرگ برسیم؟

آدام سلیپاسکی: احتمالاً اینطور می‌شه که با توجه به هزاران یا شاید ده‌ها هزار کاربرد مختلف برای هوش مصنوعی مولد، چندین برنده خواهیم داشت. مثل اینترنت؛ توی اینترنت هم یه برنده واحد وجود نداره.


به نظرت دنیا با هوش بیشتر بهتره یا با هوش کمتر؟

اندرو ان‌جی، دانشمند کامپیوتر و هم‌بنیان‌گذار Google Brain، و رایان مک‌مورو، معاون دفتر پکن:

رایان مک‌مورو: تو اکتبر [۲۰۲۳] کاخ سفید یه فرمان اجرایی صادر کرد تا نظارت دولت روی هوش مصنوعی رو بیشتر کنه. به نظرت این کار زیادی نیست؟

اندرو ان‌جی: فکر می‌کنم داریم یه قدم خطرناک برمی‌داریم. وقتی به آژانس‌های مختلف دولتی می‌گیم که موانع بیشتری برای توسعه هوش مصنوعی بذارن، به نظرم داریم راه رو برای خفه کردن نوآوری و ایجاد قوانین ضد رقابتی هموار می‌کنیم.

اگه تو دنیا هوش بیشتری داشته باشیم، چه انسانی چه مصنوعی، به همه‌مون کمک می‌کنه که بهتر بتونیم مشکلات رو حل کنیم.

می‌دونیم که ابررایانه‌های امروز، فردا می‌تونن به یه ساعت هوشمند تبدیل بشن. پس وقتی استارت‌آپ‌ها رشد می‌کنن و قدرت پردازش گسترده‌تر می‌شه، می‌بینیم که سازمان‌های بیشتری به این حد نصاب پردازشی می‌رسن. تعیین یه حد نصاب برای قدرت پردازش، به نظرم مثل اینه که بگیم دستگاهی که بیشتر از ۵۰ وات مصرف می‌کنه، ذاتاً خطرناک‌تر از دستگاهیه که فقط ۱۰ وات مصرف داره. شاید این حرف درست باشه، ولی این یه روش خیلی ساده‌انگارانه برای سنجیدن ریسکه.

رایان مک‌مورو: اگه قرار نباشه قدرت پردازش رو به عنوان معیار در نظر بگیریم، به نظرت چه روش بهتری برای سنجیدن ریسک وجود داره؟

پاسخ: وقتی به کاربردها نگاه می‌کنیم، می‌تونیم بفهمیم که چی امنه و چی خطرناکه و همونجا درست تنظیمش کنیم. مشکل تنظیم کردن خود لایه تکنولوژی اینه که چون تکنولوژی توی خیلی از چیزها استفاده می‌شه، تنظیم کردنش فقط سرعت پیشرفت فناوری رو کم می‌کنه.

اندرو انگ، دانشمند کامپیوتر و هم‌بنیان‌گذار Google Brain: ایجاد موانع قانونی برای جلوگیری از رشد هوش، فقط به این خاطر که ممکنه برای مقاصد بدی استفاده بشه. جامعه رو عقب می‌ندازه.

سوال اصلی اینه: فکر می‌کنیم دنیا با هوش بیشتر بهتر می‌شه یا با هوش کمتر؟ و درسته که الان هوش شامل هوش انسانی و هوش مصنوعی می‌شه. و واقعاً هم درسته که هوش می‌تونه برای اهداف بد هم استفاده بشه.

اما طی قرن‌های زیادی، جامعه پیشرفت کرده چون انسان‌ها باهوش‌تر و آموزش‌دیده‌تر شدن. به نظرم داشتن هوش بیشتر، چه انسانی چه مصنوعی، به همه‌مون کمک می‌کنه که بهتر مشکلات رو حل کنیم. پس گذاشتن موانع قانونی برای جلوگیری از رشد هوش، فقط به خاطر اینکه ممکنه برای کارای بد استفاده بشه، به نظرم جامعه رو عقب می‌ندازه.


«همه محتوای تولید شده توسط هوش مصنوعی مضر نیست»

هله تورنینگ-اشمیت، یکی از رؤسای هیئت نظارت متا، و مراد احمد، سردبیر اخبار فناوری

مراد احمد: امسال سال انتخاباته. بیشتر از نصف کشورهای دنیا یا به انتخابات رفتن یا قراره برن. شما در مورد این هشدار دادید که ممکنه امسال، سالی باشه که اطلاعات نادرست، به‌ویژه دیپ‌فیک‌های تولید شده توسط هوش مصنوعی، بتونه دموکراسی رو تحت تأثیر قرار بده. الان وسط سال هستیم؛ آیا این پیش‌بینی به واقعیت نزدیک شده؟

هله تورنینگ-اشمیت: اگه به کشورهای مختلف نگاه کنید، می‌بینید که اوضاع خیلی متفاوته. مثلاً در هند، دیپ‌فیک‌های هوش مصنوعی خیلی رایجه. تو پاکستان هم خیلی زیاد دیده می‌شه. از این تکنولوژی برای این استفاده می‌کنن که حرف‌هایی به مردم نسبت بدن، حتی اگه طرف فوت کرده باشه. یا نشون می‌دن کسی که تو زندانه داره صحبت می‌کنه، یا افراد معروف رو طوری نشون می‌دن که انگار از حزب خاصی حمایت می‌کنن که شاید اصلاً حمایت نمی‌کنن. اما اگه به انتخابات اروپا نگاه کنیم، که من خیلی دقیق زیر نظر داشتم، به نظر نمیاد که هوش مصنوعی داره انتخابات رو دستکاری می‌کنه.

ما به متا پیشنهاد کردیم که به جای اینکه صرفاً محتوایی رو به خاطر ساخته شدن با هوش مصنوعی حذف کنن، بیشتر به آسیب‌هایی که ممکنه وارد کنه توجه کنن. همچنین بهشون گفتیم که استانداردهای جامعه‌شون رو برای مدیریت محتوا به‌روز کنن و محتوایی که توسط هوش مصنوعی تولید شده رو برچسب‌گذاری کنن تا مردم بدونن با چی طرفن.

فکر می‌کنم در نهایت بتونیم نحوه کار متا رو تو این زمینه تغییر بدیم. به نظرم بعد از چند سال، متا شروع می‌کنه به برچسب‌گذاری محتوای ساخته شده با هوش مصنوعی و بهتر می‌شه در پیدا کردن نشونه‌های عدم رضایتی که باید از پلتفرم‌ها حذف بشن و این کار رو خیلی سریع‌تر انجام می‌ده. البته این کار خیلی سخته، ولی اونا نیاز به یه سیستم قوی دارن. همچنین به مدیران محتوای انسانی با شناخت فرهنگی نیاز دارن که بتونن بهشون کمک کنن. (متا از ماه می شروع کرده به برچسب‌گذاری محتوا با عنوان «ساخته شده با هوش مصنوعی»