اخرین به روز رسانی:

آوریل ۲۱, ۲۰۲۵

اصطلاح «هوش مصنوعی» باعث سوءتفاهم می‌شود/ پرستو عزیزی

چیزی به اسم «هوش مصنوعی» نداریم

هیچ کسی استادانه‌تر از صنعت فناوری، آینده را به مردم نمی‌فروشد. طرفداران این صنعت بر این باورند که در آینده همه‌ی ما در «متاورس» (Metaverse) زندگی خواهیم کرد، زیرساخت مالی را روی «وب۳» خواهیم ساخت و زندگی خود را با «هوش مصنوعی» پیش خواهیم برد. هر سه‌ی این گزاره‌ها سرابی هستند که علی‌رغم این‌که واقعیت با آن‌ها در تناقض است، توانستند میلیارد‌ها دلار پول بسازند؛ بالاخص «هوش مصنوعی». این اصطلاح تداعی‌گر دستگاهی‌ست که قابلیت فکر کردن دارد، اما هیچ دستگاهی متفکر نیست و هیچ نرم‌افزاری واقعاً هوشمند نیست. باید گفت که اصطلاح «هوش مصنوعی» شاید یکی از موفق‌ترین عبارت‌های بازاریابی تاریخ باشد.

چندی پیش اوپن‌ای‌آی (OpenAI) با یک ارتقائ اساسی در فناوری زیربنایی چت جی‌پی‌تی (ChatGPT)، جی‌پی‌تی۴ (GPT-4) را معرفی کرد. این سیستم حتی از سیستم‌های مشابه پیشین هم بیش‌تر شبیه به انسان به نظر می‌رسد و بیش از پیش مفهوم «باهوش بودن» را تداعی می‌کند. اما در حقیقت جی‌پی‌تی۴ و دیگر مدل‌های زبانی بزرگ (Large Language Models) مشابه آن، تنها بازتاب دهنده‌ی دیتابیس‌های عظیمی از کلمات هستند. برای مثال مدل قبلی جی‌پی‌تی نزدیک به یک تریلیون کلمه داشت، که درک مقیاس آن دشوار است. این مدل‌های زبانی کلمات را بر اساس احتمال کنار هم می‌چینند، و ارتشی از انسان‌ها خطاهایشان را با برنامه‌نویسی اصلاح می‌کنند؛ به این نمی‌شود گفت «هوش».

این سیستم‌ها طوری برنامه‌ریزی شدند که متنی باورپذیر تولید کنند، اما جوری به بازار ارائه می‌شوند که گویا پیغمبران دانش هستند و اطلاعات به آن‌ها الهام می‌شود و می‌توان آن‌ها را به سیستم‌های جستوجوگر وصل کرد. وقتی که جی‌پی‌تی‌۴ هم‌چنان اشتباه می‌کند این نگاه احمقانه است. همین چند وقت پیش بود که دیدیم شرکت مایکروسافت و شرکت آلفابت -که گوگل از زیرمجموعه‌هایش است-، هردو در ارائه‌‌های اولیه‌ی جستوجوگر‌های جدیدشان چندان آبرومند عمل نکردند و جستوجوگر‌ها در ارائه‌ی حقایق دچار خطا می‌شدند.

اصطلاحاتی مانند «شبکه‌ی عصبی» (Neural Networks) و «ژرف‌آموزی» (Deep Learning) هم مشکل را حل نمی‌کنند و فقط این ایده را تقویت می‌کنند که این برنامه‌ها شبیه انسان هستند. شبکه‌های عصبی به هیچ وجه کپی مغز انسان نیستند؛ بلکه آن‌ها فقط تا حدی از عملکرد آن الهام گرفته‌اند. تلاش‌های پر سابقه برای تکثیر مغز انسان -که تقریباً ۸۵ میلیارد نورون‌ دارد-، همگی با شکست مواجه شده‌اند. نزدیک‌ترین چیزی که دانشمندان توانستند به مغز انسان تولید کنند، سیستم تقلیدگر مغز کرم است که تنها ۳۰۲ نورون دارد.

ما به واژه‌های متفاوتی نیاز داریم که تفکر سحرآمیز بودن را در مورد سیستم‌های کامپیوتری بازتولید نمی‌کند و طراحان این سیستم‌ها را از مسئولیت‌هایشان تبرئه نمی‌کند.

اما جایگزین بهتر چیست؟ فن‌آوران معقول سال‌هاست که تلاش می‌کنند اصطلاح «هوش مصنوعی» را با اصطلاح «سیستم‌های یادگیری ماشینی» (Machine Learning Systems) جایگزین کنند، اما این اصطلاح به راحتی «هوش مصنوعی» (Artificial Intelligence) یا «ای‌آی» (AI) بر زبان نمی‌چرخد.

استفانو کوئینتارلی، (Stefano Quintarelli) سیاستمدار سابق و فن‌آور ایتالیایی، جایگزین دیگری پیدا کرد، «رویکردهای سیستمی برای یادگیری الگوریتم‌ها و استنتاج‌های ماشینی» (Systemic Approaches to Learning Algorithms and Machine Inferences) که در انگلیسی به سالامی (SALAMI) -که نام یک نوع کالباس است- مخفف می‌شود. استفانو این جایگزین را مطرح کرد تا بر مضحک بودن سوالاتی که مردم درباره‌ی هوش مصنوعی مطرح می‌کنند تاکید کند: آیا سالامی حساس است؟ آیا سالامی هرگز بر انسان‌ها برتری خواهد داشت؟

ناامیدکننده‌ترین تلاش برای جایگزین معنایی، احتمالاً دقیق‌ترین است: «نرم افزار». می‌دانم در ذهنتان می‌پرسید: «خب چه اشکالی داره از یکم استعاره برای توصیف فناوری که به این سحرآمیزی به نظر می‌رسه استفاده بشه؟» پاسخ این است که نسبت دادن هوش به دستگاه‌ها، در واقع به غلط مستقل شمردن آن‌ها از انسان‌هاست و خالقان آن‌ها را از مسئولیت در قبال تاثیر این دستگاه‌ها مبرا می‌کند.

اگر چت جی‌پی‌تی را «هوشمند» ببینیم، کم‌تر تمایل داریم که استارت‌آپ سانفرانسیسکویی اوپن‌ای‌آی -خالق آن- را پاسخگوی اشتباهات و سوگیری‌های این چت‌بات (Chatbot) بدانیم. هم‌چنین این نگاه باعث می‌شود که انسان‌هایی که از اثرات مخرب فناوری رنج می‌برند، رنج خود را به عنوان بخشی از سرنوشت قبول کنند؛ در حالی که این «هوش مصنوعی» نیست که جای شغل شما را می‌گیرد و یا آثار هنری شما را به سرقت می‌برد، انسان‌های دیگر هستند که این کار‌ها را می‌کنند.

 اکنون که شرکت‌هایی از متا (META) -شرکت دارنده‌ی فیسبوک و اینستاگرام- گرفته تا اسنپ (SNAP) -شرکت دارنده‌ی اسنپ چت و بیت‌موجی-  و مورگان استنلی (Morgan Stanley) -شرکت خدمات مالی- عجله دارند تا چت‌بات و بات‌های تولیدکننده‌ی متن و تصویر را به سیستم‌های خود متصل کنند. در واقع این موضوع بیش از پیش ضروری شده است. مایکروسافت در رقابت تسلیحاتی جدید خود با گوگل، فناوری مدل زبان اوپن‌ای‌آی را که هنوز تا حد زیادی آزمایش نشده، در محبوب‌ترین برنامه‌های تجاری خود از جمله ورد، آتلوک و اکسل قرار می‌دهد. مایکروسافت در مورد امکان جدید خود گفته است: «کوپایلوت (Copilot) اساساً نحوه‌ی کار افراد با هوش مصنوعی و نحوه‌ی کار هوش مصنوعی با مردم را تغییر خواهد داد.»

اما برای کاربران، وعده‌ی کار با ماشین‌های هوشمند تا حدی گمراه‌کننده است. استیون پول (Steven Poole)، نویسنده‌ی کتاب «ناگفته» (Unspeak)، در مورد قدرت خطرناک کلمات و برچسب‌ها می‌گوید: «هوش مصنوعی یکی از آن برچسب‌هایی است که به جای واقعیت فعلی، نوعی امید آرمان‌شهری را بیان می‌کند. تقریباً همان‌طور که ظهور عبارت “سلاح‌های هوشمند” در طول جنگ اول خلیج‌فارس در ذهن جنگی بی مرگ و میر با هدف‌گیری کاملاً دقیق را تداعی می‌کرد، چیزی که حتی هنوز هم امکان پذیر نیست.»

مارگارت میچل (Margaret Mitchell)، دانشمند کامپیوتری -که پس از انتشار مقاله‌ای که در آن از تعصبات در مدل‌های زبانی بزرگ انتقاد کرده بود، توسط گوگل اخراج شد-، با اکراه کار خود را در سال‌های اخیر مبتنی بر هوش مصنوعی توصیف کرده است. او در کنفرانسی اعتراف کرد «قبلاً … افرادی مانند من می‌گفتند که ما روی “یادگیری ماشینی” کار کردیم. روش خیلی خوبیه برای از دست دادن توجه مردم!»

همکار سابق او در گوگل و بنیانگذار «موسسه‌ی تحقیقاتی هوش مصنوعی توزیع شده (Distributed Artificial Intelligence Research Institute)»، تیمنیت گبرو (Timnit Gebru)، گفت که او نیز از حدود سال ۲۰۱۳ شروع به کار بردن اصطلاح «هوش مصنوعی» کرده است: «این اصطلاح جا افتاد.» میچل افزود: «این وحشتناکه، اما من هم این کار رو می‌کنم. به هر چیزی که لمس می‌کنم می‌گم هوش مصنوعی، چون اون‌وقت مردم به حرفی که دارم می‌زنم گوش می‌دن.»

متاسفانه، «هوش مصنوعی» آن‌قدر در واژگان ما گنجانده شده که تکان دادن آن تقریباً غیرممکن خواهد بود و سخت است که هر بار این اصطلاح را به کار می‌بریم یادآور شویم که به معنی دقیق کلمه نیست؛ حداقل باید به خود یادآوری کنیم که چنین سیستم‌هایی چقدر به مدیران انسانی وابسته هستند، انسان‌هایی که باید در قبال عوارض جانبی این تکنولوژی‌ها پاسخگو باشند.

استیو پول، می‌گوید که ترجیح می‌دهد چت‌بات‌هایی مانند چت جی‌پی‌تی و تولیدکننده‌های تصویر مانند میدجورنی (Midjourney) را «ماشین‌های سرقت ادبی غول‌پیکر» بنامد، زیرا این ربات‌ها عمدتاً متن و تصاویری را که در اصل توسط انسان‌ها خلق شده‌اند، دوباره ترکیب می‌کنند. او می‌گوید: «مطمئن نیستم که همه‌گیر شوند.»

به دلایل متعدد، ما در واقع گیر «هوش مصنوعی» افتاده‌ایم!

پانوشت‌ها:
۱- نویسنده در توضیح تیتر تاکید کرده است که: اصطلاح «هوش مصنوعی» باعث سوئتفاهم می‌شود و کمک می‌کند تا سازندگان‌اش از پاسخگویی مبرا باشند.
۲- این مطلب ترجمه‌ای است از مطلبی که توسط پارمی اولسون (Parmy Olson) در تاریخ ۲۶ مارچ ۲۰۳۳ در بلومبرگ منتشر شده است.
توسط: پرستو عزیزی
آوریل 21, 2023

برچسب ها

اشتغال اینستاگرام بلومبرگ بیکاری پارمی اولسون پرستو عزیزی ترجمه تکنولوژی جی‌پی‌تی-۴ چت بات چت جی پی تی چت‌جی‌پی‌تی خط صلح خط صلح 144 ربات فیسبوک گوگل ماهنامه خط صلح مایکروسافت متا متاورس میدجورنی هوش مصنوعی هوش مصنوعی