
اصطلاح «هوش مصنوعی» باعث سوءتفاهم میشود/ پرستو عزیزی
چیزی به اسم «هوش مصنوعی» نداریم
هیچ کسی استادانهتر از صنعت فناوری، آینده را به مردم نمیفروشد. طرفداران این صنعت بر این باورند که در آینده همهی ما در «متاورس» (Metaverse) زندگی خواهیم کرد، زیرساخت مالی را روی «وب۳» خواهیم ساخت و زندگی خود را با «هوش مصنوعی» پیش خواهیم برد. هر سهی این گزارهها سرابی هستند که علیرغم اینکه واقعیت با آنها در تناقض است، توانستند میلیاردها دلار پول بسازند؛ بالاخص «هوش مصنوعی». این اصطلاح تداعیگر دستگاهیست که قابلیت فکر کردن دارد، اما هیچ دستگاهی متفکر نیست و هیچ نرمافزاری واقعاً هوشمند نیست. باید گفت که اصطلاح «هوش مصنوعی» شاید یکی از موفقترین عبارتهای بازاریابی تاریخ باشد.
چندی پیش اوپنایآی (OpenAI) با یک ارتقائ اساسی در فناوری زیربنایی چت جیپیتی (ChatGPT)، جیپیتی۴ (GPT-4) را معرفی کرد. این سیستم حتی از سیستمهای مشابه پیشین هم بیشتر شبیه به انسان به نظر میرسد و بیش از پیش مفهوم «باهوش بودن» را تداعی میکند. اما در حقیقت جیپیتی۴ و دیگر مدلهای زبانی بزرگ (Large Language Models) مشابه آن، تنها بازتاب دهندهی دیتابیسهای عظیمی از کلمات هستند. برای مثال مدل قبلی جیپیتی نزدیک به یک تریلیون کلمه داشت، که درک مقیاس آن دشوار است. این مدلهای زبانی کلمات را بر اساس احتمال کنار هم میچینند، و ارتشی از انسانها خطاهایشان را با برنامهنویسی اصلاح میکنند؛ به این نمیشود گفت «هوش».
این سیستمها طوری برنامهریزی شدند که متنی باورپذیر تولید کنند، اما جوری به بازار ارائه میشوند که گویا پیغمبران دانش هستند و اطلاعات به آنها الهام میشود و میتوان آنها را به سیستمهای جستوجوگر وصل کرد. وقتی که جیپیتی۴ همچنان اشتباه میکند این نگاه احمقانه است. همین چند وقت پیش بود که دیدیم شرکت مایکروسافت و شرکت آلفابت -که گوگل از زیرمجموعههایش است-، هردو در ارائههای اولیهی جستوجوگرهای جدیدشان چندان آبرومند عمل نکردند و جستوجوگرها در ارائهی حقایق دچار خطا میشدند.
اصطلاحاتی مانند «شبکهی عصبی» (Neural Networks) و «ژرفآموزی» (Deep Learning) هم مشکل را حل نمیکنند و فقط این ایده را تقویت میکنند که این برنامهها شبیه انسان هستند. شبکههای عصبی به هیچ وجه کپی مغز انسان نیستند؛ بلکه آنها فقط تا حدی از عملکرد آن الهام گرفتهاند. تلاشهای پر سابقه برای تکثیر مغز انسان -که تقریباً ۸۵ میلیارد نورون دارد-، همگی با شکست مواجه شدهاند. نزدیکترین چیزی که دانشمندان توانستند به مغز انسان تولید کنند، سیستم تقلیدگر مغز کرم است که تنها ۳۰۲ نورون دارد.
ما به واژههای متفاوتی نیاز داریم که تفکر سحرآمیز بودن را در مورد سیستمهای کامپیوتری بازتولید نمیکند و طراحان این سیستمها را از مسئولیتهایشان تبرئه نمیکند.
اما جایگزین بهتر چیست؟ فنآوران معقول سالهاست که تلاش میکنند اصطلاح «هوش مصنوعی» را با اصطلاح «سیستمهای یادگیری ماشینی» (Machine Learning Systems) جایگزین کنند، اما این اصطلاح به راحتی «هوش مصنوعی» (Artificial Intelligence) یا «ایآی» (AI) بر زبان نمیچرخد.
استفانو کوئینتارلی، (Stefano Quintarelli) سیاستمدار سابق و فنآور ایتالیایی، جایگزین دیگری پیدا کرد، «رویکردهای سیستمی برای یادگیری الگوریتمها و استنتاجهای ماشینی» (Systemic Approaches to Learning Algorithms and Machine Inferences) که در انگلیسی به سالامی (SALAMI) -که نام یک نوع کالباس است- مخفف میشود. استفانو این جایگزین را مطرح کرد تا بر مضحک بودن سوالاتی که مردم دربارهی هوش مصنوعی مطرح میکنند تاکید کند: آیا سالامی حساس است؟ آیا سالامی هرگز بر انسانها برتری خواهد داشت؟
ناامیدکنندهترین تلاش برای جایگزین معنایی، احتمالاً دقیقترین است: «نرم افزار». میدانم در ذهنتان میپرسید: «خب چه اشکالی داره از یکم استعاره برای توصیف فناوری که به این سحرآمیزی به نظر میرسه استفاده بشه؟» پاسخ این است که نسبت دادن هوش به دستگاهها، در واقع به غلط مستقل شمردن آنها از انسانهاست و خالقان آنها را از مسئولیت در قبال تاثیر این دستگاهها مبرا میکند.
اگر چت جیپیتی را «هوشمند» ببینیم، کمتر تمایل داریم که استارتآپ سانفرانسیسکویی اوپنایآی -خالق آن- را پاسخگوی اشتباهات و سوگیریهای این چتبات (Chatbot) بدانیم. همچنین این نگاه باعث میشود که انسانهایی که از اثرات مخرب فناوری رنج میبرند، رنج خود را به عنوان بخشی از سرنوشت قبول کنند؛ در حالی که این «هوش مصنوعی» نیست که جای شغل شما را میگیرد و یا آثار هنری شما را به سرقت میبرد، انسانهای دیگر هستند که این کارها را میکنند.
اکنون که شرکتهایی از متا (META) -شرکت دارندهی فیسبوک و اینستاگرام- گرفته تا اسنپ (SNAP) -شرکت دارندهی اسنپ چت و بیتموجی- و مورگان استنلی (Morgan Stanley) -شرکت خدمات مالی- عجله دارند تا چتبات و باتهای تولیدکنندهی متن و تصویر را به سیستمهای خود متصل کنند. در واقع این موضوع بیش از پیش ضروری شده است. مایکروسافت در رقابت تسلیحاتی جدید خود با گوگل، فناوری مدل زبان اوپنایآی را که هنوز تا حد زیادی آزمایش نشده، در محبوبترین برنامههای تجاری خود از جمله ورد، آتلوک و اکسل قرار میدهد. مایکروسافت در مورد امکان جدید خود گفته است: «کوپایلوت (Copilot) اساساً نحوهی کار افراد با هوش مصنوعی و نحوهی کار هوش مصنوعی با مردم را تغییر خواهد داد.»
اما برای کاربران، وعدهی کار با ماشینهای هوشمند تا حدی گمراهکننده است. استیون پول (Steven Poole)، نویسندهی کتاب «ناگفته» (Unspeak)، در مورد قدرت خطرناک کلمات و برچسبها میگوید: «هوش مصنوعی یکی از آن برچسبهایی است که به جای واقعیت فعلی، نوعی امید آرمانشهری را بیان میکند. تقریباً همانطور که ظهور عبارت “سلاحهای هوشمند” در طول جنگ اول خلیجفارس در ذهن جنگی بی مرگ و میر با هدفگیری کاملاً دقیق را تداعی میکرد، چیزی که حتی هنوز هم امکان پذیر نیست.»
مارگارت میچل (Margaret Mitchell)، دانشمند کامپیوتری -که پس از انتشار مقالهای که در آن از تعصبات در مدلهای زبانی بزرگ انتقاد کرده بود، توسط گوگل اخراج شد-، با اکراه کار خود را در سالهای اخیر مبتنی بر هوش مصنوعی توصیف کرده است. او در کنفرانسی اعتراف کرد «قبلاً … افرادی مانند من میگفتند که ما روی “یادگیری ماشینی” کار کردیم. روش خیلی خوبیه برای از دست دادن توجه مردم!»
همکار سابق او در گوگل و بنیانگذار «موسسهی تحقیقاتی هوش مصنوعی توزیع شده (Distributed Artificial Intelligence Research Institute)»، تیمنیت گبرو (Timnit Gebru)، گفت که او نیز از حدود سال ۲۰۱۳ شروع به کار بردن اصطلاح «هوش مصنوعی» کرده است: «این اصطلاح جا افتاد.» میچل افزود: «این وحشتناکه، اما من هم این کار رو میکنم. به هر چیزی که لمس میکنم میگم هوش مصنوعی، چون اونوقت مردم به حرفی که دارم میزنم گوش میدن.»
متاسفانه، «هوش مصنوعی» آنقدر در واژگان ما گنجانده شده که تکان دادن آن تقریباً غیرممکن خواهد بود و سخت است که هر بار این اصطلاح را به کار میبریم یادآور شویم که به معنی دقیق کلمه نیست؛ حداقل باید به خود یادآوری کنیم که چنین سیستمهایی چقدر به مدیران انسانی وابسته هستند، انسانهایی که باید در قبال عوارض جانبی این تکنولوژیها پاسخگو باشند.
استیو پول، میگوید که ترجیح میدهد چتباتهایی مانند چت جیپیتی و تولیدکنندههای تصویر مانند میدجورنی (Midjourney) را «ماشینهای سرقت ادبی غولپیکر» بنامد، زیرا این رباتها عمدتاً متن و تصاویری را که در اصل توسط انسانها خلق شدهاند، دوباره ترکیب میکنند. او میگوید: «مطمئن نیستم که همهگیر شوند.»
به دلایل متعدد، ما در واقع گیر «هوش مصنوعی» افتادهایم!
پانوشتها:
۱- نویسنده در توضیح تیتر تاکید کرده است که: اصطلاح «هوش مصنوعی» باعث سوئتفاهم میشود و کمک میکند تا سازندگاناش از پاسخگویی مبرا باشند.
۲- این مطلب ترجمهای است از مطلبی که توسط پارمی اولسون (Parmy Olson) در تاریخ ۲۶ مارچ ۲۰۳۳ در بلومبرگ منتشر شده است.
برچسب ها
اشتغال اینستاگرام بلومبرگ بیکاری پارمی اولسون پرستو عزیزی ترجمه تکنولوژی جیپیتی-۴ چت بات چت جی پی تی چتجیپیتی خط صلح خط صلح 144 ربات فیسبوک گوگل ماهنامه خط صلح مایکروسافت متا متاورس میدجورنی هوش مصنوعی هوش مصنوعی