چت جیپیتی نمیتواند فکر کند، هوشیاری چیزی کاملاً متفاوت با هوش مصنوعی امروزی استفیلیپ گاف/ ترجمه: پگاه جمشیدی
سرعت پیشرفت سریع چت جیپیتی[۱] و دیگر هوش مصنوعی[۲] ایجاد شده با آنچه به عنوان مدلهای زبان بزرگ (LLMs)[۳] شناخته می شود، در سراسر جهان موضوعی شوکه کننده شده است. این سیستمها میتوانند متن تولید کنند و به نظر میرسد میتوانند تفکر، درک و حتی خلاقیت را نمایش دهند.
اما آیا این سیستمها واقعا میتوانند فکر کنند و بفهمند؟ این سوالی نیست که بتوان از طریق پیشرفت تکنولوژی به آن پاسخ داد، اما تحلیل و استدلال دقیق فلسفی به ما میگوید که پاسخ منفی است. بدون بررسی این مسایل فلسفی ما هرگز به طور کامل خطرات و مزایای انقلاب هوش مصنوعی را درک نخواهیم کرد.
در سال ۱۹۵۰، پدر محاسبات مدرن، آلن تورینگ[۴]، در مقالهای که منتشر کرد روشی را برای تعیین اینکه آیا کامپیوتر فکر میکند یا نه، ارایه داد. این موضوع در حال حاضر «آزمون تورینگ» نامیده میشود. تورینگ انسانی را تصور کرد که در حال مکالمه با دو همکار پنهان از دیدگان است: یکی انسان و دیگری کامپیوتر. این بازی برای این است که روشن کند موضوع از چه قرار است.
اگر رایانهای بتواند ۷۰ درصد از قضاوتها را در یک مکالمهی ۵ دقیقهای فریب دهد بهطوری که مخاطب فکر کند او انسان است، رایانه آزمون را با موفقیت پشت سر گذاشته است. آیا قبولی در آزمون تورینگ -چیزی که اکنون قریب الوقوع به نظر می رسد- نشان می دهد که هوش مصنوعی به فکرکردن و درک دست یافته است؟
چالش شطرنج
تورینگ این پرسش را بهعنوان سوالی گیج و ناامیدکننده رد کرد و به جای آن تعریفی عملگرایانه از «فکرکردن»[۵] را پیش کشید؛ تعریفی که به موجب آن «فکرکردن» به معنای قبولی در آزمون محسوب میشود.
با این حال، تورینگ در اشتباه بود زیرا معتقد بود تنها مفهوم روشن «ادراک»[۶]، مفهوم صرفا رفتارگرایانهی گذراندن آزمون او است. گرچه این شیوهی تفکر اکنون بر علوم شناختی غالب است، اما یک مفهوم واضح و روزمره از «درک» نیز وجود دارد که با هوشیاری[۷] گره خورده است. درک به این معنا به معنای درک آگاهانهی یک حقیقت در مورد واقعیت است.
در سال ۱۹۹۷، هوش مصنوعی دیپ بلو[۸] ( ابر رایانهای شطرنج باز)، گری کاسپاروف[۹] استاد بزرگ شطرنج را شکست داد. در یک مفهوم صرفا رفتاری از درک، دیپ بلو دانشی از استراتژی شطرنج داشت که از هر انسانی پیشی گرفت. این دانش اما آگاهانه نبود: هیچ احساس یا تجربهای نداشت.
انسانها آگاهانه قوانین شطرنج و منطق یک استراتژی را درک میکنند. در مقابل، دیپ بلو مکانیزمی بی احساس بود که برای عملکرد خوب در بازی آموزش دیده بود.
به همین ترتیب، چت جیپیتی مکانیزم بیاحساسی است که با مقادیر عظیمی از دادههای ساختهشدهی انسان آموزش داده شده تا محتوایی تولید کند که به نظر برسد یک شخص آن را نوشته است.
چت جیپیتی به شکلی آگاهانه معنای کلماتی را که بیرون میدهد درک نمیکند. اگر «فکر» به معنای عمل بازتاب آگاهانه باشد، چت جیپیتی هیچ فکری در مورد چیزی ندارد.
زمان پرداخت تاوان ادعا
چهگونه میتوانم مطمئن باشم که چت جیپیتی هوشیار نیست؟ در دههی ۱۹۹۰، کریستف کخ[۱۰] عصبشناس با دیوید چالمرز[۱۱] فیلسوف روی یک جعبه شراب خوب شرط بست که دانشمندان طی ۲۵ سال آینده «همبستگیهای عصبی هوشیاری» را به طورکامل کشف میکنند یا نه.
منظور او این بود که دانشمندان ظرف ۲۵ سال آینده اشکال فعالیت مغزی لازم و کافی را برای تجربهی آگاهانه شناسایی خواهند کرد. زمان آن فرا رسیده است که کخ تاوان ادعای خود را پرداخت کند، زیرا اتفاق نظر وجود ندارد که این اتفاق افتاده باشد.
این موضوع به این دلیل است که هوشیاری را نمیتوان با نگاه کردن به داخل سر مشاهده کرد. دانشمندان علوم اعصاب در تلاشهای خود برای یافتن ارتباط بین فعالیت مغز و تجربه، باید بر شهادت آزمودنیهای خود یا بر نشانگرهای بیرونی هوشیاری تکیه کنند. با این حال روش های مختلفی برای تفسیر داده ها وجود دارد.
برخی از دانشمندان بر این باورند که ارتباط نزدیکی بین هوشیاری و شناخت بازتابی، یعنی توانایی مغز برای دسترسی و استفاده از اطلاعات برای تصمیمگیری، وجود دارد. این موضوع باعث میشود آنها فکر کنند که قشر جلو مغز -جایی که فرایندهای سطح بالای کسب دانش در آن انجام میشود- اساسا در تمام تجربیات آگاهانه دخالت دارد. دیگران این را انکار میکنند و در مقابل استدلال میکنند که این رخداد در هر منطقهی محلی مغز که پردازش حسی مربوطه انجام میشود، اتفاق میافتد.
دانشمندان درک خوبی از شیمی اساسی مغز دارند. ما همچنین در درک عملکردهای سطح بالای بخشهای مختلف مغز پیشرفت کردهایم اما تقریبا در مورد ربط این دو بیاطلاع هستیم: این که چهگونه عملکرد سطح بالای مغز در سطح سلولی تحقق مییابد.
مردم در مورد پتانسیل اسکن برای آشکار کردن عملکرد مغز بسیار هیجان زده می شوند. اما fMRI (تصویرسازی تشدید مغناطیسی کارکردی) وضوح بسیار پایینی دارد: هر پیکسل در اسکن مغز با ۵/۵ میلیون نورون مطابقت دارد، به این معنا که برای جزییات این اسکنها محدودیتی وجود دارد. من معتقدم پیشرفت در هوشیاری زمانی حاصل خواهد شد که نحوهی عملکرد مغز را بهتر درک کنیم.
مکث در توسعه
هوشیاری باید تکامل یافته باشد زیرا تفاوت رفتاری ایجاد کرده است. سیستمهای دارای هوشیاری باید متفاوت رفتار کنند و بنابراین بهتر از سیستمهای بدون هوشیاری زنده میمانند.
اگر همهی رفتارها را شیمی و فیزیک اساسی تعیین میکرد، انتخاب طبیعی هیچ انگیزهای برای آگاه کردن موجودات نداشت و ما میتوانستیم به عنوان مکانیسمهای بقای بیاحساس تکامل یافته باشیم.
بنابراین، شرط من این است که با یادگیری بیشتر در مورد جزییات عملکرد مغز، دقیقا تشخیص خواهیم داد که کدام بخش از مغز تجسم هوشیاری است. این به این دلیل است که آن مناطق، رفتاری از خود نشان خواهند داد که با شیمی و فیزیک شناخته شده فعلی قابل توضیح نیست. در حال حاضر، برخی دانشمندان علوم اعصاب به دنبال توضیحات جدید بالقوه برای هوشیاری هستند تا با معادلات اساسی فیزیک تلفیق شوند.
در حالی که پردازش LLMها اکنون برای ما پیچیدهتر از آن است که بتوانیم آنها را به طور کامل درک کنیم، میدانیم که در اصل میتوان آن را از فیزیک شناخته شده پیشبینی کرد. بر این اساس، میتوانیم با اطمینان ادعا کنیم که چت جی بی تی آگاه نیست.
هوش مصنوعی خطرات زیادی به همراه دارد و من کاملا از فراخوان اخیر ده ها هزار نفر از جمله رهبران فناوری استیو وزنیاک[۱۲] و ایلان ماسک برای توقف توسعه با هدف رفع نگرانیهای ایمنی حمایت میکنم. برای مثال، ظرفیت تقلب بسیار زیاد است. با این حال، این استدلال که فرزندان سیستمهای هوش مصنوعی فعلی فوقالعاده هوشمند خواهند بود و از این رو تهدیدی بزرگ برای بشریت خواهند بود، خام است.
این بدان معنا نیست که سیستمهای هوش مصنوعی فعلی خطرناک نیستند اما ما نمیتوانیم یک تهدید را به درستی ارزیابی کنیم مگر اینکه آن را به طور دقیق دستهبندی کنیم. LLM ها باهوش نیستند؛ آنها سیستمهایی هستند که برای نشان دادن ظاهر هوش انسانی آموزش دیدهاند. ترسناک است، اما آن قدرها ترسناک نیست.
منبع:
[۱] ChatGPT
[۲] artificial intelligence
[۳] Large language models (LLMs)
[۴] Alan Turing
[۵] thought
[۶] understanding
[۷] consciousness
[۸] Deep Blue
[۹] Garry Kasparov
[۱۰] Christof Koch
[۱۱] David Chalmers
[۱۲] Steve Wozniak