تهدید واقعی که هوش مصنوعی برای ما ایجاد می‌کند، ناشی از سوءاستفاده گسترده است
برندن دیکسن

۲۴ اکتبر ۲۰۲۵[۱]

آوریل امسال، نوجوانی به نام آدام رِین[۲] خودکشی کرد. و این کار را با تشویق چت‌جی‌پ‌تی[۳] انجام داد. در فوریه‌ی امسال، نوجوان دیگری به نام الایجا هیکاک[۴] نیز خودکشی کرد. این بار او قربانی یک کلاهبرداری اخاذی جنسی با استفاده از تصاویر جعلی تولیدشده توسط هوش مصنوعی شد. فناوری‌های تولیدگر هوش مصنوعی[۵] به‌تدریج در نظام‌های رسمی نیز نفوذ پیدا کرده‌اند — و گاه با پیامدهای جدی همراه هستند.

ژانویه‌ی ۲۰۲۰، پلیس دیترویت[۶] رابرت ویلیامز[۷] را جلوی همسر و دخترانش، به اشتباه دستگیر کرد. فناوری ناقص تشخیص چهره (که اساسا بر مبنای همان تکنولوژی‌های زیربنایی هوش مصنوعی تولیدگر متن عمل می‌کند) به غلط ویلیامز را به عنوان سارقی معرفی کرد که از یک فروشگاه لوکس ساعت دزدیده بود. وقتی پلیس فیلم‌های دوربین مداربسته را بررسی کرد، مشخص شد که ویلیامز سارق نبوده و او را آزاد کردند… البته بعد از آن‌که بیش از ۳۰ ساعت در سلول زندانی بود. بد نیست بدانید که ویلیامز یک سیاه‌پوست است.

آوریل امسال، فناوری تشخیص چهره، ترویس ویلیامز[۸] را به عنوان «فرد هنجارشکن»[۹] شناسایی کرد، این در حالی است که او در حقیقت ۲۰ سانتی‌متر بلندتر و ۳۲ کیلوگرم سنگین‌تر از مجرم حقیقی، و ۲۰ کیلومتر دورتر از صحنه‌ی ارتکاب جرم حضور داشته است. پس از آن‌که ویلیامز دو روز را در زندان سپری کرد، مقامات پرونده او را مختومه اعلام کردند. ترویس نیز سیاه‌پوست است. به نظر می‌رسد با نوعی الگو مواجه‌ایم.

در ماه مه، قاضی مایکل وایلنر[۱۰] در کالیفرنیا، دو موسسه حقوقی را به دلیل ارایه لوایح حقوقیِ تهیه‌شده با هوش مصنوعی (که حاوی ارجاعاتی به پرونده‌های غیرواقعی بودند) به پرداخت ۳۱ هزار دلار جریمه کرد. قاضی وایلنر این‌طور می‌نویسد: «من خلاصه دعوی آن‌ها را خواندم، و منابعی که به آن‌ها استناد کرده بودند مرا متقاعد کرد (یا دست‌کم کنجکاو ساخت) که به آن احکام قضایی مراجعه کنم تا بیشتر درباره‌شان بدانم -اما وقتی جست‌وجو کردم، فهمیدم که چنین پرونده‌هایی اصلا وجود ندارند. این ترسناک است. این موضوع تقریبا به نتیجه‌ای ترسناک‌تر (از دید من) منجر شد: این‌که نکند من مواد جعلی را در یک حکم قضایی وارد کنم.»

بانک‌ها با وجود سوگیری‌های درونی، از فناوری‌های تولیدگر هوش مصنوعی برای ارزیابی ریسک اعتباری استفاده می‌کنند. ادارات پلیس نیز از این مدل‌ها برای نوشتن گزارش‌ها بهره می‌برند؛ اسنادی کلیدی که عملا تعیین‌کننده‌ی ادامه‌ی روند قضایی هستند.

اکنون برای شرکت‌ها تقریبا به یک رویه‌ی رایج تبدیل شده است که رزومه‌ها را پیش از آن‌که به دست نیروهای انسانی برسند، از فیلترِ تحلیل هوش مصنوعی عبور دهند. لیل برینارد[۱۱]، عضو پیشین هیئت‌مدیره‌ی بانک مرکزی آمریکا، اشاره کرده است که تا سال ۲۰۱۹، سیستم‌های تحلیل رزومه با هوش مصنوعی از پیش «دچار سوگیری علیه متقاضیان زن بودند؛ تا جایی که حتی رزومه‌های فارغ‌التحصیلان دو کالج مخصوص زنان را به‌طور کامل کنار می‌گذاشتند.»

می‌توانم این نمونه‌ها را ادامه بدهم. یک جست‌وجوی ساده در وب نمونه‌های بسیار بیشتری از سوءاستفاده و کاربردهای نادرست را نشان می‌دهد. به دنیای جادوییِ آینده‌ی شگفت‌انگیزِ هوش مصنوعی خوش آمدید!

باور کورکورانه

این‌ها همان نوع مسائلی هستند که الیزر یودکوفسکی[۱۲] و نیت سوآرِز[۱۳] در مقاله‌شان با عنوان اگر کسی آن را بسازد[۱۴] نادیده می‌گیرند؛ و به‌جای آن، درگیر نگرانی‌های بی‌پشتوانه و نادرست درباره‌ی «هوش مصنوعی همگانی»[۱۵] یا «ابرهوش مصنوعی»[۱۶] می‌شوند. هیچ‌کس واقعا نمی‌داند این اصطلاح‌ها دقیقا به چه معنا هستند، و هیچ‌کس نمی‌داند اگر چنین چیزی قرار باشد پدید آید، چه زمانی رخ خواهد داد یا آیا اصلا رخ خواهد داد. نویسندگان مانند شعبده‌بازانی هستند که توجه ما را به سمتی منحرف می‌کنند، در حالی که اتفاق واقعی جای دیگری در حال رخ دادن است. آن‌ها از ما می‌خواهند نگران آینده‌ای خیالی باشیم، در حالی که آسیبی که همین‌جا و همین الان به انسان‌های واقعی وارد می‌شود، نادیده گرفته می‌شود.

من فکر نمی‌کنم یودکوفسکی و سوآرز عمدا در پی فریب ما باشند؛ آن‌ها واقعا به این چیزها باور دارند. سوآرِز حتی از این که به حساب بازنشستگی‌اش هم مبلغی واریز کند دست کشیده، چون به گفته‌ی خودش: «انتظار ندارم دنیا تا آن زمان باقی بماند.» من فکر می‌کنم آن‌ها فریب‌ باورشان را خورده‌اند.

هوش مصنوعی یک ابزار است؛ نه بیشتر. این فناوری جادو نیست (حتی اگر ندانیم دقیقا چه چیزی در لایه‌های درونی این مدل ]هوش مصنوعی[ باعث شده به چنین خروجی‌ای برسد). مثل هر ابزار دیگری، اگر درست استفاده شود، می‌تواند سودمند باشد. اما اگر بدون تفکر یا از سرِ باورِ کورکورانه به کار گرفته شود، می‌تواند آسیب‌های جدی ایجاد کند؛ کما این که تا این لحظه نیز این اتفاق افتاده است. پدر و مادر آدام رِین هر روز با این واقعیت زندگی می‌کنند.

حتی معلوم نیست که فناوری‌های تولیدگر هوش مصنوعی، با توجه به هزینه‌ی هنگفت ایجاد مراکز داده‌ی عظیم، بتواند از نظر اقتصادی خودش را تامین کند. ممکن است همه‌چیز فرو بپاشد. شاید هم چنین اتفاقی نیفتد. حال، بهترین پاسخی که می‌توانیم به این وضعیت بدهیم چیست؟ نه فقط به نگرانی نویسندگان درباره‌ی نابودی قریب‌الوقوع توسط یک ابرهوش مصنوعی، بلکه به گسترش فراگیر کاربردهای هوش مصنوعی؟ اجازه بدهید چند توصیه کنم.

فناوری باید در خدمت انسان باشد، نه علیه او

نخست این‌که کاربرد درست فناوری، ما را انسان‌های بهتری می‌کند؛ نه این‌که ما را حذف کند. تمایل ما در رسیدن به بازدهی بالا در همه چیز و نگاه تحقیرآمیز به انسان که در سیلیکون‌ولی[۱۷] رواج دارد، موتور محرکِ ساخت فناوری‌هایی است که قرار است جایگزین انسان شوند. آدام بکر[۱۸] در کتاب همه‌چیز، بیشتر و برای همیشه[۱۹] (۲۰۲۵) نگرش نخبگان فناوری را این‌طور جمع‌بندی می‌کند:

«آن‌ها برای خودشان نوعی فلسفه و ایدئولوژی ساخته‌اند درباره‌ی این‌که جهان چگونه کار می‌کند؛ چیزی شبیه یک باور شبه‌مذهبی درباره‌ی سازوکار جهان؛ با این تفاوت که این دیدگاه بر پایه‌ی اطلاعات بسیار اندکی از واقعیت بنا شده است. هیچ پشتوانه‌ی علمی محکمی هم برایش وجود ندارد، و حتی شواهد علمی فراوانی خلاف آن است. بااین‌حال آن‌ها به این رهیافت چسبیده‌اند؛ رهیافتی که به نحوی قانع‌شان می‌کند که منافع شخصی‌شان دقیقا با منافع بشریت همسوست، در حالی که چنین نیست. پس مدام ادعا می‌کنند که دارند جهان را نجات می‌دهند (همان‌طور که ایلان ماسک مدام می‌گوید هدفش نجات جهان است) اما در واقع آنچه انجام می‌دهد، پر کردن جیب خودشان است.»

به‌جای آن‌که فریب وعده‌های منفعت‌طلبانه‌ی مدیران سیلیکون‌ولی را بخوریم، باید فناوری (ازجمله هوش مصنوعی) را به‌گونه‌ای توسعه دهیم و با آن کار کنیم که انسان و کیفیت زندگی او را بهبود دهد.

در طرفداری از بشریت سخن بگوییم

 «آشنایی زیاد (با کسی) موجب کوچک‌پنداری (او) می‌شود.» هرچه به چیزی بیشتر خو بگیریم، کمتر ارزشش را می‌بینیم؛ از جمله همان چهره‌ای که هر صبح در آینه با آن روبه‌رو می‌شویم.

انسان موجودی شگفت‌انگیز است. برخلاف سامانه‌های هوش مصنوعی که «باید» برای کاربردی مشخص تنظیم شوند، هر انسان «به تنهایی» می‌تواند با دامنه‌ای حیرت‌انگیز از چالش‌ها روبه‌رو شود. شاید در هر حوزه بهترین یا متخصص نباشیم، اما توانایی داریم بی‌وقفه فعالیت‌های بی‌شمار (حتی فعالیت‌های کاملا تازه) را انجام دهیم و در چند عرصه به مهارت برسیم. در حالی که سیلیکون‌ولی تنها زمانی هیجان‌زده می‌شود که روباتی صرفا بتواند اشیایی را از جایی به جای دیگر منتقل کند.

فناوری‌های تولیدگر هوش مصنوعی، ابزارهای تشخیص مبتنی بر هوش مصنوعی، روبات‌ها و رانندگیِ یاری‌گرفته از هوش مصنوعی، «واقعا» ظاهر و حسی شبیه داستان‌های علمی‌تخیلی دارند. آن‌ها کارهایی «شبیه» انسان انجام می‌دهند. اما از بسیاری توانایی‌هایی که برای ما بدیهی‌اند، بی‌بهره‌اند. مثلا همین امروز صبح انگشتم را بریدم؛ چیز مهمی نبود، فقط یک بریدگی جزئی. باندپیچی‌اش کردم و به کارهایم ادامه دادم. چرا؟ چون بدنم خودش را ترمیم می‌کند. دستم را بعد از صبحانه، موقع تمیزکردن آشپزخانه بریدم؛ به بیان دیگر در حال تامین «انرژی» خودم بودم؛ بی‌نیاز از سیم و باتری.

ساکنان دنیای فناوری در سیلیکون‌ولی می‌گویند مغز ما نسبت به رایانه‌ها به‌طرز دردناکی کند است. اما نه‌تنها تحقیقات نشان می‌دهد مغز دست بالا را دارد، بلکه حتی معلوم نیست چنین مقایسه‌ای معنی‌دار باشد. همین مغز انسان بود که ریاضیات را ابداع کرد، سخت‌افزار را ساخت و الگوریتم‌هایی را طراحی کرد که هوش مصنوعی بر پایه‌ی آن‌ها کار می‌کند. باید زمان بیشتری را صرف قدردانی از شگفتی انسان (و تمامی زیست‌کره‌) کنیم، نه این‌که بی‌فکر مجذوب اسباب‌بازی‌های براق تازه‌ای شویم که هوشمند «به نظر می‌رسند».

ترمیناتور را فراموش کنید او قرار نیست بیاید

اگر جای نیت سوآرِز بودم، بی‌درنگ دوباره سرمایه‌گذاری در حساب بازنشستگی‌ام را از سر می‌گرفتم. هیچ هوش مصنوعیِ اَبَرهوشمندی قرار نیست کل بشریت را نابود کند. اما تا زمانی که این ابزارها را بدون توجه به محدودیت‌ها و در کاربردهای نادرست به کار بگیریم، همیشه این خطر هست که خودمان را به دردسر بیندازیم؛ خطری که درباره‌ی هر ابزار دیگری که ساخته‌ایم هم وجود داشته است. باید هوشیار بمانیم و اجازه ندهیم دل‌مشغولی‌های خیالی‌ای که یودکوفسکی و سوآرِز ساخته‌اند ذهن ما را منحرف کند. انتخاب با ماست و آینده نیز از آنِ ما خواهد بود.

در ادامه، سه بخش نخست از بررسی من درباره‌ی استدلال‌های این کتاب تازه و اندیشه‌برانگیز آمده است:

۱. ترس از ترمیناتور و نادیده‌گرفتن امر بدیهی: در بخش نخستِ مرور کتاب جدید درباره‌ی فاجعه‌ی هوش‌مصنوعی با عنوان  اگر کسی آن را بسازد، همه می‌میرند، ]که بالاتر به آن اشاره شد[ بررسی می‌کنیم که نویسندگان این کتاب، چگونه ایده‌ی اصلی خود را شکل دادند. تا سال ۲۰۲۰، یودکوفسکی و سوآرِز عملا به «آخرالزمان‌باورانِ هوش مصنوعی» بدل شده بودند، اما موفقیت سریع ChatGPT و مدل‌های مشابه، نگرانی‌های آنان را به‌مراتب تشدید کرد.

۲. ترس از ترمیناتور: آیا فناوریِ کنونی این پیش‌گویی‌های فاجعه‌محور را توجیه می‌کند؟ اگر مردم دریابند که برنامه‌های تولید متن نه‌تنها نمی‌اندیشند، بلکه اساسا نمی‌توانند بیندیشند، نگرانی‌ها کمتر خواهد شد. خلاصه‌ی بحث این است: هوش‌های مصنوعی تولیدگر متن «معنا» را دریافت نمی‌کنند؛ آن‌ها تنها الگوهای رابطه‌ای را ثبت می‌کنند که به‌اندازه‌ی کافی شبیه معنا هستند تا کارکرد عملی داشته باشند.

۳. آیا یک هوش مصنوعی واقعا می‌تواند ذهن مستقل پیدا کند؟ به‌طور مشخص، آیا AI می‌تواند ذهنی با اهداف و خواسته‌های خود، و توانایی طرح‌ریزی و راهبردسازی ایجاد کند؛ آن‌گونه که نویسندگان اگر کسی آن را بسازد باور دارند؟ حتی اگر یک دیدگاه کاملا ماده‌باورانه درباره‌ی ذهن را بپذیریم، به‌نظر من می‌توان نشان داد که ماشین قادر نیست ذهنی مستقل پدید آورد.

 

برندن دیکسون معمار نرم‌افزار است و تجربه‌ی طراحی، ساخت و مدیریت پروژه‌هایی در مقیاس‌های مختلف را دارد. نخستین تجربه‌ی او در حوزه‌ی هوش مصنوعی به دهه‌ی ۱۹۸۰ بازمی‌گردد، زمانی که یک سیستم خبره برای کمک به تشخیص مشکلات نرم‌افزاری در IBM طراحی کرد. از آن زمان، او به‌عنوان مهندس ارشد و مدیر توسعه در شرکت‌های پیشرویی مانند مایکروسافت و آمازون، و نیز در استارتاپ‌های متعدد فعالیت داشته است. با آن‌که بخش عمده‌ی فعالیت‌های حرفه‌ای او در زمینه‌ی دیگر انواع نرم‌افزار بوده، اما پیوند او با حوزه‌ی هوش مصنوعی همواره پابرجا مانده و همچنان از علاقه‌مندان جدی این عرصه است.

 

منبع:

The Real Threat AI Poses to Us Is Created by Widespread Abuse

[۱] این متن با کمک هوش مصنوعی (GPT-5) ترجمه و توسط تحریریه سایت بازبینی‌ و ویرایش نهایی شده است.

[۲] Adam Raine

[۳] ChatGPT

[۴] Elijah Heacock

[۵] Gen AI

[۶] Detroit Police

[۷] Robert Williams

[۸] Trevis Williams

[۹]  flasher، به اصطلاح کسی که عمل منافی عفت انجام داده باشد. م.

[۱۰] Michael Wilner

[۱۱] Lael Brainard

[۱۲] Eliezer Yudkowsky

[۱۳] Nate Soares

[۱۴] If Anyone Builds it

[۱۵] artificial general intelligence

[۱۶] artificial super intelligence

Silicon Valley[۱۷]، سیلیکون ولی، به معنی دره‌ی سیلیکون، نام رایج و غیررسمی منطقه‌ای در جنوب شرقی سانفرانسیسکو، کالیفرنیا، آمریکا است. شهرت این منطقه به دلیل قرار داشتن بسیاری از شرکت‌های مطرح انفورماتیک جهان در این منطقه است. نام این منطقه نخست برگرفته از شمار بالای شرکت های تولیدکننده‌ی تراشه‌های سیلیسیمی در این منطقه بود که سپس به نمادی از وجود شرکت‌های بسیار فعال در زمینه فناوری‌های پیشرفته در این منطقه تبدیل شد.

[۱۸] Adam Becker

[۱۹] More of Everything Forever

مطالب مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا