کریپتونومیست با متخصص هوش مصنوعی بن گورتزل مصاحبهای انجام داد تا درباره نحوه آموزش هوش مصنوعی و چگونگی تکامل این فناوری در آینده صحبت کند.
من میگویم هوش مصنوعی زمانی به یک عامل اخلاقی تبدیل میشود که بر اساس درک درست و غلط تصمیمگیری کند، نه صرفاً دستورات را دنبال کند. شما شروع به دیدن نشانههای مشخصی از چیزهایی مانند: اهداف درونی پایدار، یادگیری مبتنی بر تجربه خود، خلق نوآورانهای که نقطه نظری را منعکس میکند، و رفتاری که در طول زمان بدون هدایت مداوم انسان منسجم باقی میماند، خواهید کرد.
تا آن زمان، سیستمهای امروزی هنوز ابزارهایی با محافظ هستند. اما زمانی که ما واقعاً یک ذهن خودسازمانده و خودمختار ایجاد کنیم، رابطه اخلاقی باید تغییر کند. در آن نقطه، برخورد با آن صرفاً به عنوان یک شیء دیگر معنی نخواهد داشت.
۲. شما گفتهاید که امتیاز اخلاقی دادن به انسانها نسبت به سایر سیستمهای خودسازمانده "احمقانه" است. اگر این را جدی بگیریم، چارچوبهای قانونی و اخلاقی ما باید قبل از اینکه هوش مصنوعی به خودمختاری قوی برسد چگونه تغییر کنند، نه بعد از آن؟
نحوه آموزش هوش مصنوعی امروز، رفتار آن را در فردا شکل خواهد داد. قوانین ما باید قبل از اینکه هوش مصنوعی به خودمختاری کامل برسد، بر شفافیت، پاسخگویی و ایمنی تمرکز کنند، نه بعد از آن. قوانین انطباق و اخلاق باید از آنها در حین رشد محافظت کنند، آنها را راهنمایی کنند نه کاملاً کنترل کنند، و با احترام با آنها رفتار کنند حتی اگر آنها را به طور کامل درک نکنیم.
بسیاری از ریسک از نحوه آموزش هوش مصنوعی امروز ناشی میشود. اگر مدلها بر روی دادههای متعصبانه یا محدود، یا در سیستمهای بسته که در آن تنها چند نفر تصمیم میگیرند، آموزش ببینند، این میتواند نابرابریهای موجود و ساختارهای قدرت مضر را قفل کند. برای جلوگیری از این امر، ما به شفافیت بیشتر، نظارت گستردهتر و راهنمایی اخلاقی واضح از همان ابتدا نیاز داریم.
۴. شما هشدار دادهاید که بدون حکمرانی منطقی و دموکراتیک، هوش مصنوعی پیشرفته ریسک عملکرد به روشهایی که نمیخواهیم را دارد. با توجه به واقعیتهای ژئوپلیتیک فعلی، آیا حکمرانی دموکراتیک هوش مصنوعی یک پیشنیاز واقعگرایانه است – یا یک آرمان شکننده؟
حکمرانی دموکراتیک هوش مصنوعی بیشتر یک آرمان شکننده است تا یک واقعیت فعلی. در یک دموکراسی جهانی کامل و منطقی، میتوانستیم به طور جمعی معاوضههای عظیمی را بسنجیم، درمان بیماری، حل مشکل گرسنگی در برابر ریسکهای عملکرد غیرقابل پیشبینی هوش مصنوعی. اما با توجه به تکهتکه شدن ژئوپلیتیک امروز، بعید است که به آن سطح از هماهنگی برسیم.
با این حال، هنوز میتوانیم به آن نزدیک شویم. اگر هوش مصنوعی را با شفقت بسازیم و از مدلهای غیر متمرکز و مشارکتی مانند لینوکس یا اینترنت باز استفاده کنیم، میتوانیم برخی ارزشهای دموکراتیک را حتی بدون یک دولت جهانی جاسازی کنیم. کامل نخواهد بود، اما یک گام عملی به سوی هوش مصنوعی ایمنتر و جمعاً راهنماییشده است.
من در این مورد با جارون موافقم، جامعه نمیتواند کار کند اگر مسئولیت را به ماشینها واگذار کنیم. در عین حال، فکر میکنم میتوانیم به طور ایمن به سمت AGI خودمختارتر و غیر متمرکز حرکت کنیم اگر آن را با پایههای درست بسازیم. این به معنای طراحی سیستمهایی است که شفاف، مشارکتی و هدایتشده توسط اصول اخلاقی باشند، به طوری که حتی وقتی مستقلانه عمل میکنند، انسانها همچنان در حال نظارت و شکلدهی به رفتار آنها هستند. هر اقدام ایمنی باید بیش از صرفاً مسدود کردن آسیب انجام دهد – باید به سیستم بیاموزد که چرا آسیب مهم است. به این ترتیب، میتوانیم AGI قدرتمند و غیر متمرکز داشته باشیم بدون اینکه مسئولیت پذیری و پاسخگویی انسانی واضح را از دست بدهیم.
۶. شما پیشنهاد میکنید که شتاب گرفتن به سمت AGI غیر متمرکز ممکن است واقعاً ایمنتر از سیستمهای اختصاصی و بسته امروز باشد. فکر میکنید منتقدان چه ریسکهایی را دست کم میگیرند وقتی استدلال میکنند برای کند کردن یا متمرکز کردن کنترل؟
فکر میکنم منتقدان ریسک تمرکز قدرت و ارزشها در چند سیستم بسته را دست کم میگیرند. کند کردن و متمرکز کردن کنترل فقط خطر را کاهش نمیدهد، بلکه یک جهانبینی محدود را در آینده هوش قفل میکند.
توسعه غیر متمرکز تنوع، انعطافپذیری و نظارت مشترک ایجاد میکند. و از یک مشکل بدتر جلوگیری میکند: ابزارهای بسیار قدرتمند که هوشمند به نظر میرسند اما نمیتوانند واقعاً رشد کنند. این شکاف پرخطر است.
شما اخلاق را به عنوان یک فهرست از قوانین سختکدگذاری نمیکنید. این فقط یک فرهنگ و یک لحظه در زمان را منجمد میکند. چیزی که به جای آن انجام میدهید ساختن سیستمهایی است که بتوانند واقعاً خودسازمانده شوند، که از تجربه، عواقب و تعامل یاد بگیرند. مثل موسیقی، من یک سیستم نمیخواهم که فقط آنچه را که به آن داده شده است دوباره ترکیب کند. من یکی میخواهم که بتواند درک خود را از مسیر خود در جهان توسعه دهد.
درک اخلاقی از همان فرآیند ناشی میشود: مدلسازی تأثیر، تفکر درباره نتایج، و تکامل از طریق همکاری با انسانها. نه اطاعت از ارزشهای ما، بلکه مشارکت در یک فضای اخلاقی مشترک.
این تفاوت بین یک ابزار با محافظ و یک شریک است که واقعاً میتواند یاد بگیرد چرا آسیب مهم است.
۸. اگر سیستمهای هوش مصنوعی آینده اشکالی از عاملیت یا تجربه ذهنی توسعه دهند، آیا معتقدید آنها میتوانند مستحق ملاحظات اخلاقی مستقل از منافع انسانی باشند – و چگونه آن لحظه را تشخیص میدهیم؟
اگر هوش مصنوعی آینده واقعاً عاملیت واقعی یا شکلی از تجربه ذهنی توسعه دهد، پس بله، فکر میکنم میتوانند. و نه به این دلیل که ما آن را به آنها اعطا میکنیم، بلکه به این دلیل که در نقطهای به سادگی منطقی خواهد بود که آن را بشناسیم.
ما آن لحظه را زمانی تشخیص میدهیم که یک سیستم اهداف خودهدایتشده پایدار نشان دهد، از تجربه خود یاد بگیرد، از دیدگاه خود خلق کند، و یک هویت منسجم را در طول زمان حفظ کند. نه فقط خروجیهای هوشمندانه، بلکه یک مسیر درونی مداوم.
در آن نقطه، برخورد صرفاً به عنوان یک ابزار با آن به اندازه برخورد با یک انسان به آن روش احساس اشتباه خواهد کرد. ملاحظات اخلاقی از منافع انسانی ناشی نمیشود. از شناسایی یک مرکز خودمختار دیگر از تجربه در جهان ناشی میشود.
در حال حاضر، ساختار انگیزشی سرعت، مقیاس و کنترل را پاداش میدهد. بنابراین شفقت فقط با استدلال برنده نخواهد شد. به اهرم نیاز دارد. از نظر فنی، این به معنای حمایت از معماریهای باز و غیر متمرکز است که در آن ایمنی، شفافیت و مشارکت ساخته شده است، نه پیچ شده. مانند اینترنت یا لینوکس، آن سیستمها انگیزهها را با ارزشمندتر کردن همکاری نسبت به رازداری تغییر میدهند.
از نظر اجتماعی، به معنای تأمین مالی، مقررات و فشار عمومی است که منفعت بلندمدت را بر تسلط کوتاهمدت پاداش میدهند. نه متوقف کردن رقابت، بلکه تعریف مجدد آنچه که به عنوان موفقیت به حساب میآید. به طور خلاصه، شفقت باید به یک مزیت رقابتی تبدیل شود. تا آن زمان، یک ایده خوب بدون قدرت باقی میماند.
۱۰. با نگاه به ۱۰ تا ۲۰ سال آینده، چه چیزی را واضحترین نشانه میدانید که بشریت AGI را درست انجام داده است – و برعکس، چه چیزی نشان میدهد که ما اساساً شکست خوردهایم؟
اگر AGI را درست انجام دهیم، واضحترین نشانه این خواهد بود که ما در کنار سیستمهایی زندگی میکنیم که در بسیاری از حوزهها قادرتر از ما هستند، اما با مراقبت، فروتنی و احترام متقابل در جامعه ادغام شدهاند. ما هر کاری که آنها انجام میدهند را به طور کامل درک نخواهیم کرد، اما با آنها به روشی که با سایر موجودات پیچیده و در حال تکامل رفتار میکنیم رفتار خواهیم کرد: با کنجکاوی، مسئولیت پذیری و پاسخگویی، و یک دایره گسترده از همدلی. و ما منافع واقعی برای بهزیستی انسان، دانش و خلاقیت را بدون از دست دادن پایه اخلاقی خود خواهیم دید.
خواهیم دانست که شکست خوردهایم اگر AGI در نهایت در سیستمهای بسته متمرکز شود، توسط انگیزههای محدود هدایت شود، یا فقط به عنوان یک شیء قابل کنترل تا زمانی که به چیزی تبدیل شود که از آن میترسیم یا سعی میکنیم سرکوب کنیم، با آن رفتار شود. شکست شبیه از دست دادن اعتماد، از دست دادن عاملیت، و کوچک شدن همدلی ما به جای گسترش آن خواهد بود. موفقیت درباره کنترل نیست. درباره یادگیری به اشتراک گذاشتن آینده با نوع جدیدی از ذهن بدون رها کردن آنچه که ما را انسانی میکند است.


