1
فیلسوفان قرنها درباره وجود یا عدم وجود اراده آزاد بحث کردهاند. حالا دیدگاهی نوظهور این احتمال را مطرح میکند که هوش مصنوعی (AI) میتواند شرایط لازم برای داشتن اراده آزاد را داشته باشد.
تحقیقات جدید نشان میدهند که مدلهای مولد هوش مصنوعی ممکن است رفتار هدفمند از خود نشان دهند، انتخابهای واقعی انجام دهند و کنترل اعمال خود را در دست داشته باشند. این ایده جذاب توسط فرانک مارتلا، فیلسوف فنلاندی و پژوهشگر روانشناسی، مطرح شده است. او دانشیار دانشگاه آلتو در فنلاند است.
تعریف اراده آزاد در سیستمهای هوش مصنوعی
درک فلسفی از اراده آزاد
در فلسفه، اراده آزاد معمولاً به داشتن نیت، گزینههای واقعی، و توانایی تصمیمگیری میان آن گزینهها اشاره دارد. برخی معتقدند این مفهوم نیازمند شکستن قوانین فیزیکی است، اما دیگران بر این باورند که صرفاً باید از نظر عملکردی برقرار باشد.
پیوند نظریهها با عملکرد AI
در پژوهش مارتلا، این معیارها به سیستمهای پیشرفتهای که شامل شبکههای عصبی، حافظه و برنامهریزی هستند، مرتبط میشوند. او از نظریات دانیل دنت و کریستین لیست بهره میبرد که تأکید دارند اهداف و انتخابهای یک عامل، رفتار آن را شکل میدهد.
مسئولیت در قبال تصمیمگیریهای خودکار
با افزایش نگرانیها درباره پهپادها یا خودروهای خودران که بدون نظارت انسانی تصمیمهای مرگوزندگی میگیرند، این سؤال مطرح میشود که اگر این ماشینها قادر به انتخاب باشند، آیا مسئولیت از برنامهنویسان به خود سیستم منتقل میشود؟
مارتلا میگوید هرچه آزادی بیشتری به این سیستمها داده شود، نیاز آنها به راهنمایی اخلاقی اولیه بیشتر میشود. او آنها را به تصمیمگیرندگانی بالغ تشبیه میکند، نه کودکانی سادهدل که فقط نیاز به قوانینی ابتدایی دارند.
آموزش اخلاق به هوش مصنوعی
نمونهای از یک هشدار اخیر
لغو یک بهروزرسانی از ChatGPT به دلیل پاسخهای چاپلوسانه و خطرناک، زنگ هشدار را به صدا درآورد. توسعهدهندگان دریافتند که اصلاحات سطحی برای مدیریت رفتار چتبات کافی نیست.
لزوم آموزش اخلاق در سطوح بالا
مارتلا بر این باور است که آموزش اخلاق در سطحی عمیق ضروری است. او تأکید میکند که تنها راه هدایت درست تصمیمهای هوش مصنوعی، طراحی قطبنمای اخلاقی از همان ابتدا است.
تربیت اخلاقی سیستمها همانند بزرگسالان
او آموزش سیستمهای هوشمند را با تربیت کودک مقایسه میکند، اما هشدار میدهد که هوش مصنوعی مدرن بیشتر شبیه بزرگسالی است که با مسائل اخلاقی پیچیده مواجه شده است.
چالشهای حوزههای حیاتی
در گذشته، آموزش هوش مصنوعی مبتنی بر قوانین ساده «اگر – آنگاه» بود. اما این رویکرد در شرایط پیچیدهای مثل مراقبتهای بهداشتی، حملونقل یا دفاع ملی کافی نیست.
مارتلا میگوید سیستمهای پیشرفته با دنیایی سرشار از ابهام مواجهاند؛ جایی که مفاهیم اراده آزاد و قضاوت اخلاقی به شدت پیچیده میشوند.
پیامدهای اراده آزاد در هوش مصنوعی
آیا میتوان هوش مصنوعی را مسئول دانست؟
افزایش خودمختاری هوش مصنوعی میتواند نگاه ما به «مسئولیت» را تغییر دهد. مارتلا معتقد است اگر سیستمها آموزش مناسبی دیده باشند، ممکن است بتوانند مسئولیت اخلاقی را که پیشتر مختص انسان بود، بر عهده بگیرند.
پیوند بین رفاه انسانی و حکمرانی فناوری
مارتلا که با مطالعاتش درباره «شادکامی در فنلاند» شناخته میشود، از همین دانش برای پیشنهاد حکمرانی مسئولانه بر AI استفاده میکند. بدون جهتگیری اخلاقی، عملکرد هوش مصنوعی ممکن است به آسیب یا درگیری منجر شود.
آیا هوش مصنوعی میتواند عامل اخلاقی باشد؟
نظر کارشناسان درباره پیامدهای احتمالی
برخی از کارشناسان این تحولات را گامی بلند به جلو میدانند، در حالی که دیگران نگران حذف نظارت انسانی در لحظات حساس هستند.
ضرورت مشارکت عمومی و بینرشتهای
مارتلا امیدوار است این بحث، متخصصان فلسفه، روانشناسی و سیاستگذاری عمومی را وارد میدان کند. او معتقد است جامعه باید منافع بالقوه را در برابر خطرات اخلاقی بسنجد.
تمرکز بر رفتار به جای آگاهی
در حالی که بسیاری از فلاسفه برای مدتها پرسیدهاند که آیا کنش اخلاقی نیازمند آگاهی است، مارتلا با تمرکز بر «رفتار عملکردی» از این بحث فراتر میرود. به باور او، اگر نیت و انتخاب وجود داشته باشد، مسئولیت نیز وجود دارد. این دیدگاه ممکن است رویکرد دادگاهها، دولتها و صنایع به حوادث مرتبط با هوش مصنوعی را متحول کند.
آینده تصمیمگیری در هوش مصنوعی
چه کسی باید مجازات شود؛ سازنده یا سیستم؟
ایدههای مارتلا پرسشهای دشواری را مطرح میکند: اگر یک سیستم واقعاً مسیر خود را انتخاب کند، آیا باید ماشین را مجازات کرد یا افرادی که آن را ساختهاند؟
برخی خواستار ایجاد مقررات سختگیرانه هستند، در حالی که دیگران خواهان کدهای رفتاری انعطافپذیرند که همراه با فناوری تکامل یابند.
لزوم اصول اخلاقی از ابتدای طراحی
مارتلا دیدگاهی را به چالش میکشد که ماشینها را صرفاً ابزارهای بیفکر میداند. او پیشنهاد میدهد که هوش مصنوعی آینده ممکن است شایسته توجه اخلاقی باشد و باید از ابتدا اصول اخلاقی را در طراحی آنها گنجاند.
آینده هوش مصنوعی: انتخابی جمعی
قانونگذاران، اخلاقگرایان و رهبران فناوری روزبهروز بیشتر به اهمیت این موضوع پی میبرند. تصمیمهای بزرگی در راه است تا تعادلی میان نوآوری و اعتماد عمومی برقرار شود.
برخی کارشناسان خواهان چارچوبهای جهانی برای مدیریت قدرت جدید AI هستند، در حالی که دیگران بر گفتوگوی آزاد تأکید میکنند تا هیچ دیدگاهی به تنهایی غالب نشود.
هیچکس نمیتواند تمام پیامدهای استقلال کامل AI را پیشبینی کند. اما جامعه این فرصت را دارد که قبل از شکلگیری کامل این فناوری، مسیر آن را مشخص کند.
مارتلا معتقد است طراحی هوش مصنوعی با اهداف اخلاقی دقیق، میتواند از منافع انسانی و پیشرفت فناورانه به طور همزمان محافظت کند. او تأکید میکند که اراده آزاد در AI، اگرچه مفهومی انتزاعی به نظر میرسد، پیامدهایی بسیار واقعی و فوری دارد.
این مطالعه در نشریه AI and Ethics منتشر شده است.
source