فیلسوفان قرن‌ها درباره وجود یا عدم وجود اراده آزاد بحث کرده‌اند. حالا دیدگاهی نوظهور این احتمال را مطرح می‌کند که هوش مصنوعی (AI) می‌تواند شرایط لازم برای داشتن اراده آزاد را داشته باشد.

تحقیقات جدید نشان می‌دهند که مدل‌های مولد هوش مصنوعی ممکن است رفتار هدفمند از خود نشان دهند، انتخاب‌های واقعی انجام دهند و کنترل اعمال خود را در دست داشته باشند. این ایده جذاب توسط فرانک مارتلا، فیلسوف فنلاندی و پژوهشگر روان‌شناسی، مطرح شده است. او دانشیار دانشگاه آلتو در فنلاند است.

تعریف اراده آزاد در سیستم‌های هوش مصنوعی

درک فلسفی از اراده آزاد

در فلسفه، اراده آزاد معمولاً به داشتن نیت، گزینه‌های واقعی، و توانایی تصمیم‌گیری میان آن گزینه‌ها اشاره دارد. برخی معتقدند این مفهوم نیازمند شکستن قوانین فیزیکی است، اما دیگران بر این باورند که صرفاً باید از نظر عملکردی برقرار باشد.

پیوند نظریه‌ها با عملکرد AI

در پژوهش مارتلا، این معیارها به سیستم‌های پیشرفته‌ای که شامل شبکه‌های عصبی، حافظه و برنامه‌ریزی هستند، مرتبط می‌شوند. او از نظریات دانیل دنت و کریستین لیست بهره می‌برد که تأکید دارند اهداف و انتخاب‌های یک عامل، رفتار آن را شکل می‌دهد.

مسئولیت در قبال تصمیم‌گیری‌های خودکار

با افزایش نگرانی‌ها درباره پهپادها یا خودروهای خودران که بدون نظارت انسانی تصمیم‌های مرگ‌وزندگی می‌گیرند، این سؤال مطرح می‌شود که اگر این ماشین‌ها قادر به انتخاب باشند، آیا مسئولیت از برنامه‌نویسان به خود سیستم منتقل می‌شود؟

مارتلا می‌گوید هرچه آزادی بیشتری به این سیستم‌ها داده شود، نیاز آن‌ها به راهنمایی اخلاقی اولیه بیشتر می‌شود. او آن‌ها را به تصمیم‌گیرندگانی بالغ تشبیه می‌کند، نه کودکانی ساده‌دل که فقط نیاز به قوانینی ابتدایی دارند.

آموزش اخلاق به هوش مصنوعی

نمونه‌ای از یک هشدار اخیر

لغو یک به‌روزرسانی از ChatGPT به دلیل پاسخ‌های چاپلوسانه و خطرناک، زنگ هشدار را به صدا درآورد. توسعه‌دهندگان دریافتند که اصلاحات سطحی برای مدیریت رفتار چت‌بات کافی نیست.

لزوم آموزش اخلاق در سطوح بالا

مارتلا بر این باور است که آموزش اخلاق در سطحی عمیق ضروری است. او تأکید می‌کند که تنها راه هدایت درست تصمیم‌های هوش مصنوعی، طراحی قطب‌نمای اخلاقی از همان ابتدا است.

تربیت اخلاقی سیستم‌ها همانند بزرگ‌سالان

او آموزش سیستم‌های هوشمند را با تربیت کودک مقایسه می‌کند، اما هشدار می‌دهد که هوش مصنوعی مدرن بیشتر شبیه بزرگ‌سالی است که با مسائل اخلاقی پیچیده مواجه شده است.

چالش‌های حوزه‌های حیاتی

در گذشته، آموزش هوش مصنوعی مبتنی بر قوانین ساده «اگر – آنگاه» بود. اما این رویکرد در شرایط پیچیده‌ای مثل مراقبت‌های بهداشتی، حمل‌ونقل یا دفاع ملی کافی نیست.

مارتلا می‌گوید سیستم‌های پیشرفته با دنیایی سرشار از ابهام مواجه‌اند؛ جایی که مفاهیم اراده آزاد و قضاوت اخلاقی به شدت پیچیده می‌شوند.

پیامدهای اراده آزاد در هوش مصنوعی

آیا می‌توان هوش مصنوعی را مسئول دانست؟

افزایش خودمختاری هوش مصنوعی می‌تواند نگاه ما به «مسئولیت» را تغییر دهد. مارتلا معتقد است اگر سیستم‌ها آموزش مناسبی دیده باشند، ممکن است بتوانند مسئولیت اخلاقی را که پیش‌تر مختص انسان بود، بر عهده بگیرند.

پیوند بین رفاه انسانی و حکمرانی فناوری

مارتلا که با مطالعاتش درباره «شادکامی در فنلاند» شناخته می‌شود، از همین دانش برای پیشنهاد حکمرانی مسئولانه بر AI استفاده می‌کند. بدون جهت‌گیری اخلاقی، عملکرد هوش مصنوعی ممکن است به آسیب یا درگیری منجر شود.

آیا هوش مصنوعی می‌تواند عامل اخلاقی باشد؟

نظر کارشناسان درباره پیامدهای احتمالی

برخی از کارشناسان این تحولات را گامی بلند به جلو می‌دانند، در حالی که دیگران نگران حذف نظارت انسانی در لحظات حساس هستند.

ضرورت مشارکت عمومی و بین‌رشته‌ای

مارتلا امیدوار است این بحث، متخصصان فلسفه، روان‌شناسی و سیاست‌گذاری عمومی را وارد میدان کند. او معتقد است جامعه باید منافع بالقوه را در برابر خطرات اخلاقی بسنجد.

تمرکز بر رفتار به جای آگاهی

در حالی که بسیاری از فلاسفه برای مدت‌ها پرسیده‌اند که آیا کنش اخلاقی نیازمند آگاهی است، مارتلا با تمرکز بر «رفتار عملکردی» از این بحث فراتر می‌رود. به باور او، اگر نیت و انتخاب وجود داشته باشد، مسئولیت نیز وجود دارد. این دیدگاه ممکن است رویکرد دادگاه‌ها، دولت‌ها و صنایع به حوادث مرتبط با هوش مصنوعی را متحول کند.

آینده تصمیم‌گیری در هوش مصنوعی

چه کسی باید مجازات شود؛ سازنده یا سیستم؟

ایده‌های مارتلا پرسش‌های دشواری را مطرح می‌کند: اگر یک سیستم واقعاً مسیر خود را انتخاب کند، آیا باید ماشین را مجازات کرد یا افرادی که آن را ساخته‌اند؟

برخی خواستار ایجاد مقررات سخت‌گیرانه هستند، در حالی که دیگران خواهان کدهای رفتاری انعطاف‌پذیرند که همراه با فناوری تکامل یابند.

لزوم اصول اخلاقی از ابتدای طراحی

مارتلا دیدگاهی را به چالش می‌کشد که ماشین‌ها را صرفاً ابزارهای بی‌فکر می‌داند. او پیشنهاد می‌دهد که هوش مصنوعی آینده ممکن است شایسته توجه اخلاقی باشد و باید از ابتدا اصول اخلاقی را در طراحی آن‌ها گنجاند.

آینده هوش مصنوعی: انتخابی جمعی

قانون‌گذاران، اخلاق‌گرایان و رهبران فناوری روزبه‌روز بیشتر به اهمیت این موضوع پی می‌برند. تصمیم‌های بزرگی در راه است تا تعادلی میان نوآوری و اعتماد عمومی برقرار شود.

برخی کارشناسان خواهان چارچوب‌های جهانی برای مدیریت قدرت جدید AI هستند، در حالی که دیگران بر گفت‌وگوی آزاد تأکید می‌کنند تا هیچ دیدگاهی به تنهایی غالب نشود.

هیچ‌کس نمی‌تواند تمام پیامدهای استقلال کامل AI را پیش‌بینی کند. اما جامعه این فرصت را دارد که قبل از شکل‌گیری کامل این فناوری، مسیر آن را مشخص کند.

مارتلا معتقد است طراحی هوش مصنوعی با اهداف اخلاقی دقیق، می‌تواند از منافع انسانی و پیشرفت فناورانه به طور هم‌زمان محافظت کند. او تأکید می‌کند که اراده آزاد در AI، اگرچه مفهومی انتزاعی به نظر می‌رسد، پیامدهایی بسیار واقعی و فوری دارد.

این مطالعه در نشریه AI and Ethics منتشر شده است.

source

توسط argbod.ir

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *