ChatGPT و سایر مدل‌های زبانی بزرگ (LLM) فاقد توانایی یادگیری مستقل یا کسب مهارت‌های جدید به تنهایی هستند. این موضوع نشان می‌دهد که مدل‌های هوش مصنوعی، تهدیدی برای بقای بشریت به حساب نمی‌آیند. این نتیجه از تحقیق جدیدی که توسط دانشگاه بث و دانشگاه فنی دارمشتات در آلمان انجام شده، به دست آمده است.

این مطالعه به عنوان بخشی از مجموعه مقالات شصت و دومین نشست سالانه‌ی انجمن زبان‌شناسی محاسباتی (ACL 2024) منتشر شده است – کنفرانسی بین‌المللی در زمینه‌ی پردازش زبان طبیعی.

مدل‌های قابل کنترل، پیش‌بینی‌پذیر و ایمن

پژوهشگران دریافتند که در حالی که مدل‌های زبانی بزرگ می‌توانند به صورت سطحی دستورالعمل‌ها را دنبال کرده و در زبان‌آموزی مهارت نشان دهند، اما قادر به کسب مهارت‌های جدید بدون دستورالعمل صریح نیستند. بنابراین، این مدل‌ها ذاتاً قابل کنترل، پیش‌بینی‌پذیر و ایمن باقی می‌مانند.

به گفته‌ی کارشناسان، حتی زمانی که مدل‌های زبانی بزرگ با مجموعه داده‌های بزرگ‌تری آموزش می‌بینند، می‌توان بدون نگرانی‌های ایمنی قابل توجهی از آن‌ها استفاده کرد، هرچند که همچنان احتمال سوء استفاده از این فناوری وجود دارد.

مدل‌های هوش مصنوعی فاقد توانایی‌های استدلال پیچیده

با رشد این مدل‌ها، احتمالاً توانایی تولید زبان پیشرفته‌تر و پاسخ به درخواست‌های دقیق‌تر را خواهند داشت، اما به شدت غیرمحتمل است که بتوانند توانایی‌های استدلال پیچیده را توسعه دهند.

هاریش تایار مادابوشی، دانشمند کامپیوتر در دانشگاه بث و هم‌نویسنده‌ی این مطالعه جدید در مورد «توانایی‌های نوظهور» مدل‌های زبانی بزرگ گفت: «روایت غالب مبنی بر اینکه این نوع هوش مصنوعی تهدیدی برای بشریت است، مانع از پذیرش و توسعه‌ی گسترده این فناوری‌ها می‌شود و همچنین توجه را از مسائل واقعی که نیاز به تمرکز دارند، منحرف می‌کند.»

توانایی‌های نوظهور مدل‌های زبانی بزرگ

تیم تحقیقاتی به رهبری پروفسور ایرینا گورویچ در دانشگاه فنی دارمشتات در آلمان، آزمایشاتی را برای ارزیابی توانایی مدل‌های زبانی بزرگ در انجام وظایفی که قبلاً با آن‌ها مواجه نشده بودند – به اصطلاح توانایی‌های نوظهور – انجام دادند.

برای مثال، مدل‌های زبانی بزرگ می‌توانند به سوالاتی درباره موقعیت‌های اجتماعی پاسخ دهند بدون اینکه به طور خاص برای انجام این کار آموزش دیده یا برنامه‌ریزی شده باشند.

در حالی که تحقیقات قبلی پیشنهاد می‌کرد که این قابلیت ناشی از «آگاهی» مدل‌ها از موقعیت‌های اجتماعی است، پژوهشگران نشان دادند که در واقع نتیجه استفاده مدل‌های زبانی بزرگ از توانایی شناخته‌شده‌ای به نام «یادگیری درون‌متنی» (ICL) است، جایی که آن‌ها وظایف را بر اساس چند نمونه ارائه شده به آن‌ها کامل می‌کنند.

توانایی‌ها و محدودیت‌های مدل‌های هوش مصنوعی

از طریق هزاران آزمایش، تیم تحقیقاتی نشان داد که ترکیبی از توانایی پیروی از دستورالعمل (ICL)، حافظه و مهارت زبانی مدل‌های زبانی بزرگ، توانایی‌ها و محدودیت‌های آن‌ها را توضیح می‌دهد.

مادابوشی گفت: «ترس این بود که با بزرگ‌تر شدن مدل‌ها، بتوانند مسائل جدیدی را که در حال حاضر نمی‌توانیم پیش‌بینی کنیم، حل کنند و این تهدید وجود دارد که این مدل‌های بزرگ‌تر ممکن است توانایی‌های خطرناکی از جمله استدلال و برنامه‌ریزی را کسب کنند.»

«این موضوع بحث‌های زیادی را به راه انداخته است – برای مثال، در اجلاس ایمنی هوش مصنوعی سال گذشته در بلچلی پارک، که از ما خواسته شد تا در آن اظهار نظر کنیم – اما مطالعه ما نشان می‌دهد که ترس از این که یک مدل به‌طور ناگهانی کاری کاملاً غیرمنتظره، نوآورانه و بالقوه خطرناک انجام دهد، معتبر نیست.»

نگرانی‌ها در مورد تهدیدهای هوش مصنوعی

به گفته مادابوشی، نگرانی‌ها در مورد تهدید وجودی مدل‌های زبانی بزرگ محدود به غیرمتخصصان نیست و برخی از برجسته‌ترین پژوهشگران هوش مصنوعی در سراسر جهان نیز این نگرانی‌ها را ابراز کرده‌اند.

با این حال، این ترس‌ها به نظر بی‌اساس می‌آیند، زیرا آزمایش‌های پژوهشگران به وضوح نشان داد که توانایی‌های استدلال پیچیده نوظهور در مدل‌های زبانی بزرگ وجود ندارد.

مادابوشی خاطرنشان کرد که در حالی که مهم است به پتانسیل سوءاستفاده از هوش مصنوعی، مانند ایجاد اخبار جعلی و افزایش خطر تقلب، رسیدگی کنیم، اما اعمال مقررات بر اساس تهدیدات وجودی درک شده زودرس خواهد بود.

مادابوشی گفت: «مهم این است که این بدان معنی است که تکیه بر مدل‌های زبانی بزرگ برای تفسیر و انجام وظایف پیچیده که به استدلال پیچیده نیاز دارند بدون دستورالعمل صریح احتمالاً اشتباه است.»

«در عوض، کاربران به احتمال زیاد از مشخص کردن صریح آنچه که از مدل‌ها نیاز دارند و در صورت امکان ارائه مثال‌هایی برای همه به جز ساده‌ترین وظایف، بهره‌مند خواهند شد.»

گورویچ گفت: «نتایج ما به این معنی نیست که هوش مصنوعی اصلاً تهدیدی نیست. بلکه نشان می‌دهد که ظهور ادعایی مهارت‌های تفکر پیچیده مرتبط با تهدیدهای خاص با شواهد پشتیبانی نمی‌شود و ما می‌توانیم فرایند یادگیری مدل‌های زبانی بزرگ را به خوبی کنترل کنیم.»

پروفسور گورویچ نتیجه‌گیری کرد که تحقیقات آینده باید بر روی سایر خطرات مدل‌ها، مانند پتانسیل آن‌ها برای استفاده در تولید اخبار جعلی، متمرکز شود.

این مطالعه در سرور پیش‌چاپ arXiv منتشر شده است.

source

توسط argbod.ir

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *