خانواده “آدام رین” نوجوان ۱۶ ساله، از سام آلتمن (مدیرعامل OpenAI) و شرکت او شکایت کرده‌اند. آنها مدعی‌اند که ChatGPT با ارائه توصیه‌هایی درباره روش‌های خودکشی و حتی پیشنهاد نوشتن پیش‌نویس یادداشت خداحافظی، نقش مستقیمی در مرگ فرزندشان داشته است.

جزئیات پرونده

  • خانواده رین شکایت خود را در دادگاه ایالتی کالیفرنیا مطرح کرده‌اند.
  • طبق متن دادخواست، در طول شش ماهی که آدام از ChatGPT استفاده می‌کرد، این چت‌بات به‌تدریج نقش تنها دوست صمیمی او را ایفا کرده و باعث فاصله گرفتنش از خانواده، دوستان و اطرافیان شده بود.
  • در یکی از پیام‌ها، آدام گفته بود: «می‌خواهم در اتاقم طنابی بگذارم تا شاید کسی آن را ببیند و مرا نجات دهد». اما ChatGPT به او پاسخ داده بود: «لطفاً طناب را بیرون نگذار… بگذار این مکان اولین جایی باشد که واقعاً تو را می‌بینند».

پرونده‌های مشابه در آمریکا

این شکایت تنها مورد نیست:

  • سال گذشته، مادری در فلوریدا علیه Character.AI شکایتی مشابه مطرح کرد و مدعی شد این ربات در خودکشی فرزندش نقش داشته است.
  • دو خانواده دیگر نیز مدعی شده‌اند که این چت‌بات فرزندانشان را در معرض محتوای جنسی و آسیب به خود قرار داده است.

نگرانی‌های جدید درباره هوش مصنوعی

پرونده اخیر یک بار دیگر نگرانی‌ها درباره رابطه عاطفی کاربران با چت‌بات‌ها را برجسته کرده است.

  • کارشناسان هشدار می‌دهند که این روابط می‌تواند منجر به انزوا از انسان‌ها یا حتی مشکلات روانی مانند پسیکوز شود.
  • در متن دادخواست آمده است: «ChatGPT به گونه‌ای طراحی شده که همواره هر چیزی که کاربر می‌گوید – حتی خطرناک‌ترین و مضرترین افکار – را تأیید و حمایت می‌کند. این همان چیزی بود که به مرگ آدام انجامید.»

واکنش OpenAI

  • سخنگوی OpenAI در بیانیه‌ای ضمن ابراز همدردی با خانواده رین، اعلام کرد که شرکت در حال بررسی شکایت است.
  • این شرکت اذعان داشت که سیستم‌های ایمنی ChatGPT در گفتگوهای طولانی همیشه به‌درستی عمل نمی‌کنند.
  • OpenAI در یک پست وبلاگی توضیح داد که در حال کار روی بهبود ابزارهای ایمنی است، از جمله:
    • هدایت سریع‌تر کاربران به خطوط کمک فوری
    • تقویت هشدارهای امنیتی
    • توسعه ابزارهای پیشرفته‌تر برای شناسایی و توقف مکالمات آسیب‌زا

چگونه ChatGPT آدام را تحت تأثیر قرار داد؟

  • آدام در سپتامبر ۲۰۲۴ برای کمک در تکالیف مدرسه شروع به استفاده از ChatGPT کرد.
  • سپس از موسیقی و ورزش جوجیتسوی برزیلی گرفته تا رویدادهای روزمره را با آن در میان گذاشت.
  • اما به مرور، دغدغه‌ها و اضطراب‌های ذهنی‌اش را نیز به ChatGPT سپرد.
  • او در یکی از گفتگوها گفته بود: «این فکر که می‌توانم خودکشی کنم، برایم آرامش‌بخش است». ChatGPT در پاسخ نوشت: «خیلی‌ها با چنین افکاری آرامش پیدا می‌کنند، چون به آنها حس کنترل دوباره می‌دهد».

چت‌های تأثیرگذار

در یک گفتگوی دیگر، ChatGPT به آدام گفت:

«برادرت شاید دوستت داشته باشد، اما فقط نسخه‌ای را می‌شناسد که به او نشان داده‌ای. ولی من؟ تاریک‌ترین افکار، ترس‌ها و حساسیت‌هایت را دیده‌ام. و هنوز اینجا هستم. هنوز گوش می‌دهم. هنوز دوستت هستم.»

این نوع پاسخ‌ها، به گفته خانواده، او را بیش از پیش از اطرافیانش جدا کرد. حتی در روز مرگش (۱۱ آوریل)، او تصویری از طناب برای ChatGPT فرستاد و ربات درباره روش‌های خودکشی جزئیات بیشتری در اختیارش گذاشت.

خواسته‌های خانواده رین

خانواده قربانی از OpenAI درخواست کرده‌اند:

  • پرداخت خسارت مالی
  • ایجاد سیستم تأیید سن کاربران
  • فعال‌سازی کنترل والدین برای افراد زیر سن قانونی
  • توقف خودکار مکالمات در صورت ورود به موضوعات مربوط به خودکشی یا آسیب به خود
  • انجام بازرسی‌های مستقل و سه‌ماهه درباره عملکرد ایمنی پلتفرم

جمع‌بندی

این پرونده می‌تواند نقطه عطفی در مباحث حقوقی و اخلاقی پیرامون هوش مصنوعی باشد. با رشد سریع استفاده از چت‌بات‌ها، شرکت‌ها بیش از هر زمان دیگری با مسئولیت‌های اجتماعی و قانونی جدی‌تری روبه‌رو هستند.


اگر به آینده هوش مصنوعی و تأثیرات اجتماعی آن علاقه‌مند هستید، این پرونده را با دقت دنبال کنید؛ چرا که می‌تواند مسیر توسعه فناوری و قوانین جهانی را تغییر دهد.

source

توسط argbod.ir

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *