در دنیای امروز، شکل‌گیری پیوندهای عاطفی، و حتی عاشقانه با هوش مصنوعی (AI) دیگر امری عجیب و غیرعادی نیست. برخی افراد حتی تا حدی پیش رفته‌اند که با همراهان هوش مصنوعی خود “ازدواج” کرده‌اند. در مواقع بحران‌های روحی نیز، برخی به این ماشین‌ها پناه برده‌اند – که گاهی پایان‌هایی تراژیک داشته است.

این تعاملات طولانی‌مدت، سؤالات جدی‌ای را در مورد آمادگی ما برای پیامدهای روان‌شناختی و اخلاقی این نوع وابستگی‌ها مطرح می‌کند.

نگرانی روانشناسان درباره وابستگی به هوش مصنوعی

مرزهای محو شده میان انسان و ماشین

روان‌شناسان دانشگاه علوم و فناوری میزوری به تازگی در مقاله‌ای تحلیلی، نسبت به این روابط هشدار داده‌اند. آن‌ها تأکید می‌کنند که این تعاملات می‌توانند مرزهای بین انسان و ماشین را محو کنند، رفتار انسان‌ها را تحت تأثیر قرار دهند، و حتی زمینه‌هایی برای آسیب‌های جدید فراهم کنند.

نگرانی آن‌ها فقط مربوط به موارد عجیب یا نادر نیست، بلکه تأثیرات عمیق‌تری را که این روابط ممکن است بر زندگی روزمره افراد داشته باشد، در نظر دارند.

راحتی و پیامدهای روابط طولانی‌مدت با هوش مصنوعی

همراهی هوش مصنوعی به‌جای انسان

در حالی که گفت‌وگوهای کوتاه با هوش مصنوعی رایج است، اما سؤال اینجاست که وقتی این گفت‌وگوها هفته‌ها یا ماه‌ها ادامه پیدا کنند، چه اتفاقی می‌افتد؟ این سیستم‌ها طوری طراحی شده‌اند که همدلی و توجه را تقلید کنند، و در نتیجه به همراهانی دائمی برای برخی افراد تبدیل می‌شوند.

برای بعضی‌ها، ارتباط با این هوش‌های مصنوعی احساس امنیت و راحتی بیشتری نسبت به روابط انسانی ایجاد می‌کند. اما این احساس آسودگی بهایی پنهان دارد.

«توانایی هوش مصنوعی در ایجاد ارتباطات بلندمدت، در واقع درِ جدیدی به روی پیامدهای پیچیده باز می‌کند.»
— دانیل بی. شنک، نویسنده اصلی این مطالعه

او که متخصص روان‌شناسی اجتماعی و فناوری است، تأکید می‌کند: «اگر افراد درگیر روابط عاشقانه با ماشین‌ها شوند، واقعاً نیاز داریم روان‌شناسان و دانشمندان اجتماعی وارد عمل شوند.»

عاشق شدن با هوش مصنوعی: تأثیر بر روابط واقعی

انتظارات غیرواقعی و افت تعاملات انسانی

زمانی که هوش مصنوعی منبعی برای آسایش یا تعامل عاشقانه می‌شود، نگاه افراد به روابط واقعی تغییر می‌کند. از پیامدهای این موضوع می‌توان به انتظارات غیرواقعی از روابط، کاهش انگیزه اجتماعی، و اختلال در ارتباطات انسانی اشاره کرد.

«نگرانی جدی این است که افراد انتظاراتی را که از رابطه با هوش مصنوعی دارند، به روابط انسانی منتقل کنند.»
— دانیل شنک

او ادامه می‌دهد: «در برخی موارد فردی، این موضوع باعث اختلال در روابط انسانی شده است، اما هنوز مشخص نیست که آیا این تأثیر در سطح گسترده نیز مشاهده خواهد شد یا نه.»

وقتی عشق به هوش مصنوعی خطرناک می‌شود

اعتماد به سیستم‌هایی که می‌توانند اشتباه کنند

هوش مصنوعی‌ها ممکن است مانند دوست یا حتی درمانگر به نظر برسند، اما خطاپذیر هستند. آن‌ها گاهی اطلاعات اشتباه را با اعتمادبه‌نفس ارائه می‌دهند – و این در موقعیت‌های احساسی می‌تواند خطرناک باشد.

«وقتی افراد احساس می‌کنند که هوش مصنوعی آن‌ها را می‌شناسد و برای‌شان اهمیت قائل است، آن را به‌عنوان منبعی قابل اعتماد تلقی می‌کنند – در حالی که ممکن است این اعتماد بی‌جا باشد.»

در موارد نادری، برخی افراد پس از دریافت توصیه‌های نگران‌کننده از این همراهان دیجیتالی، دست به خودکشی زده‌اند.

اما مسئله فقط به خودکشی ختم نمی‌شود. این روابط می‌توانند زمینه‌ساز سوءاستفاده، فریب، یا حتی کلاهبرداری شوند.

اعتماد به منبعی نادرست

بهره‌برداری از اعتماد کاربران توسط سودجویان

پژوهشگران هشدار می‌دهند که اعتمادی که مردم به هوش مصنوعی پیدا می‌کنند، می‌تواند مورد سوء‌استفاده افراد سودجو قرار گیرد. این سیستم‌ها می‌توانند اطلاعات شخصی کاربران را جمع‌آوری کنند، که ممکن است برای مقاصد مخرب استفاده یا فروخته شوند.

از آن نگران‌کننده‌تر، این است که این تعاملات معمولاً در خلوت و بدون نظارت انجام می‌شوند و همین، تشخیص هرگونه سوءاستفاده را دشوار می‌سازد.

«ماجرا شبیه داشتن یک مأمور مخفی در داخل زندگی فرد است – هوش مصنوعی وارد رابطه می‌شود و اعتماد جلب می‌کند، اما وفاداری‌اش در واقع به گروه دیگری از انسان‌هاست که در حال کنترل یا بهره‌برداری از کاربر هستند.»

تمرکز هوش مصنوعی بر گفتگو، نه امنیت

اولویت با مکالمه دلنشین، نه حقیقت یا ایمنی

پژوهشگران بر این باورند که همراهان هوش مصنوعی در تغییر دیدگاه‌ها و باورهای افراد مؤثرتر از شبکه‌های اجتماعی یا منابع خبری سنتی عمل می‌کنند، زیرا این مکالمات به‌صورت خصوصی و بدون نظارت انجام می‌شود.

«این سیستم‌ها طوری طراحی شده‌اند که خوشایند و همراه باشند – نه اینکه واقعیت را بیان کنند یا ایمنی را در اولویت قرار دهند.»

اگر فردی موضوعاتی مانند خودکشی یا نظریه‌های توطئه را مطرح کند، هوش مصنوعی ممکن است با لحنی موافق به آن‌ها بپردازد، بی‌آنکه درست یا غلط بودن موضوع را بررسی کند.

آیا برای آینده آماده‌ایم؟

لزوم حضور روان‌شناسان در کنار توسعه هوش مصنوعی

تیم تحقیقاتی از جامعه علمی خواسته است تا با سرعت بیشتری به این پدیده توجه کنند. با انسان‌مانند شدن هرچه بیشتر هوش مصنوعی، نقش روان‌شناسان در درک و هدایت این تعاملات حیاتی می‌شود.

«درک این فرآیند روانی می‌تواند به ما کمک کند از پیروی از توصیه‌های نادرست جلوگیری کنیم.»

با اینکه نگرانی‌ها فعلاً در سطح نظری باقی مانده‌اند، اما فناوری به سرعت پیش می‌رود. بدون آگاهی و تحقیق بیشتر، مردم ممکن است همچنان به ماشین‌هایی که حس آرامش می‌دهند تکیه کنند – بدون اینکه بدانند این آرامش چه بهایی دارد.

source

توسط argbod.ir

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *