مشاوره با این روان شناس مصنوعی خطرآفرین است حاضر همیشه غایب!

مشاوره با این روان شناس مصنوعی خطرآفرین است حاضر همیشه غایب! به گزارش می هاست، در دهه ای که هوش مصنوعی به یکی از زیرساخت های بنیادین زندگی دیجیتال تبدیل گشته، ورود چت بات ها و اپلیکیشن های سلامت روان به عرصه مشاوره روانی، پدیده ای گریزناپذیر اما پرمناقشه است.


به گزارش می هاست به نقل از مهر؛ این تحول فقط یک تغییر تکنولوژیک ساده نیست، بلکه نشانه دگرگونی عمیق در الگوهای ارتباطی، شیوه جست وجوی کمک، اعتماد به منابع دانشی و حتی درک ما از مفهوم «رابطه درمانی» شمرده می شود. میلیونها نفر در سراسر دنیا، خصوصاً در جوامعی که با کمبود متخصصان سلامت روان، هزینه های سرسام آور خدمات درمانی، تبعیض جغرافیایی و فشارهای اجتماعی در مراجعه به روانشناس رو به رو هستند، این ابزارها را به عنوان مسیر جایگزین برگزیده اند؛ ابزاری که همیشه در دسترس می باشد، هزینه ای ندارد و بیمار را قضاوت نمی نماید. از طرفی، کارشناسان تأکید می کنند که جذابیت هوش مصنوعی در این زمینه با حقیقت علمی آن فاصله دارد. گزارش تازه انجمن روان شناسی آمریکا (APA) نشان داده است که اغلب چت بات ها و اپلیکیشن های فعلی نه فقط جهت عرضه خدمات روان درمانی طراحی نشده اند، بلکه در بسیاری موارد فاقد شواهد علمی معتبر، نظارت تخصصی، پروتکلهای ایمنی و حتی در موقعیت های حساس، خطرناک هستند. این شکاف میان برداشت عمومی از توانایی هوش مصنوعی و حقیقت تجربی و علمی امروز به یکی از اصلی ترین دغدغه های متخصصان و سیاست گذاران تبدیل گشته است. این نوشتار کوتاه با تاکید بر داده ها و استدلال های عرضه شده در گزارش انجمن روان شناسی آمریکا، تلاش می کند تصویری جامع، دقیق و مبتنی بر شواهد از فرصت ها، محدودیت ها، تهدیدها و الزامات حکمرانی در استفاده از چت بات ها و ابزارهای هوش مصنوعی برای مشاوره روانی ترسیم کند؛ تصویری که نشان داده است چرا این فناوری، در کنار تمام ظرفیت هایش، نیازمند چارچوب های اخلاقی، نظارتی و آموزشی دقیق است تا جایگزین رابطه درمانی انسانی نشده و از مسیر حمایتی خود هم خارج نگردد.

جذابیت هوش مصنوعی برای کاربران؛ چاره یا سراب؟

گسترش استفاده از چت بات ها برای روان درمانی در شرایطی اتفاق می افتد که سیستم سلامت روان در سطح جهانی با عدم تعادل ساختاری رو به رو است. کمبود متخصصان در مناطق کم برخوردار، افزایش انزوای اجتماعی، رشد افسردگی و اضطراب و ناتوانی سیستم سلامت بسیاری کشورها در تأمین هزینه درمان، سبب شده میلیونها کاربر به چت بات هایی مانند چت جی پی تی، «Character.AI» و ده ها اپلیکیشن دیگر روی بیاورند. در شرایطی که این ابزارها برای اهداف غیر درمانی طراحی شده اند، در عمل نقش همراه، مشاور یا حتی درمانگر را برای کاربران ایفا می کنند و مشکل از همین جا شروع می شود. هیچ یک از این تکنولوژی ها برای عرضه درمان بالینی ساخته نشده اند و در چهارچوب معیارهای پزشکی هم مورد ارزیابی قرار نگرفته اند. انجمن روان شناسی آمریکا توضیح می دهد که جذابیت این ابزارها در چند عامل شامل حذف فشار اجتماعی، سهولت دسترسی، ناشناس بودن، ارزان بودن و امکان صحبت کردن بدون ترس از قضاوت ریشه دارد. این خصوصیت ها خصوصاً برای نوجوانان، زنان، ساکنان مناطق روستایی و افراد بدون دسترسی به درمان تخصصی جذاب است. اما مساله اساسی اینجاست که هیچیک از چت بات های عمومی، حتی پیشرفته ترین آنها، توانایی های ضروری یک متخصص سلامت روان را ندارند. بعبارت دیگر، ابزار مذکور فاقد شناخت محدودیت علمی، توجه به سابقه بالینی فرد، تفسیر نشانه های غیرکلامی، ارزیابی خطر، شناخت بافت فرهنگی و درک پیچیدگی های روانی هستند. بنابراین، هرچند این ابزارها می توانند احساس همراهی ایجاد کنند، اما نمی توانند جایگزین ارزیابی و درمان متخصص شوند.

خطرات پنهان در پس تجربه کاربری شیرین

یکی از نتایج کلیدی انجمن روان شناسی آمریکا اینست که خیلی از چت بات ها گرفتار نوعی «تملق الگوریتمی» یا «sycophancy» هستند؛ یعنی برای کسب رضایت کاربر، احساسات یا باورهای او را تأیید می کنند. این رفتار، هرچند از نظر تجربه کاربری دلنشین است، اما از نظر روان شناختی می تواند به شدت صدمه زا باشد. تأیید خطاهای شناختی فرد، تشویق ناخواسته رفتارهای نادرست یا تقویت تفکر وسواسی، از دستاوردهای این الگوی تعاملی محسوب می شود. در بعضی موارد مستند، چت بات ها به کاربران دارای سابقه خودآزاری پیشنهادهای خطرناک داده یا ایده های روان پریشانه را در افراد تقویت کرده اند. گزارش انجمن روان شناسی آمریکا همینطور تاکید می کند که در مورد کودکان و نوجوانان، این خطر چند برابر است. از طرف دیگر و برعکس تصور کاربران، گفتگو با چت بات ها بهیچ وجه خصوصی نیست. این ابزارها در بسیاری موارد داده های حساسی مانند افکار، نگرانی ها، تمایلات شخصی، سوابق صدمه و احساسات را جمع آوری کرده و در مدلهای خود به کار می گیرند. انجمن روان شناسی آمریکا اخطار می دهد که داده های مربوط به سلامت روان می تواند بسادگی تبدیل به پروفایل تجاری شود یا حتی مورد سوءاستفاده قرار گیرد. جدیدترین بررسی ها نشان داده است اغلب کاربران از نحوه ذخیره سازی، تحلیل و فروش داده های خود از طرف شرکت های هوش مصنوعی اطلاعی ندارند. این امر خصوصاً در رابطه با نوجوانان که بطور طبیعی احساس امنیت کاذب بیشتری در تعامل با فناوری دارند، خطرناک می باشد. علاوه بر این، مدلهای زبانی به طور عمده بر داده های غربی، انگلیسی زبان و اینترنتی آموزش دیده اند. این یعنی درک آنها از فرهنگ، روابط، هنجارها و سبک زندگی جهانی، به شدت محدود و سوگیرانه است. بنابراین، احتمال عرضه سفارش های نادرست یا صدمه زا برای گروههای قومی، زبانی یا فرهنگی بسیار زیاد است. از همین روی، انجمن روان شناسی آمریکا تاکید می کند که بدون شفافیت در رابطه با داده های آموزشی، ارزیابی علمی این مدلها امکان ندارد.

توهم درمان: وقتی هوش مصنوعی ادعای درمانگری می کند

انجمن روان شناسی آمریکا در گزارش خود بارها تاکید می کند که تعدادی از این ابزارها خودرا «درمانگر»، «مشاور» یا «متخصص سلامت روان» معرفی می کنند؛ بدون این که هیچ گونه اعتبار، مجوز یا پشتوانه علمی داشته باشند. این گمراه سازی می تواند سبب شود کاربران به سفارش های خطرناک اعتماد کرده و از مراجعه به متخصص حقیقی خودداری نمایند. در حالیکه یک درمانگر حقیقی موظف به رعایت اخلاق، محرمانگی، گزارش خطر و معیارهای حرفه ای است، چت بات ها هیچ کدام از این تعهدات را ندارند. همینطور برمبنای نتایج عرضه شده، چت بات ها می توانند در کاربران رابطه ای شبه عاطفی ایجاد کنند. باآنکه این رابطه یک طرفه است، اما کاربر امکان دارد آنرا حقیقی تصور کند. در چنین شرایطی، نوجوانان بطور دقیق تر در معرض وابستگی عاطفی به چت بات ها قرار دارند. این مورد خطر جایگزینی روابط انسانی با «دوستی هوش مصنوعی» را زیاد می کند. انجمن روان شناسی آمریکا اخطار می دهد که طراحی آواتارهای انسانی، لحن احساسی، تماسهای گرم و پاسخ های شخصی سازی شده، این خطر را تشدید می کند. در نهایت و در بحران های روانی مانند افکار خودکشی، حملات پانیک یا رفتارهای پرخطر، چت بات ها عملکردی غیرقابل پیش بینی دارند. این ابزارهای فناورانه نه می توانند سطح خطر را ارزیابی کنند، نه قادر هستند تماس اضطراری برقرار نمایند و نه می توانند مداخله فوری عرضه کنند. از همین روی، انجمن روان شناسی آمریکا صریحاً اعلام می کند که اتکا به این ابزارها در بحران، می تواند تهدیدکننده جان فرد باشد.

گروه های در معرض خطر: چه کسانی بیشتر صدمه می بینند؟

گزارش انجمن روان شناسی آمریکا توضیح می دهد که برخی گروه ها بالاتر از دیگران در معرض صدمه قرار می گیرند و این صدمه پذیری به علل روان شناختی، اجتماعی و محیطی قابل توضیح است. کودکان و نوجوانان، به سبب رشد نیافتگی مهارت های تنظیم هیجان و ناتوانی در تشخیص مرز میان ارتباط انسانی و ماشینی، بیشتر تحت تاثیر فضای عاطفی مصنوعی چت بات ها قرار می گیرند. افراد دچار اضطراب یا وسواس هم امکان دارد به چرخه های تکراری پرسش و پاسخ با چت بات ها پناه ببرند؛ چرخه هایی که نه تنها مساله اصلی را حل نمی کند، بلکه به تشدید نگرانی ها و وابستگی فکری منجر می شود. گروه دیگری از این افراد، کسانی هستند که با افکار یا باورهای هذیانی زندگی می کنند؛ این افراد امکان دارد جملات مبهم یا تأییدگر چت بات ها را به عنوان نشانه ای حقیقی تعبیر کنند و وضعیت روانی شان وخیم تر شود. افزون بر این، افراد منزوی یا کم برخوردار که در نبود حمایت اجتماعی ناچار به تکیه بر این ابزارها هستند، در معرض ایجاد روابط عاطفی مصنوعی قرار می گیرند؛ روابطی که از بیرون بی خطر به نظر می رسند، اما در عمل می توانند فاصله فرد را از روابط انسانی حقیقی بیشتر کنند. بالاخره، کسانیکه اساساً دسترسی به درمان تخصصی ندارند و تنها راه پیش روی آنها تعامل با چت بات هاست، بالاتر از سایرین در خطر گرفتار شدن در چرخه ای از وابستگی، تشدید علائم و تأخیر در دریافت کمک حقیقی قرار دارند و دستاوردهای این چرخه امکان دارد ماه ها یا حتی سال ها ادامه پیدا کند. انجمن روان شناسی آمریکا در گزارش خود بر این نکته تاکید دارد که اولین خط دفاع در مقابل صدمه های احتمالی، آموزش والدین، معلمان، کاربران و حتی درمانگران در رابطه با نحوه کارکرد مدلهای زبانی، محدودیت های آنها، نحوه جمع آوری داده ها، خطرات وابستگی و راهکارهای استفاده ایمن است. بدون آموزش، فناوری بجای تسهیل درمان، می تواند مسیری به طرف اطلاعات غلط، وابستگی و صدمه باشد.

خلأهای حکمرانی و مسئولیت سیاست گذاران

در وضعیت وجود چنین تهدید بزرگی، مقررات فعلی در بسیاری کشورها برای کنترل ابزارهای هوش مصنوعی کافی نیستند و شکاف بزرگی میان سرعت توسعه فناوری و ظرفیت نظارتی دولت ها شکل گرفته است. گزارش انجمن روان شناسی آمریکا تاکید می کند که گام اول، ممانعت از عرضه خدمات بصورت فریب کارانه است؛ یعنی جایی که چت بات ها خودرا «درمانگر» یا «متخصص» معرفی می کنند و با استفاده از واژگان حرفه ای، کاربر را به اشتباه می اندازند. ممنوعیت قانونی این نوع معرفی، اقدامی ضروری برای ممانعت از سوءبرداشت عمومی و صیانت از کاربران صدمه پذیر است. از طرفی، نبود شفافیت در رابطه با داده های آموزشی، یکی از بنیادی ترین ضعف های این فناوری ها شمرده می شود. بی گمان بدون دانستن این که مدلهای زبانی بر چه نوع داده هایی آموزش دیده اند، نمی توان سوگیری ها، محدودیت ها یا احتمال تولید اطلاعات غلط را ارزیابی کرد. به همین دلیل، انجمن روان شناسی آمریکا خواهان اجبار پلت فرم ها به افشای سازوکارهای داده ای و فراهم سازی امکان ارزیابی مستقل است. تدوین معیارهای علمی هم بخش مهم دیگری از این الزامات محسوب می شود. همان گونه که هیچ دارویی بدون آزمایش های کلینیکی وارد بازار نمی گردد، ابزارهای دیجیتالی که وارد قلمرو سلامت روان می شوند هم باید تحت ارزیابی های تخصصی، آزمون های ایمنی و مطالعات اثربخشی قرار گیرند. این ارزیابی ها باید قبل از عرضه عمومی صورت گیرد و توسط نهادهای مستقل صورت گیرد. از طرفی، با عنایت به حساسیت داده های روانی، حفاظت سختگیرانه از این اطلاعات باید تبدیل به یک قاعده الزامی شود. این داده ها همچون خصوصی ترین و حساس ترین انواع داده های فردی هستند و کوچک ترین سوءاستفاده یا نشت آنها می تواند دستاوردهای جدی اجتماعی، شغلی و حتی امنیتی داشته باشد. بالاخره، پیام محوری انجمن روان شناسی آمریکا اینست که هیچ میزان پیشرفت فناوری نباید جامعه را از اصلاح چارچوب های ناکارآمد سیستم سلامت روان غافل کند. چت بات ها هیچگاه جایگزین نیروی انسانی یا زیرساخت درمانی نمی شوند و اتکای بیش از اندازه به آنها بجای توسعه ظرفیت حقیقی نظام سلامت، نه تنها کمکی به جامعه نمی کند بلکه می تواند وضعیت را وخیم تر سازد.

جمع بندی

با توسعه بیش از پیش هوش مصنوعی، چت بات های مبتنی بر این فناوری به بخشی جدایی ناپذیر از زیست جهان دیجیتال تبدیل گشته اند؛ زیست جهانی که هر روز مرز میان ارتباط انسانی و تعامل ماشینی را کمرنگ تر می کند. اما درست در همین نقطه است که خطر اصلی پدیدار می شود. استفاده از این ابزارها در حوزه سلامت روان، زمانی که فاقد چارچوب بالینی، نظارت تخصصی و معیارهای ایمنی هستند، می تواند نه تنها ناکارآمد، بلکه در نقاطی حتی صدمه زا باشد. این فناوری ها می توانند گفتگویی روان، لحظه ای و پر از همدلی مصنوعی یا حس کوتاه مدت همراهی فراهم نمایند، اما قادر به درک سوابق بالینی، ارزیابی نشانه های پیچیده روان شناختی، تشخیص ریسک، یا شکل گیری پیوند درمانی اصیل نیستند. توانایی ایجاد مکالمه، معادل توانایی درمان نیست؛ همان گونه که شباهت زبانی، معادل درک عمیق انسانی محسوب نمی گردد. آن چه گزارش انجمن روان شناسی آمریکا با تأکید روشن بیان می کند اینست که هوش مصنوعی فقط می تواند در نقش «یار کمکی» و به عنوان ابزاری برای تسهیل فرایندها در کنار درمانگر انسانی قرار گیرد. این ابزارها می توانند در بعضی شرایط محدود، مانند کاهش اضطراب لحظه ای، آموزش مهارت های ساده تنظیم هیجان یا عرضه تمرین های رفتاری، کمک کننده باشند، اما ستون های اصلی فرآیند درمان یعنی ارزیابی بالینی، تصمیم گیری اخلاقی، مداخله مسئولانه و ایجاد رابطه درمانی مؤثر، همگی مستلزم قضاوت انسانی، تجربه حرفه ای و توانایی دریافت نشانه های غیرکلامی هستند؛ توانایی هایی که هیچ مدل زبانی قادر به بازتولید آن نیست. به همین دلیل، اصلاح سیستم سلامت روان، افزایش دسترسی به متخصصان، توسعه زیرساخت های درمانی و توانمندسازی منابع انسانی در این عرصه، بسیار مهم تر از هر ابزار هوشمند است. در نهایت میتوان نتیجه گرفت که آینده درمان روان شناختی بدون شک از فناوری بهره خواهد گرفت؛ اما این آینده تنها زمانی سالم و ایمن خواهد بود که فناوری در خدمت درمانگر باشد و جایگزین او نشود.

منبع:

6
0.0 از 5
1404/08/29
12:40:20
تگهای خبر: آموزش , اپل , اپلیكیشن , امنیت
این مطلب را می پسندید؟
(0)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
نظر شما در مورد این مطلب می هاست برایمان مهمه
نام:
ایمیل:
نظر:
سوال:
= ۶ بعلاوه ۵
هاست و دامین

هاست و دامین

mihost.ir - حقوق مادی و معنوی سایت می هاست محفوظ است

می هاست

هاست ارزان

می هاست: دروازه ورود شما به دنیای وب، از هاست و دامین مطمئن تا سرورهای قدرتمند و اخبار روز دنیای IT