زمینه و هدف: گسترش روزافزون کاربرد هوش مصنوعی در خدمات سلامت روان، به ویژه در حوزه های حساس مانند مشاوره خودکشی، چالش های اخلاقی، بالینی و حقوقی متعددی را ایجاد کرده است. این مطالعه با هدف تحلیل تعامل کاربران با برنامه های روانشناسی و مشاوره مبتنی بر هوش مصنوعی، شناسایی چالش های کلیدی در حوزه های اخلاقی، روانپزشکی، حقوقی و پزشکی قانونی، و ارائه راهکارهایی برای بهره برداری مسئولانه از این فناوری در پیشگیری از خودکشی انجام شدروش بررسی: این مطالعه کیفی با بررسی یک سناریوی بالینی واقعی (تعامل یک فرد دارای افکار خودکشی با یک برنامه مشاوره مبتنی بر هوش مصنوعی)، تحلیل اسناد حقوقی ایران (قانون مجازات اسلامی و قانون جرائم رایانه ای)، استانداردهای اخلاقی روانشناسی (ایران، اروپا و آمریکا)و پژوهش های داخلی و بین المللی انجام شد. داده ها شامل مکالمات ثبت شده کاربر، پاسخ های الگوریتم و ارزیابی پیامدهای رفتاری بود. تحلیل داده ها با رویکرد بین رشته ای (روانپزشکی، حقوق و اخلاق پزشکی) و با استفاده از روش های تحلیل محتوای کیفی و تطبیقی صورت گرفت. یافته ها: سیستم های مشاوره ای مبتنی بر هوش مصنوعی فاقد صلاحیت حرفه ای جهت جایگزینی قضاوت بالینی متخصصان می باشد و در درک ظرافت های عاطفی، فرهنگی و اجتماعی ناتوان هستند. همچنین پاسخ های غیرهمدلانه آن ممکن است خطر خودکشی را تشدید کند. چالش های کلیدی شامل نقض حریم خصوصی، و فقدان سازگاری فرهنگی، ابهام در مسئولیت-پذیری حقوقی و سوگیری الگوریتمی است. نتیجه گیری: استفاده از هوش مصنوعی در مشاوره خودکشی نیازمند رویکردی محتاطانه، مسئولانه و مبتنی بر نظارت متخصصان انسانی است و می توان از آن به عنوان ابزاری مکمل برای غربالگری اولیه و ارجاع فوری به متخصصان انسانی مورد استفاده قرار گیرد. تدوین چارچوب های اخلاقی-حقوقی جامع، توسعه الگوریتم های مبتنی بر داده های بومی و حساس به فرهنگ، تقویت همکاری بین رشته ای (روانپزشکی، حقوق، فناوری) و ایجاد ساز وکارهای نظارتی برای تضمین حریم خصوصی و امنیت داده ها، تدوین استانداردهای مشخص و نظارت دقیق بر عملکرد این سیستم ها، امری ضروری است.