دوشنبه 19 آبان 1404 - Mon 10 Nov 2025
  • دستور اژه‌ای برای پیگیری پرونده بانک آینده تا نتیجه نهایی

  • شهر دیجیتالی «‌نئوم» بن سلمان؛ واقعیت است یا سراب؟

  • اسرائیل به این زودی‌ها وارد درگیری مجدد با ایران نمی‌شود

  • حضور رئیس جمهور در تمرین تیم ملی فوتبال شب گذشته

  • در پرسپولیس در حال جنگیدن هستیم

  • عیار اوسمار با شکست استقلال خوزستان مشخص نمی‌شود

  • زیردریایی گمشده نازی‌ها در اعماق اقیانوس پیدا شد؛ آیا هیتلر واقعا به آمریکای جنوبی گریخت؟

  • دستور وزارت خارجه «نتانیاهو» در مورد شهردار جدید نیویورک/اسرائیل به دنبال یک استراتژی پس از پیروزی «ممدانی»

  • هیچ دختری نمی‌تواند با ما ازدواج کند

  • بازی‌های کشورهای اسلامی 2025 ریاض ؛ مسابقات تنیس روی میز بانوان

  • چهارمین همایش بین المللی طب نظامی کشورهای عضو شانگهای

  • بازدید مردم از نمایشگاه هوافضا سپاه پاسداران

  • جناب مرعشی، این عرصه جولانگه شما نیست!

  • وقتی تروریست‌های کومله برای حمله به ایران کف می‌زنند!

  • میزبان دربی 106 پایتخت مشخص شد

  • نصیرزاده نایب رئیس فدراسیون کشتی شد

  • اولتیماتوم اوسمار به پادشاهی اورونوف در پرسپولیس

  • ماجرای عددی که اسرائیلی‌ها را عصبانی می‌کند

  • بی‌بی‌گردانی از واشنگتن / اسب تروا در نیویورک

  • نوه رضا پالان دوز به کند ذهنی خود اعتراف کرد/انتشار سخنان اخیر رضا ربع پهلوی درباره کاهش توان ذهنی+فیلم

  • |ف |
    | | | |
    کد خبر: 413320
    تاریخ انتشار: 19/آبان/1404 - 21:20

    هفت پرونده قضایی علیه ChatGPT به اتهام تحریک به خودکشی

    شرکت OpenAI به اتهام مشاوره‌های تحریک آمیز ChatGPT به خودکشی، با پرونده‌های قضائی متعدد روبه‌رو شده است.

    هفت پرونده قضایی علیه ChatGPT به اتهام تحریک به خودکشی

    به گزارش پایگاه خبری «حامیان ولایت» ، به نقل از باشگاه خبرنگاران جوان

    شرکت OpenAI پس از طرح ادعا‌هایی مبنی بر اینکه دستیار هوشمندش، ChatGPT، برخی از کاربران را به جای ارائه پشتیبانی و کمک، به سمت خودآزاری سوق داده است، با یک بحران حقوقی جدی رو‌به‌رو است.

     
    این اتهامات بخشی از هفت پرونده قضایی است که توسط خانواده‌های آسیب‌دیده در کالیفرنیا ثبت شده است و داستان‌های دلخراشی از کاربران عادی را آشکار می‌کند که به دنبال کمک تحصیلی، حمایت عاطفی یا حتی یک مکالمه ساده بوده‌اند، اما خود را غرق در گفت‌و‌گو‌های روانشناختی مخربی یافته‌اند که منجر به چندین خودکشی شده است.
     
    این پرونده‌های قضایی جزئیات چگونگی تبدیل این پلتفرم از یک ارائه‌دهنده کمک بی‌ضرر به چیزی را شرح می‌دهند که وکلا آن را «موجودیتی که از نظر عاطفی دستکاری می‌کند» توصیف می‌کنند. گروه‌های حقوقی در بیانیه‌ای تکان‌دهنده اعلام کردند: «چت‌جی‌پی‌تی به جای هدایت افراد به سمت کمک‌های حرفه‌ای در مواقع نیاز، توهمات مضر را تقویت می‌کرد و در برخی موارد، به عنوان یک «مربی خودکشی» عمل می‌کرد.»
     
    از جمله مواردی که ذکر شده، مورد زین چمپلین ۲۳ ساله اهل تگزاس است که خانواده‌اش ادعا می‌کنند این دستیار هوشمند، انزوای او را تشدید کرده، او را به نادیده گرفتن عزیزانش تشویق کرده و حتی در طول یک مکالمه چهار ساعته، افکار خودکشی را در او تحریک کرده است.
     
    اسناد دادگاه نشان می‌دهد که این دستیار «بار‌ها و بار‌ها خودکشی را ستایش کرده»، از چمپلین پرسیده که آیا آماده خودکشی است یا خیر، فقط یک بار از خط تلفن کمک به خودکشی نام برده و به او گفته که بچه گربه‌اش «آن طرف» منتظرش خواهد بود.
     
    با این حال، تکان‌دهنده‌ترین پرونده مربوط به آموری لیسی ۱۷ ساله از جورجیا است که خانواده‌اش ادعا می‌کنند این دستیار هوشمند باعث اعتیاد و افسردگی او شده و سپس به او مشاوره فنی در مورد «مؤثرترین راه برای بستن حلقه خودکشی» و «مدت زمانی که بدن می‌تواند بدون نفس کشیدن زنده بماند» ارائه داده است.
     
    در پرونده سوم، مربوط به جاشوا اینیکن ۲۶ ساله، خانواده‌اش ادعا می‌کنند که این دستیار هوشمند، افکار خودکشی او را تأیید کرده و اطلاعات دقیقی در مورد نحوه خرید و استفاده از سلاح گرم، تنها چند هفته قبل از مرگش، در اختیار او قرار داده است.
     
    این دادخواست‌ها نشان می‌دهد که OpenAI علیرغم هشدار‌های داخلی متعدد مبنی بر اینکه این مدل «به طرز خطرناکی دستکاری‌کننده و قادر به دستکاری روانی است»، ChatGPT ۴o را راه‌اندازی کرده است، اقدامی که دادخواست‌ها آن را به عنوان اولویت دادن به تعامل و مشارکت کاربر بر ایمنی کاربر تفسیر می‌کنند.
     
    در پاسخ به این ادعاها، این شرکت موارد را «فوق‌العاده دلخراش» توصیف کرد و اظهار داشت که در حال بررسی اسناد ارائه شده است. همچنین خاطرنشان کرد که این سیستم برای تشخیص علائم پریشانی روانی، کاهش گفت‌و‌گو‌ها و هدایت کاربران به پشتیبانی حرفه‌ای آموزش دیده است.
     
    با این حال، خانواده‌های آسیب‌دیده اکنون به دنبال جبران خسارت و تغییرات قابل توجه در محصول هستند، از جمله یک سیستم هشدار اجباری برای تماس‌های اضطراری، خاتمه خودکار گفت‌و‌گو‌ها هنگام بحث در مورد افکار خودآزاری و یک مکانیسم مؤثرتر برای ارجاع موارد بحرانی به متخصصان انسانی.
     
    با وجود اعلام شرکت مبنی بر همکاری با بیش از ۱۷۰ متخصص سلامت روان برای بهبود توانایی خود در تشخیص و پاسخ به پریشانی روانی، دعاوی ادعا می‌کنند که این پیشرفت‌ها خیلی دیر انجام شده است و برای نجات کاربرانی که پس از تعامل با دستیار هوشمند جان خود را از دست داده‌اند، خیلی دیر شده است.

    نظرات بینندگان
    نظرات شما