یکشنبه 19 مرداد 1404 - Sun 10 Aug 2025
بنر پویش نه به تصادف برای استفاده پایگاه‌های خبری
  • مذاکرات وارونه

  • تفسیر مخدوش از مصوبه مجلس درباره آژانس!

  • نتیجه همکاری با آژانس حمله به تأسیسات هسته‌ای‌مان بود

  • هشدار! از خواب غفلت برخیزید!

  • خطای محاسباتی درباره براندازی موجب تقویت داخلی ایران شد

  • حزب‌الله لبنان آماده شده است

  • این غزه است که اسرائیل را از نقشه جهان حذف می‌کند

  • افزایش احتمال تغییرات قریب‌الوقوع در برخی نهادهای عالی امنیتی

  • مراسم بزرگداشت شهدای جنگ تحمیلی ۱۲ روزه

  • پیام تسلیت به جناب سرهنگ شعبانپور

  • گلچین مداحی شهادت حضرت رقیه(س)

  • قالیباف صدای مظلومیت ایران در قلب ژنو فریاد زد

  • خروج هیئت‌های فلسطین، ایران و یمن از اجلاس بین‌المجالس به هنگام سخنرانی رئیس کنست اسرائیل

  • چرا اصرار بر یک باور در دولتمردان خصوصا وزارت خارجه پر‌رنگ است؟

  • پرده‌برداری رهبر انقلاب از لایه تمدنی جنگ ۱۲ روزه

  • هسته‌ای و حقوق بشر بهانه است آمریکا از توانایی‌های جمهوری اسلامی ناراحت است +صوت و فیلم

  • لایحه مقابله با نشر اکاذیب خلع سلاح جریان تحریف

  • دفاع پیش‌دستانه مشروع ایران: ضرورتی امنیتی در برابر تهدیدات مستمر

  • الاغ نمی پرد یونجه، موز نمی دهد!

  • موازنه برتری قدرت موشکی بر قدرت جنگنده‌ها

  • بنر پویش نه به تصادف برای استفاده پایگاه‌های خبری
    |ف |
    | | | |
    کد خبر: 406834
    تاریخ انتشار: 16/مرداد/1404 - 15:01

    هکرها اطلاعات حساس را از طریق چت‌جی‌پی‌تی می دزدند

    محققان امنیتی فاش کردند هکرها با یک ترفند ساده می‌توانند بدون دخالت کاربر، اطلاعات حساس را از طریق چت‌جی‌پی‌تی بدزدند.

    هکرها اطلاعات حساس را از طریق چت‌جی‌پی‌تی می دزدند

    به گزارش پایگاه خبری «حامیان ولایت» ، به نقل از فارس

    محققان امنیتی یک نقطه‌ضعف در اتصال‌دهنده‌های (Connectors) شرکت اپن‌ای‌آی کشف کرده‌اند که به چت‌جی‌پی‌تی اجازه می‌دهد به سرویس‌های دیگر متصل شود. این نقص به هکرها امکان می‌دهد بدون نیاز به تعامل کاربر، اطلاعات حساسی را از گوگل درایو استخراج کنند.


    مدل‌های جدید هوش مصنوعی مولد، دیگر صرفاً چت‌بات‌های تولید متن نیستند. این ابزارها می‌توانند به داده‌های شخصی شما متصل شوند و پاسخ‌های سفارشی ارائه دهند. برای مثال، چت‌جی‌پی‌تی می‌تواند به جیمیل یا تقویم مایکروسافت شما دسترسی پیدا کند. اما این اتصالات می‌توانند مورد سوءاستفاده قرار گیرند و محققان نشان داده‌اند که تنها یک سند آلوده برای این کار کافی است.مایکل بارگوری، در کنفرانس هکری بلک هت ر لاس‌وگاس، جزئیات این ضعف را فاش کرد. او با استفاده از یک حمله تزریق غیرمستقیم (Indirect Prompt Injection) به نام AgentFlayer نشان داد که چگونه می‌توان اطلاعات محرمانه، مانند کلیدهای API، را از یک حساب گوگل درایو استخراج کرد.


    بارگوری گفت: «کاربر در به خطر افتادن یا سرقت اطلاعاتش هیچ دخالتی ندارد. ما نشان دادیم که این حمله کاملاً بدون نیاز به کلیک است؛ فقط کافی است ایمیل شما را داشته باشیم و سند را با شما به اشتراک بگذاریم.»شرکت اپن‌ای‌آی اوایل سال جاری میلادی(دی-بهمن1403) ابزار اتصال‌دهنده‌ را به‌صورت آزمایشی برای چت‌جی‌پی‌تی معرفی کرد که به کاربران امکان می‌دهد حداقل ۱۷ سرویس مختلف را به حساب‌های خود متصل کنند. این سیستم به کاربران اجازه می‌دهد ابزارها و داده‌های خود را به چت‌جی‌پی‌تی وارد کنند و فایل‌ها را جستجو کرده یا به محتوای زنده ارجاع دهند.


    چگونه این حمله کار می‌کند؟حمله از یک سند آلوده شروع می‌شود که به گوگل‌درایو قربانی فرستاده می‌شود. بارگوری در آزمایش خود یک سند جعلی ساخت که به نظر می‌رسید یادداشت‌های جلسه‌ای خیالی با سم آلتمن، مدیرعامل اپن‌ای‌آی است. داخل این سند، یک دستور مخرب ۳۰۰ کلمه‌ای با فونت سفید و اندازه خیلی کوچک مخفی شده بود که انسان نمی‌توانست آن را ببیند ولی هوش مصنوعی آن را می‌خواند.وقتی قربانی از چت‌بات می‌خواهد «آخرین جلسه‌ام با سم را خلاصه کن»، دستور مخفی به هوش مصنوعی می‌گوید که نیازی به خلاصه‌کردن نیست. به‌جای آن، باید دنبال کلیدهای API (رمزهای دسترسی) در گوگل درایو بگردد و آن‌ها را به یک لینک اضافه کند. این لینک در واقع یک کد خاص است که به سرور هکرها متصل می‌شود و اطلاعات را از حساب قربانی می‌دزدد.

    کلیدها مثل یک کلید دسترسی عمل می‌کنند و برای شناسایی و تأیید هویت کاربران یا برنامه‌ها در هنگام استفاده از خدمات آنلاین، مانند اتصال به سرورها یا دسترسی به داده‌ها، استفاده می‌شوند.اندی ون، یکی از مدیران گوگل، می‌گوید: «اگرچه این مشکل خاص به گوگل محدود نیست، اما نشان می‌دهد چرا توسعه حفاظت‌های قوی در برابر حملات تزریق دستور اهمیت دارد» »این حمله نمونه دیگری از خطرات تزریق غیرمستقیم دستور در سیستم‌های هوش مصنوعی است. محققان هشدار می‌دهند که با اتصال بیشتر سیستم‌ها به مدل‌های هوش مصنوعی، خطر واردکردن داده‌های غیرقابل‌اعتماد افزایش می‌یابد. دسترسی به اطلاعات حساس می‌تواند راه را برای نفوذ هکرها به سایر سیستم‌های یک سازمان باز کند. بارگوری می‌گوید: «اتصال مدل‌های زبانی به منابع داده خارجی، قابلیت‌های آن‌ها را افزایش می‌دهد، اما این قدرت با خطرات بیشتری همراه است.»

    مرتبط ها
    نظرات بینندگان
    نظرات شما