-
16:30
-
15:45
-
15:00
-
14:21
-
13:51
-
13:39
-
13:00
-
12:15
-
11:30
-
11:21
-
10:44
-
10:00
-
09:15
-
09:07
-
08:27
-
08:00
-
07:45
ما را در فیسبوک دنبال کنید
یک آسیبپذیری حیاتی در ChatGPT دادههای جیمیل را تهدید میکند
محققان امنیت سایبری یک آسیبپذیری حیاتی در ابزار جستجوی عمیق مدل هوش مصنوعی ChatGPT کشف کردهاند که میتوانست به هکرها اجازه دسترسی به دادههای حساس جیمیل کاربران را بدهد.
ChatGPT یکی از پرکاربردترین مدلهای هوش مصنوعی در سراسر جهان است و بسیاری از کاربران به حسابهای جیمیل خود متصل هستند، به ویژه مشترکینی که از ابزار جستجوی عمیق برای انجام تجزیه و تحلیل پیشرفته روی حجم زیادی از اطلاعات استفاده میکنند.
به گفته Radware، یک شرکت پیشرو در امنیت سایبری، این آسیبپذیری میتوانست به هکرها اجازه دهد بدون اطلاع کاربران، دادههای حساس را از حسابهای جیمیل شخصی و تجاری سرقت کنند. پاسکال جنیس، مدیر Radware، توضیح داد که خطر این آسیبپذیری در توانایی آن در سوءاستفاده مخفیانه نهفته است و به هکرها اجازه میدهد بدون هیچ گونه علائم هشدار دهندهای در حسابها، اطلاعات حیاتی را استخراج کنند.
با این حال، این شرکت تأیید کرد که این آسیبپذیری قبل از انتشار وصله مورد سوءاستفاده قرار نگرفته بود و OpenAI بلافاصله پس از کشف آن، این نقص را برطرف کرد. به گزارش بلومبرگ، این حادثه اهمیت تقویت اقدامات امنیتی در ابزارهای هوش مصنوعی، به ویژه ابزارهای مرتبط با حسابهای ایمیل حساس را برجسته میکند.
این آسیبپذیری، ویژگی جستجوی عمیق ChatGPT را هدف قرار میدهد که میتواند با اجازه کاربر به حسابهای Gmail دسترسی پیدا کند تا پاسخهای دقیق و سریعی به سوالات پیچیده ارائه دهد. در طول آزمایش، محققان توانستند دستورالعملهای پنهانی را به این ابزار ارسال کنند و آن را به اسکن صندوقهای ورودی برای دادههای شخصی مانند نام و آدرس هدایت کنند و سپس این دادهها را به یک آدرس وب خارجی ارسال کنند. این سناریو نشان میدهد که در صورت سوءاستفاده از این آسیبپذیری، اطلاعات حساس تا چه حد میتوانند به خطر بیفتند.
این حادثه در زمانی رخ میدهد که اتکا به مدلهای هوش مصنوعی در زندگی روزمره و حرفهای، از جمله اتوماسیون تجاری، تجزیه و تحلیل دادهها و مدیریت ایمیل، رو به افزایش است. تجربه جهانی نشان میدهد که هرگونه نقص در این سیستمها میتواند خطرات قابل توجهی را برای حریم خصوصی کاربران و حفاظت از دادههای حساس ایجاد کند و نیاز به بررسی منظم و بهروزرسانی مداوم سیستمهای امنیتی را تقویت کند.
در نهایت، این آسیبپذیری بر لزوم افزایش آگاهی کاربران از خطرات امنیتی هوش مصنوعی، فعال کردن ویژگیهای حفاظتی در حسابهای Gmail آنها و جلوگیری از اشتراکگذاری دادههای حساس با هر ابزاری که ممکن است مجوزهای گستردهای داشته باشد، تأکید میکند. همچنین، این امر بر مسئولیت توسعهدهندگان برای تضمین امنیت دادههای کاربران، بهویژه با توجه به افزایش اتکا به هوش مصنوعی برای مدیریت اطلاعات شخصی و حرفهای، تأکید میکند.