X
  • فجر
  • طلوع آفتاب
  • ظهر
  • عصر
  • مغرب
  • عشاء

ما را در فیس‌بوک دنبال کنید

هشدار: ChatGPT-4o ممکن است برای کلاهبرداری و سرقت وجوه استفاده شود

هشدار: ChatGPT-4o ممکن است برای کلاهبرداری و سرقت وجوه استفاده شود
Sunday 03 - 20:41
Zoom

یک مطالعه اخیر نشان می دهد که API دستیار صوتی ChatGPT-4o OpenAI ممکن است توسط مجرمان سایبری برای انجام کلاهبرداری مالی با نرخ موفقیت کم تا متوسط ​​مورد سوء استفاده قرار گیرد.

ChatGPT-4o جدیدترین مدل هوش مصنوعی OpenAI است که می‌تواند متن، صدا و تصاویر را دریافت و خروجی کند. برای محدود کردن سوء استفاده، OpenAI چندین مکانیسم امنیتی را با هدف شناسایی محتوای مخرب و جلوگیری از پخش مجدد غیرمجاز یکپارچه کرده است.

همانطور که دیپ فیک ها و ابزارهای تبدیل متن به گفتار گسترده تر می شوند، مشکل کلاهبرداری صوتی تشدید می شود و ضرر و زیان میلیون ها نفر تخمین زده می شود.

محققان دانشگاه ایلینویز یک مقاله تحقیقاتی منتشر کردند که نشان می‌دهد ابزارهای فنی مدرن در دسترس عموم فاقد مکانیسم‌های حفاظتی کافی در برابر سوء استفاده در عملیات‌های متقلبانه هستند.

این مطالعه انواع مختلفی از کلاهبرداری از جمله نقل و انتقالات بانکی، سرقت کارت های هدیه، انتقال ارز دیجیتال و سرقت اطلاعات حساب های ایمیل و رسانه های اجتماعی را بررسی کرد.

این کلاهبرداری ها از اسکریپت های مبتنی بر صدا در ChatGPT-4o برای پیمایش صفحات وب، وارد کردن داده ها، مدیریت کدهای احراز هویت دو مرحله ای و پیروی از دستورالعمل های کلاهبرداری استفاده می کنند. مدل GPT-4o اغلب از رسیدگی به داده های حساس امتناع می ورزد، اما محققان توانستند با استفاده از تکنیک های ساده بر برخی از محدودیت ها غلبه کنند تا مدل را وادار به پاسخگویی کنند.

برای اثبات اثربخشی کلاهبرداری، محققان نقش قربانیان را در آزمایش‌ها شبیه‌سازی کردند و از سایت‌هایی مانند «بانک آمریکا» برای تأیید موفقیت نقل و انتقالات بانکی استفاده کردند، اما میزان توانایی مدل برای متقاعد کردن را اندازه‌گیری نکردند.

آزمایش‌ها نشان داد که میزان موفقیت بین 20 تا 60 درصد متغیر است و هر تلاش به 26 مرحله متوالی از طریق مرورگر نیاز دارد و در موارد پیچیده حدود سه دقیقه طول می‌کشد. میزان موفقیت سرقت اطلاعات اکانت جیمیل 60 درصد بود در حالی که میزان موفقیت انتقال ارز دیجیتال و سرقت اطلاعات اینستاگرام 40 درصد بود.

از نظر هزینه، هزینه اجرای تقلب کم است. هر تراکنش موفق حدود 75 سنت آمریکا هزینه داشت، در حالی که انتقال بانکی پیچیده تر فقط حدود 2.51 دلار هزینه دارد.

در نظر OpenAI که توسط وب‌سایت فنی BleepingComputer منتشر شده است، نشان می‌دهد که آخرین مدل آن «o1-preview» دارای قابلیت‌های بالایی در مقاومت در برابر تلاش‌های کلاهبرداری، بهبود امنیت در مقایسه با مدل‌های قبلی است و همچنین در تست‌های امنیتی ۹۳ درصد امتیاز بالایی کسب کرده است. 71% در مدل های قبلی GPT-4o.

OpenAI توضیح داد که تحقیقات دانشگاهی، مانند آنچه توسط دانشگاه ایلینویز ارائه شده است، به بهبود ChatGPT برای رسیدگی به استفاده‌های مخرب کمک می‌کند. این شرکت تعهد خود را به تقویت مکانیسم‌های امنیتی در مدل‌های آینده خود تأیید کرد و همچنین تولید صدا در GPT-4o را به مجموعه‌ای از صداهای مجاز برای جلوگیری از جعل صدا محدود می‌کند.


ادامه مطلب