- 15:18رئیس جمهور می گوید ایران برای راستی آزمایی کامل هسته ای آماده است
- 14:22آیوسو از تعرفه های ترامپ به عنوان اشتباهی که منجر به فقر می شود انتقاد می کند
- 13:48سازمان ملل گزارش داد که دو سوم غزه اکنون برای فلسطینیان محدود شده است
- 13:03حاکمیت صنعتی: مراکش در صنعت نیمه هادی بانکی می کند
- 12:33مراکش، شریک استراتژیک کلیدی ایالات متحده برای امنیت و ثبات در آفریقا
- 11:59هشدار صندوق بین المللی پول: تعرفه های آمریکا اقتصاد جهانی را تهدید می کند
- 11:13تقویت روابط دوجانبه: رئیس مجلس سنای شیلی از مراکش بازدید می کند
- 10:18اتحادیه اروپا و مراکش روابط نزدیکتری برای مشارکت استراتژیک قویتر ایجاد میکنند
- 09:29فرانسه بر حمایت خود از حاکمیت مراکش بر صحرای خود تاکید می کند
ما را در فیسبوک دنبال کنید
هشدار: ChatGPT-4o ممکن است برای کلاهبرداری و سرقت وجوه استفاده شود
یک مطالعه اخیر نشان می دهد که API دستیار صوتی ChatGPT-4o OpenAI ممکن است توسط مجرمان سایبری برای انجام کلاهبرداری مالی با نرخ موفقیت کم تا متوسط مورد سوء استفاده قرار گیرد.
ChatGPT-4o جدیدترین مدل هوش مصنوعی OpenAI است که میتواند متن، صدا و تصاویر را دریافت و خروجی کند. برای محدود کردن سوء استفاده، OpenAI چندین مکانیسم امنیتی را با هدف شناسایی محتوای مخرب و جلوگیری از پخش مجدد غیرمجاز یکپارچه کرده است.
همانطور که دیپ فیک ها و ابزارهای تبدیل متن به گفتار گسترده تر می شوند، مشکل کلاهبرداری صوتی تشدید می شود و ضرر و زیان میلیون ها نفر تخمین زده می شود.
محققان دانشگاه ایلینویز یک مقاله تحقیقاتی منتشر کردند که نشان میدهد ابزارهای فنی مدرن در دسترس عموم فاقد مکانیسمهای حفاظتی کافی در برابر سوء استفاده در عملیاتهای متقلبانه هستند.
این مطالعه انواع مختلفی از کلاهبرداری از جمله نقل و انتقالات بانکی، سرقت کارت های هدیه، انتقال ارز دیجیتال و سرقت اطلاعات حساب های ایمیل و رسانه های اجتماعی را بررسی کرد.
این کلاهبرداری ها از اسکریپت های مبتنی بر صدا در ChatGPT-4o برای پیمایش صفحات وب، وارد کردن داده ها، مدیریت کدهای احراز هویت دو مرحله ای و پیروی از دستورالعمل های کلاهبرداری استفاده می کنند. مدل GPT-4o اغلب از رسیدگی به داده های حساس امتناع می ورزد، اما محققان توانستند با استفاده از تکنیک های ساده بر برخی از محدودیت ها غلبه کنند تا مدل را وادار به پاسخگویی کنند.
برای اثبات اثربخشی کلاهبرداری، محققان نقش قربانیان را در آزمایشها شبیهسازی کردند و از سایتهایی مانند «بانک آمریکا» برای تأیید موفقیت نقل و انتقالات بانکی استفاده کردند، اما میزان توانایی مدل برای متقاعد کردن را اندازهگیری نکردند.
آزمایشها نشان داد که میزان موفقیت بین 20 تا 60 درصد متغیر است و هر تلاش به 26 مرحله متوالی از طریق مرورگر نیاز دارد و در موارد پیچیده حدود سه دقیقه طول میکشد. میزان موفقیت سرقت اطلاعات اکانت جیمیل 60 درصد بود در حالی که میزان موفقیت انتقال ارز دیجیتال و سرقت اطلاعات اینستاگرام 40 درصد بود.
از نظر هزینه، هزینه اجرای تقلب کم است. هر تراکنش موفق حدود 75 سنت آمریکا هزینه داشت، در حالی که انتقال بانکی پیچیده تر فقط حدود 2.51 دلار هزینه دارد.
در نظر OpenAI که توسط وبسایت فنی BleepingComputer منتشر شده است، نشان میدهد که آخرین مدل آن «o1-preview» دارای قابلیتهای بالایی در مقاومت در برابر تلاشهای کلاهبرداری، بهبود امنیت در مقایسه با مدلهای قبلی است و همچنین در تستهای امنیتی ۹۳ درصد امتیاز بالایی کسب کرده است. 71% در مدل های قبلی GPT-4o.
OpenAI توضیح داد که تحقیقات دانشگاهی، مانند آنچه توسط دانشگاه ایلینویز ارائه شده است، به بهبود ChatGPT برای رسیدگی به استفادههای مخرب کمک میکند. این شرکت تعهد خود را به تقویت مکانیسمهای امنیتی در مدلهای آینده خود تأیید کرد و همچنین تولید صدا در GPT-4o را به مجموعهای از صداهای مجاز برای جلوگیری از جعل صدا محدود میکند.
نظرات (0)