- 10:30گوگل قابلیت جدیدی را برای محافظت از حریم خصوصی در جیمیل توسعه داده است
- 10:00بیتکوین از 99000 دلار عبور کرده و به سد تاریخی 100000 دلار نزدیک می شود
- 09:20مراکش قصد دارد هر دقیقه یک خودرو تولید کند
- 09:00ترامپ پس از کناره گیری مت گاتز، پم باندی را به عنوان دادستان کل منصوب کرد
- 08:30Volker Türk: در شرایط آشفته بین المللی، شورای حقوق بشر نقش مهمی ایفا خواهد کرد
- 07:45پاناما روابط دیپلماتیک خود را با موسوم به "RASD" به حالت تعلیق درآورد.
- 17:00یاهو یک اپلیکیشن پیامرسان جدید با استفاده از هوش مصنوعی برای بهبود تجربه کاربری راهاندازی میکند
- 16:30ایران به حمایت بی دریغ از سوریه و مقاومت ادامه دهد
- 16:20با تشدید درگیری در اوکراین، نفت اوج گرفت
ما را در فیسبوک دنبال کنید
هشدار: ChatGPT-4o ممکن است برای کلاهبرداری و سرقت وجوه استفاده شود
یک مطالعه اخیر نشان می دهد که API دستیار صوتی ChatGPT-4o OpenAI ممکن است توسط مجرمان سایبری برای انجام کلاهبرداری مالی با نرخ موفقیت کم تا متوسط مورد سوء استفاده قرار گیرد.
ChatGPT-4o جدیدترین مدل هوش مصنوعی OpenAI است که میتواند متن، صدا و تصاویر را دریافت و خروجی کند. برای محدود کردن سوء استفاده، OpenAI چندین مکانیسم امنیتی را با هدف شناسایی محتوای مخرب و جلوگیری از پخش مجدد غیرمجاز یکپارچه کرده است.
همانطور که دیپ فیک ها و ابزارهای تبدیل متن به گفتار گسترده تر می شوند، مشکل کلاهبرداری صوتی تشدید می شود و ضرر و زیان میلیون ها نفر تخمین زده می شود.
محققان دانشگاه ایلینویز یک مقاله تحقیقاتی منتشر کردند که نشان میدهد ابزارهای فنی مدرن در دسترس عموم فاقد مکانیسمهای حفاظتی کافی در برابر سوء استفاده در عملیاتهای متقلبانه هستند.
این مطالعه انواع مختلفی از کلاهبرداری از جمله نقل و انتقالات بانکی، سرقت کارت های هدیه، انتقال ارز دیجیتال و سرقت اطلاعات حساب های ایمیل و رسانه های اجتماعی را بررسی کرد.
این کلاهبرداری ها از اسکریپت های مبتنی بر صدا در ChatGPT-4o برای پیمایش صفحات وب، وارد کردن داده ها، مدیریت کدهای احراز هویت دو مرحله ای و پیروی از دستورالعمل های کلاهبرداری استفاده می کنند. مدل GPT-4o اغلب از رسیدگی به داده های حساس امتناع می ورزد، اما محققان توانستند با استفاده از تکنیک های ساده بر برخی از محدودیت ها غلبه کنند تا مدل را وادار به پاسخگویی کنند.
برای اثبات اثربخشی کلاهبرداری، محققان نقش قربانیان را در آزمایشها شبیهسازی کردند و از سایتهایی مانند «بانک آمریکا» برای تأیید موفقیت نقل و انتقالات بانکی استفاده کردند، اما میزان توانایی مدل برای متقاعد کردن را اندازهگیری نکردند.
آزمایشها نشان داد که میزان موفقیت بین 20 تا 60 درصد متغیر است و هر تلاش به 26 مرحله متوالی از طریق مرورگر نیاز دارد و در موارد پیچیده حدود سه دقیقه طول میکشد. میزان موفقیت سرقت اطلاعات اکانت جیمیل 60 درصد بود در حالی که میزان موفقیت انتقال ارز دیجیتال و سرقت اطلاعات اینستاگرام 40 درصد بود.
از نظر هزینه، هزینه اجرای تقلب کم است. هر تراکنش موفق حدود 75 سنت آمریکا هزینه داشت، در حالی که انتقال بانکی پیچیده تر فقط حدود 2.51 دلار هزینه دارد.
در نظر OpenAI که توسط وبسایت فنی BleepingComputer منتشر شده است، نشان میدهد که آخرین مدل آن «o1-preview» دارای قابلیتهای بالایی در مقاومت در برابر تلاشهای کلاهبرداری، بهبود امنیت در مقایسه با مدلهای قبلی است و همچنین در تستهای امنیتی ۹۳ درصد امتیاز بالایی کسب کرده است. 71% در مدل های قبلی GPT-4o.
OpenAI توضیح داد که تحقیقات دانشگاهی، مانند آنچه توسط دانشگاه ایلینویز ارائه شده است، به بهبود ChatGPT برای رسیدگی به استفادههای مخرب کمک میکند. این شرکت تعهد خود را به تقویت مکانیسمهای امنیتی در مدلهای آینده خود تأیید کرد و همچنین تولید صدا در GPT-4o را به مجموعهای از صداهای مجاز برای جلوگیری از جعل صدا محدود میکند.