- 19:15Swissport در فرودگاههای مراکش، واگذاری سالنهای VIP را پذیرفته است.
- 18:30فیگارو 10 مقصد زیبای طبیعت مراکش را معرفی می کند
- 17:45تولید سیستم صوتی الکتریکی سیتروئن ë-C4 در مراکش برای توسعه اقتصادی بیشتر.
- 17:00مراکش قصد دارد صنعت هواپیماهای بدون سرنشین را برای رفع نیازهای نظامی و اقتصادی خود توسعه دهد
- 16:00پروژه اتصال دریایی بین آفریقا و اروپا دوباره در مرکز توجه قرار میگیرد
- 15:20مراکش موقعیت خود را در شاخص عملکرد آب و هوایی 2025 تقویت می کند و به رهبری خود در بی طرفی کربن ادامه می دهد.
- 14:45بوريطة از اتحادیه اروپا می خواهد که مشارکت با مراکش را به اقدامات مشخص تبدیل کند
- 14:00CMA CGM سرمایه گذاری های خود را در بندر نادور برای توسعه زیرساخت های لجستیک در مراکش تقویت می کند
- 13:35مراکش: جایگزینی برای مشاغلی که با سیاست های ترامپ روبرو هستند؟
ما را در فیسبوک دنبال کنید
هشدار: ChatGPT-4o ممکن است برای کلاهبرداری و سرقت وجوه استفاده شود
یک مطالعه اخیر نشان می دهد که API دستیار صوتی ChatGPT-4o OpenAI ممکن است توسط مجرمان سایبری برای انجام کلاهبرداری مالی با نرخ موفقیت کم تا متوسط مورد سوء استفاده قرار گیرد.
ChatGPT-4o جدیدترین مدل هوش مصنوعی OpenAI است که میتواند متن، صدا و تصاویر را دریافت و خروجی کند. برای محدود کردن سوء استفاده، OpenAI چندین مکانیسم امنیتی را با هدف شناسایی محتوای مخرب و جلوگیری از پخش مجدد غیرمجاز یکپارچه کرده است.
همانطور که دیپ فیک ها و ابزارهای تبدیل متن به گفتار گسترده تر می شوند، مشکل کلاهبرداری صوتی تشدید می شود و ضرر و زیان میلیون ها نفر تخمین زده می شود.
محققان دانشگاه ایلینویز یک مقاله تحقیقاتی منتشر کردند که نشان میدهد ابزارهای فنی مدرن در دسترس عموم فاقد مکانیسمهای حفاظتی کافی در برابر سوء استفاده در عملیاتهای متقلبانه هستند.
این مطالعه انواع مختلفی از کلاهبرداری از جمله نقل و انتقالات بانکی، سرقت کارت های هدیه، انتقال ارز دیجیتال و سرقت اطلاعات حساب های ایمیل و رسانه های اجتماعی را بررسی کرد.
این کلاهبرداری ها از اسکریپت های مبتنی بر صدا در ChatGPT-4o برای پیمایش صفحات وب، وارد کردن داده ها، مدیریت کدهای احراز هویت دو مرحله ای و پیروی از دستورالعمل های کلاهبرداری استفاده می کنند. مدل GPT-4o اغلب از رسیدگی به داده های حساس امتناع می ورزد، اما محققان توانستند با استفاده از تکنیک های ساده بر برخی از محدودیت ها غلبه کنند تا مدل را وادار به پاسخگویی کنند.
برای اثبات اثربخشی کلاهبرداری، محققان نقش قربانیان را در آزمایشها شبیهسازی کردند و از سایتهایی مانند «بانک آمریکا» برای تأیید موفقیت نقل و انتقالات بانکی استفاده کردند، اما میزان توانایی مدل برای متقاعد کردن را اندازهگیری نکردند.
آزمایشها نشان داد که میزان موفقیت بین 20 تا 60 درصد متغیر است و هر تلاش به 26 مرحله متوالی از طریق مرورگر نیاز دارد و در موارد پیچیده حدود سه دقیقه طول میکشد. میزان موفقیت سرقت اطلاعات اکانت جیمیل 60 درصد بود در حالی که میزان موفقیت انتقال ارز دیجیتال و سرقت اطلاعات اینستاگرام 40 درصد بود.
از نظر هزینه، هزینه اجرای تقلب کم است. هر تراکنش موفق حدود 75 سنت آمریکا هزینه داشت، در حالی که انتقال بانکی پیچیده تر فقط حدود 2.51 دلار هزینه دارد.
در نظر OpenAI که توسط وبسایت فنی BleepingComputer منتشر شده است، نشان میدهد که آخرین مدل آن «o1-preview» دارای قابلیتهای بالایی در مقاومت در برابر تلاشهای کلاهبرداری، بهبود امنیت در مقایسه با مدلهای قبلی است و همچنین در تستهای امنیتی ۹۳ درصد امتیاز بالایی کسب کرده است. 71% در مدل های قبلی GPT-4o.
OpenAI توضیح داد که تحقیقات دانشگاهی، مانند آنچه توسط دانشگاه ایلینویز ارائه شده است، به بهبود ChatGPT برای رسیدگی به استفادههای مخرب کمک میکند. این شرکت تعهد خود را به تقویت مکانیسمهای امنیتی در مدلهای آینده خود تأیید کرد و همچنین تولید صدا در GPT-4o را به مجموعهای از صداهای مجاز برای جلوگیری از جعل صدا محدود میکند.