- 17:07مراکش در داکار حمایت بیدریغ خود را از آرمان فلسطین و وضعیت قدس اعلام کرد
- 16:30واشنگتن از ماه اوت تعرفههای جدیدی را علیه شش کشور اعمال میکند
- 16:25نمایندگان مجلس بریتانیا: ایران تهدیدی قابل توجه و گسترده برای کشور ما محسوب میشود
- 15:52مراکش جایگاه دوازدهم خود را در ردهبندی فیفا حفظ کرد و همچنان صدرنشین آفریقا و عرب است
- 15:38مراکش جایگاه خود را به عنوان یک مقصد گردشگری جهانی در سال ۲۰۲۵ تثبیت میکند
- 15:10لابیگران مرتبط با دونالد ترامپ میلیونها دلار توسط فقیرترین کشورهای جهان پرداخت کردند
- 14:23مراکش تحت رهبری سلطنتی، تعهد تزلزلناپذیر خود را به قدس در داکار مجدداً تأیید کرد
- 14:02ارزش انویدیا به لطف انفجار هوش مصنوعی از مرز ۴ تریلیون دلار گذشت
- 13:50دونالد ترامپ، شان دافی را به عنوان سرپرست موقت ناسا منصوب کرد
ما را در فیسبوک دنبال کنید
هشدار: ChatGPT-4o ممکن است برای کلاهبرداری و سرقت وجوه استفاده شود
یک مطالعه اخیر نشان می دهد که API دستیار صوتی ChatGPT-4o OpenAI ممکن است توسط مجرمان سایبری برای انجام کلاهبرداری مالی با نرخ موفقیت کم تا متوسط مورد سوء استفاده قرار گیرد.
ChatGPT-4o جدیدترین مدل هوش مصنوعی OpenAI است که میتواند متن، صدا و تصاویر را دریافت و خروجی کند. برای محدود کردن سوء استفاده، OpenAI چندین مکانیسم امنیتی را با هدف شناسایی محتوای مخرب و جلوگیری از پخش مجدد غیرمجاز یکپارچه کرده است.
همانطور که دیپ فیک ها و ابزارهای تبدیل متن به گفتار گسترده تر می شوند، مشکل کلاهبرداری صوتی تشدید می شود و ضرر و زیان میلیون ها نفر تخمین زده می شود.
محققان دانشگاه ایلینویز یک مقاله تحقیقاتی منتشر کردند که نشان میدهد ابزارهای فنی مدرن در دسترس عموم فاقد مکانیسمهای حفاظتی کافی در برابر سوء استفاده در عملیاتهای متقلبانه هستند.
این مطالعه انواع مختلفی از کلاهبرداری از جمله نقل و انتقالات بانکی، سرقت کارت های هدیه، انتقال ارز دیجیتال و سرقت اطلاعات حساب های ایمیل و رسانه های اجتماعی را بررسی کرد.
این کلاهبرداری ها از اسکریپت های مبتنی بر صدا در ChatGPT-4o برای پیمایش صفحات وب، وارد کردن داده ها، مدیریت کدهای احراز هویت دو مرحله ای و پیروی از دستورالعمل های کلاهبرداری استفاده می کنند. مدل GPT-4o اغلب از رسیدگی به داده های حساس امتناع می ورزد، اما محققان توانستند با استفاده از تکنیک های ساده بر برخی از محدودیت ها غلبه کنند تا مدل را وادار به پاسخگویی کنند.
برای اثبات اثربخشی کلاهبرداری، محققان نقش قربانیان را در آزمایشها شبیهسازی کردند و از سایتهایی مانند «بانک آمریکا» برای تأیید موفقیت نقل و انتقالات بانکی استفاده کردند، اما میزان توانایی مدل برای متقاعد کردن را اندازهگیری نکردند.
آزمایشها نشان داد که میزان موفقیت بین 20 تا 60 درصد متغیر است و هر تلاش به 26 مرحله متوالی از طریق مرورگر نیاز دارد و در موارد پیچیده حدود سه دقیقه طول میکشد. میزان موفقیت سرقت اطلاعات اکانت جیمیل 60 درصد بود در حالی که میزان موفقیت انتقال ارز دیجیتال و سرقت اطلاعات اینستاگرام 40 درصد بود.
از نظر هزینه، هزینه اجرای تقلب کم است. هر تراکنش موفق حدود 75 سنت آمریکا هزینه داشت، در حالی که انتقال بانکی پیچیده تر فقط حدود 2.51 دلار هزینه دارد.
در نظر OpenAI که توسط وبسایت فنی BleepingComputer منتشر شده است، نشان میدهد که آخرین مدل آن «o1-preview» دارای قابلیتهای بالایی در مقاومت در برابر تلاشهای کلاهبرداری، بهبود امنیت در مقایسه با مدلهای قبلی است و همچنین در تستهای امنیتی ۹۳ درصد امتیاز بالایی کسب کرده است. 71% در مدل های قبلی GPT-4o.
OpenAI توضیح داد که تحقیقات دانشگاهی، مانند آنچه توسط دانشگاه ایلینویز ارائه شده است، به بهبود ChatGPT برای رسیدگی به استفادههای مخرب کمک میکند. این شرکت تعهد خود را به تقویت مکانیسمهای امنیتی در مدلهای آینده خود تأیید کرد و همچنین تولید صدا در GPT-4o را به مجموعهای از صداهای مجاز برای جلوگیری از جعل صدا محدود میکند.