فیشینگ نسل بعدی: ظهور کلاهبرداری های AI Vishing


در امنیت سایبری ، تهدیدهای آنلاین ناشی از هوش مصنوعی می تواند تأثیرات بسیار مادی بر افراد و سازمانها در سراسر جهان داشته باشد. کلاهبرداری های سنتی فیشینگ از طریق سوء استفاده از ابزارهای هوش مصنوعی تکامل یافته و با هر سال گذر ، مکرر ، پیشرفته و سخت تر رشد می کنند. هوش مصنوعی شاید بیشترین توجه به این تکنیک های در حال تحول باشد.

هوش مصنوعی چیست؟

هوش مصنوعی یک تکامل فیشینگ صدا (VINISHING) است ، جایی که مهاجمان افراد قابل اعتماد مانند نمایندگان بانکی یا تیم های پشتیبانی فنی را جعل می کنند تا قربانیان را در انجام اقدامات مانند انتقال وجوه یا دسترسی به حسابهای خود فریب دهند.

هوش مصنوعی کلاهبرداری های والایی را با فناوری هایی از جمله کلون سازی صوتی و عمیق که از صدای افراد قابل اعتماد تقلید می کند ، تقویت می کند. مهاجمان می توانند از هوش مصنوعی برای خودکارسازی تماس های تلفنی و مکالمات استفاده کنند و به آنها امکان می دهد تعداد زیادی از افراد را در مدت زمان نسبتاً کوتاه هدف قرار دهند.

هوش مصنوعی در دنیای واقعی

مهاجمان به طور غیرقانونی از تکنیک های هوش مصنوعی استفاده می کنند و همه را از افراد آسیب پذیر تا مشاغل هدف قرار می دهند. این حملات به طرز چشمگیری مؤثر بوده است ، در حالی که تعداد آمریکایی ها پول خود را از دست می دهند 23 ٪از سال 2023 تا 2024. برای بیان این موضوع ، ما برخی از حملات پرشور هوش مصنوعی را که طی چند سال گذشته اتفاق افتاده است ، کشف خواهیم کرد.

کلاهبرداری تجاری ایتالیایی

در اوایل سال 2025 ، کلاهبرداران از هوش مصنوعی برای تقلید از صدای وزیر دفاع ایتالیا ، Guido Crosetto ، در تلاش برای کلاهبرداری برخی از برجسته ترین رهبران تجارت ایتالیا ، از جمله طراح مد جورجیو آرمانی و بنیانگذار پاتیزیو برتلی ، استفاده کرد.

مهاجمان به عنوان کراستو ، ادعا کردند که برای آزادی یک روزنامه نگاران ایتالیایی ربوده شده در خاورمیانه به کمک مالی فوری نیاز دارند. در این مورد تنها یک هدف برای کلاهبرداری سقوط کرد – ماسیمو مورتی ، صاحب سابق اینتر میلان – و پلیس موفق به بازیابی وجوه سرقت شده شد.

هتل ها و شرکت های مسافرتی تحت محاصره

با توجه به وال استریت ژورنالدر سه ماهه آخر سال 2024 شاهد افزایش قابل توجهی در حملات هوش مصنوعی به مهمان نوازی و صنعت مسافرتی بود. مهاجمان از هوش مصنوعی برای جعل هویت نمایندگان مسافرتی و مدیران شرکت برای فریب کارکنان هتل در هتل برای تقسیم اطلاعات حساس یا اعطای دسترسی غیرمجاز به سیستم ها استفاده کردند.

آنها این کار را با کارگردانی نمایندگان شلوغ خدمات مشتری ، اغلب در ساعات عملیاتی اوج ، برای باز کردن یک ایمیل یا مرورگر با دلبستگی مخرب انجام دادند. به دلیل توانایی قابل توجه در تقلید از شرکای کار با هتل از طریق ابزارهای هوش مصنوعی ، کلاهبرداری های تلفنی “یک تهدید مداوم” تلقی می شدند.

کلاهبرداری عاشقانه

در سال 2023 ، مهاجم از هوش مصنوعی برای تقلید از صدای اعضای خانواده در پریشانی و کلاهبرداری افراد سالخورده از حدود 200000 دلار استفاده کرد. تشخیص تماس های کلاهبرداری به خصوص برای افراد مسن دشوار است ، اما وقتی صدا در انتهای تلفن دقیقاً مانند یک عضو خانواده به نظر می رسد ، تقریباً غیر قابل کشف هستند. شایان ذکر است که این حادثه دو سال پیش رخ داده است – کلونینگ صوتی از آن زمان تاکنون پیشرفته تر شده است.

ai vishing-as-a-service

AI Vishing-As-A-A-Service (VAAS) در چند سال گذشته نقش مهمی در رشد Ai Vishing داشته است. این مدل های اشتراک می توانند شامل قابلیت های کلاهبرداری ، ارسال های سفارشی و عوامل سازگار باشند و به بازیگران بد امکان می دهند حملات هوش مصنوعی را در مقیاس انجام دهند.

در فرترا، ما در حال ردیابی Plugvalley ، یکی از بازیکنان اصلی بازار AI Vishing-as-A-Service بوده ایم. این تلاش ها به ما بینش در مورد گروه تهدید داده است و شاید مهمتر از همه ، روشن شود که چقدر حملات پیشرفته و پیشرفته در حال پیشرفت بوده است.

چمن زنی: ai vaas کشف شد

Vishing Bot Plugvalley به بازیگران تهدید اجازه می دهد تا صداهای قابل تنظیم و قابل تنظیم را برای دستکاری قربانیان بالقوه مستقر کنند. این ربات می تواند در زمان واقعی سازگار شود ، از الگوهای گفتار انسان تقلید کند ، شناسه تماس گیرنده را تقلید کند و حتی سر و صدای پس زمینه مرکز تماس را به تماس های صوتی اضافه کند. این باعث می شود کلاهبرداری های هوش مصنوعی تا حد امکان قانع کننده باشد و به مجرمان سایبری کمک می کند تا اعتبار بانکی و رمزهای عبور یک بار (OTP) را سرقت کند.

Plugvalley موانع فنی را برای مجرمان سایبری از بین می برد و فناوری کلاهبرداری مقیاس پذیر را با کلیک یک دکمه برای اشتراک های اسمی ماهانه ارائه می دهد.

ارائه دهندگان AI VAAS مانند Plugvalley فقط کلاهبرداری در حال اجرا نیستند. آنها فیشینگ صنعتی هستند. آنها نمایانگر جدیدترین تکامل مهندسی اجتماعی هستند و به مجرمان سایبری اجازه می دهند تا ابزارهای یادگیری ماشین (ML) را اسلحه سازی کنند و از افراد در مقیاس گسترده استفاده کنند.

محافظت در برابر هوش مصنوعی

تکنیک های مهندسی اجتماعی محور AI ، مانند هوش مصنوعی ، قرار است در سالهای آینده رایج ، مؤثرتر و پیشرفته تر شود. در نتیجه ، سازمانها مهم است که استراتژی های پیشگیرانه مانند آموزش آگاهی از کارمندان ، سیستم های پیشرفته تشخیص کلاهبرداری و هوش تهدید در زمان واقعی را اجرا کنند

در سطح فردی ، راهنمایی های زیر می تواند در شناسایی و جلوگیری از تلاش های هوش مصنوعی کمک کند:

  • نسبت به تماس های ناخواسته شک کنید: با تماس های تلفنی غیر منتظره ، به ویژه آنهایی که درخواست جزئیات شخصی یا مالی می کنند ، احتیاط کنید. سازمان های قانونی به طور معمول از طریق تلفن اطلاعات حساس درخواست نمی کنند. ​
  • هویت تماس گیرنده را تأیید کنید: اگر یک تماس گیرنده ادعا می کند نماینده یک سازمان شناخته شده است ، به طور مستقل هویت خود را با تماس مستقیم با سازمان با استفاده از اطلاعات تماس رسمی تأیید می کند. ​سیمی پیشنهاد می کند یک رمزعبور مخفی با خانواده خود ایجاد کنید تا حملات Vishing را که ادعا می شود از یکی از اعضای خانواده است ، تشخیص دهید.
  • اشتراک اطلاعات را محدود کنید: از افشای اطلاعات شخصی یا مالی در هنگام تماس های ناخواسته خودداری کنید. اگر تماس گیرنده حس فوریت ایجاد کند یا عواقب منفی را تهدید کند ، به خصوص احتیاط کنید. ​
  • خود و دیگران را آموزش دهید: در مورد تاکتیک های رایج و رایج آگاه باشید و این دانش را با دوستان و خانواده به اشتراک بگذارید. آگاهی یک دفاع مهم در برابر حملات مهندسی اجتماعی است.
  • گزارش تماسهای مشکوک: به مقامات مربوطه یا آژانس های حفاظت از مصرف کننده در مورد تلاش های Vishing اطلاع دهید. گزارشگری به ردیابی و کاهش فعالیت های کلاهبرداری کمک می کند.

با تمام نشانه ها ، هوش مصنوعی در اینجا برای ماندن است. در حقیقت ، احتمالاً همچنان به افزایش حجم و بهبود در اجرای آن ادامه می یابد. با شیوع تخفیف های عمیق و سهولت اتخاذ مبارزات انتخاباتی با مدل های خدمات AS-A-Service ، سازمان ها باید پیش بینی کنند که در بعضی مواقع با حمله هدف قرار می گیرند.

آموزش کارکنان و تشخیص کلاهبرداری برای آماده سازی و جلوگیری از حملات هوش مصنوعی مهم است. پیچیدگی هوش مصنوعی می تواند حتی متخصصان امنیتی آموزش دیده را نیز به این باور برساند که درخواست ها یا روایات ظاهراً معتبر باشد. به همین دلیل ، یک استراتژی امنیتی جامع و لایه ای که از حفاظت های فناوری با نیروی کار مداوم آگاه و هوشیار ادغام می شود ، برای کاهش خطرات ناشی از فیشینگ هوش مصنوعی ضروری است.



منبع:unite.ai

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *