خطر واقعی مدل های زبان: کلاهبرداری های مبتنی بر هوش مصنوعی


این را تصور کنید: شما در محل کار هستید، با تمرکز لیزر در یک ضرب الاجل محدود، زمانی که با شماره تلفن مادرتان تماسی دریافت می کنید. صدای آن طرف بی‌تردید مال اوست، آرام و دوست داشتنی، اما با یک اشاره غیرمعمول از فوریت. او به شما می گوید که در تعطیلات خود در پاریس با مشکل جدی مواجه شده است و برای حل همه چیز فوراً به کمک مالی شما نیاز دارد. می دانید که او در پاریس است، و جزئیاتی که ارائه می دهد، تا نام هتلش، تماس را قانع کننده تر می کند. بدون فکر کردن، پول را انتقال می دهید تا بعداً متوجه شوید که مادرتان هرگز آن تماس را نداشته است. این یک سیستم هوش مصنوعی پیشرفته بود که کاملا صدای او را تقلید می کرد و یک سناریوی دقیق را ساخت. وقتی متوجه می‌شوید که چه اتفاقی افتاده، لرز بر ستون فقرات شما جاری می‌شود.

این سناریو که زمانی علمی تخیلی خالص بود، اکنون به یک واقعیت در حال ظهور تبدیل شده است. طلوع فناوری های هوش مصنوعی مانند مدل های زبان بزرگ (LLM) پیشرفت های باورنکردنی را به همراه داشته است. با این حال، یک تهدید مهم وجود دارد: کلاهبرداری های مبتنی بر هوش مصنوعی. پتانسیل کلاهبرداری‌های پیچیده با استفاده از هوش مصنوعی یک تهدید کاملاً جدید در افق پیشرفت فناوری است. در حالی که کلاهبرداری های تلفنی از زمان اختراع تلفن یک نگرانی بوده است، ادغام گسترده آن مدل های زبان بزرگ (LLM) در هر جنبه ای از ارتباطات دیجیتال خطرات را به طور چشمگیری افزایش داده است. همانطور که ما از پتانسیل هوش مصنوعی استقبال می کنیم، بسیار مهم است که ما نیز دفاع خود را در برابر این تهدیدات پیچیده تقویت کنیم.

سال‌هاست که مجرمان سعی در فریب افراد ناآگاه برای انتقال پول یا افشای اطلاعات حساس دارند، اما علیرغم شیوع کلاهبرداری‌های تلفنی، بسیاری از این کلاهبرداری‌ها نسبتاً ساده و با تکیه بر اپراتورهای اسکریپت‌خوان انسانی هستند. با این حال، حتی با وجود این محدودیت، کلاهبرداری های تلفنی همچنان یک شرکت جنایی سودآور است.

با توجه به کمیسیون تجارت فدرال ایالات متحدهتنها در سال 2022، آمریکایی ها بیش از 8.8 میلیارد دلار به دلیل کلاهبرداری از دست دادند که بخش قابل توجهی از آن به کلاهبرداری های تلفنی نسبت داده می شود، به این معنی که حتی در شکل فعلی و کمتر پیشرفته، بسیاری از این تاکتیک ها هنوز روی افراد آسیب پذیر کار می کنند. وقتی آنها تکامل می یابند چه اتفاقی می افتد؟

چشم انداز کلاهبرداری های تلفنی با ظهور چندین فناوری کلیدی برای یک تغییر چشمگیر آماده است:

مدل‌های زبان بزرگ (LLM)

این سیستم‌های هوش مصنوعی می‌توانند متنی شبیه انسان تولید کنند و در مکالمات طبیعی شرکت کنند. زمانی که LLM ها برای کلاهبرداری به کار می روند، می توانند اسکریپت های بسیار قانع کننده و انطباقی ایجاد کنند، که شناسایی کلاهبرداری را برای قربانیان احتمالی بسیار سخت تر می کند.

Retrieval-Augmented Generation (RAG)

این فناوری به سیستم های LLM اجازه می دهد تا به حجم عظیمی از اطلاعات در زمان واقعی دسترسی داشته باشند و از آنها استفاده کنند. کلاهبرداران می‌توانند نمایه یک فرد را بر اساس اطلاعات در دسترس عموم مانند حساب‌های اجتماعی‌شان بسازند. آنها همچنین می توانند از تکنیک های مهندسی اجتماعی بر روی دوستان و خانواده خود برای جمع آوری اطلاعات عمیق تر استفاده کنند. این به آنها امکان دسترسی به اطلاعاتی مانند هویت هدف، اطلاعات کاری یا حتی فعالیت های اخیر را می دهد. سپس آنها می توانند از RAG برای ارائه زمینه LLM مورد نیاز استفاده کنند و رویکردهای خود را فوق العاده شخصی و قانونی جلوه دهند.

تولید صوتی مصنوعی

پلتفرم هایی مانند شبیه هوش مصنوعی و Lyrebird در ایجاد صداهای تولید شده توسط هوش مصنوعی بسیار واقع گرایانه پیشرو هستند. این فناوری‌ها قادر به تولید صدای شخصی‌شده و شبیه انسان هستند که می‌تواند در برنامه‌های مختلف، از دستیارهای مجازی گرفته تا خدمات مشتری خودکار و تولید محتوا، استفاده شود. شرکت ها دوست دارند Eleven Labs با امکان دادن به کاربران برای ایجاد صداهای مصنوعی که می توانند صدای خود را از نزدیک تکرار کنند، مرزها را بیشتر می کنند و اجازه می دهد تا سطح جدیدی از شخصی سازی و مشارکت در تعاملات دیجیتالی را فراهم کنند.

نسل ویدیو مصنوعی

شرکت ها دوست دارند سنتزی در حال حاضر پتانسیل ایجاد محتوای ویدیویی واقعی با آواتارهای تولید شده توسط هوش مصنوعی را نشان می دهند. در سال‌های آینده، این فناوری می‌تواند به کلاهبرداران اجازه دهد تا هویت دوستان یا اعضای خانواده خود را جعل کنند یا شخصیت‌های کاملاً ساختگی برای تماس‌های ویدیویی ایجاد کنند و سطحی از واقع‌گرایی فیزیکی را که قبلاً غیرممکن بود به کلاهبرداری معرفی کند.

AI Lip-Syncing

استارت آپ هایی مانند همگام سازی آزمایشگاه ها در حال توسعه فناوری پیشرفته همگام سازی لب هستند که می تواند صدای تولید شده را با فیلم ویدئویی مطابقت دهد. این می‌تواند برای ایجاد ویدئوهای جعلی بسیار متقاعدکننده از شخصیت‌های تاریخی، سیاستمداران، افراد مشهور و تقریباً همه افراد دیگر استفاده شود و مرز بین واقعیت و فریب را بیش از پیش محو کند.

ترکیب این فناوری ها تصویر نسبتا نگران کننده ای را ترسیم می کند. یک تماس کلاهبرداری را تصور کنید که در آن هوش مصنوعی می‌تواند مکالمه خود را در زمان واقعی، مجهز به اطلاعات شخصی در مورد هدف، و حتی انتقال به یک تماس ویدیویی با یک شخص به ظاهر واقعی که لب‌هایش کاملاً با صدای تولید شده همگام می‌شود، تطبیق دهد. پتانسیل فریب واقعاً بسیار زیاد است.

همانطور که این کلاهبرداری های مبتنی بر هوش مصنوعی پیچیده تر می شوند، روش های تأیید هویت و اصالت باید با پیشرفت های هوش مصنوعی رقابت کنند. برای ایمن نگه داشتن دنیای آنلاین باید پیشرفت های نظارتی و همچنین فناوری وجود داشته باشد.

بهبودهای نظارتی

قوانین سختگیرانه‌تر حفظ حریم خصوصی داده‌ها: اجرای قوانین دقیق‌تر حفظ حریم خصوصی داده‌ها، مقدار اطلاعات شخصی موجود برای کلاهبرداران را محدود می‌کند. این قوانین می‌تواند شامل الزامات سخت‌گیرانه‌تر برای جمع‌آوری داده‌ها، افزایش پروتکل‌های رضایت کاربر و مجازات‌های شدیدتر برای نقض داده‌ها باشد.

ابر خصوصی برای قدرتمندترین مدل‌های هوش مصنوعی: مقررات می‌تواند الزام کند که قوی‌ترین مدل‌های هوش مصنوعی به جای در دسترس قرار گرفتن آشکار، در زیرساخت‌های ابری خصوصی و امن میزبانی شوند. این امر دسترسی به پیشرفته‌ترین فناوری‌ها را محدود می‌کند و استفاده از آنها برای کلاهبرداری را برای عوامل مخرب دشوارتر می‌کند. (مثلا: https://security.apple.com/blog/private-cloud-compute/)

همکاری بین المللی در مورد مقررات هوش مصنوعی: با توجه به ماهیت جهانی فناوری هوش مصنوعی، همکاری بین المللی در مورد استانداردهای نظارتی می تواند سودمند باشد. ایجاد یک نهاد جهانی مسئول ایجاد و اجرای مقررات بین‌المللی هوش مصنوعی می‌تواند به مقابله با جرایم مرتبط با هوش مصنوعی برون مرزی کمک کند.

کمپین های آگاهی عمومی: دولت ها و نهادهای نظارتی باید در کمپین های آگاهی عمومی سرمایه گذاری کنند تا به شهروندان در مورد خطرات احتمالی کلاهبرداری های هوش مصنوعی و نحوه محافظت از خود آموزش دهند. آگاهی اولین گام حیاتی در توانمندسازی افراد و سازمان ها برای اجرای اقدامات امنیتی لازم است.

مقررات فعلی هوش مصنوعی برای جلوگیری از کلاهبرداری کافی نیست و چالش مقررات آینده با ماهیت منبع باز بسیاری از فناوری های قدرتمند ترکیب شده است. این باز بودن به هر کسی اجازه می دهد تا به این فناوری ها برای اهداف خود دسترسی داشته باشد و آنها را اصلاح کند. در نتیجه، در کنار مقررات قوی‌تر، پیشرفت‌هایی در فناوری‌های امنیتی مورد نیاز است.

تشخیص داده مصنوعی

تشخیص مصنوعی صوتی: همانطور که کلاهبرداران از هوش مصنوعی استفاده می کنند، دفاع ما نیز باید انجام شود. شرکت ها دوست دارند پیندراپ در حال توسعه سیستم‌های مبتنی بر هوش مصنوعی هستند که می‌توانند صدای مصنوعی را در زمان واقعی در طول تماس‌های تلفنی شناسایی کنند. فناوری آنها بیش از 1300 ویژگی صدای تماس را تجزیه و تحلیل می کند تا مشخص کند که آیا صدای یک شخص واقعی است یا یک سیستم هوش مصنوعی پیشرفته.

تشخیص ویدیو مصنوعی: تشخیص ویدیو مصنوعی: همانطور که صدا را می‌توان با هوش مصنوعی دستکاری کرد، ویدیو نیز می‌تواند تهدیدات قابل توجهی را در قالب دیپ‌فیک و سایر محتوای ویدیویی مصنوعی ایجاد کند. شرکت ها دوست دارند Deepware در حال پیشروی فناوری های در حال توسعه برای شناسایی ویدیوهای مصنوعی هستند. پلتفرم Deepware از الگوریتم های پیشرفته یادگیری ماشین برای تجزیه و تحلیل ناهماهنگی های ظریف در داده های ویدئویی، مانند حرکات غیرطبیعی، نور نامنظم و ناهنجاری های پیکسلی که اغلب در محتوای تولید شده توسط هوش مصنوعی وجود دارد، استفاده می کند. با شناسایی این تفاوت‌ها، فناوری Deepware می‌تواند واقعی بودن یا دستکاری یک ویدیو را تعیین کند و به محافظت از افراد و سازمان‌ها در برابر فریب‌کاری‌های پیچیده مبتنی بر ویدیو و کمپین‌های اطلاعات غلط کمک کند.

پیشرفت های احراز هویت را شناسایی کنید

راه‌های مختلفی برای تأیید هویت کاربر در حال توسعه است و یک یا چند مورد از این راه‌ها در سال‌های آینده به جریان اصلی تبدیل خواهند شد تا اینترنت امن‌تر شود.

احراز هویت دو مرحله ای برای مکالمات از راه دور: احراز هویت دو مرحله ای (2FA) یکی از اجزای اساسی ارتباطات ایمن است. تحت این روش، هر تماس تلفنی یا ایمیل یک پیام متنی با یک کد تأیید منحصر به فرد، مشابه ثبت نام‌های ایمیل فعلی، ایجاد می‌کند. اگرچه 2FA برای احراز هویت اولیه مؤثر است، اما محدودیت‌های آن به این معناست که نمی‌توان در همه زمینه‌ها به آن اعتماد کرد، و توسعه روش‌های پیشرفته‌تر برای اطمینان از ایمنی اینترنت جامع که می‌تواند در پس‌زمینه کار کند، ضروری است.

احراز هویت چند عاملی مبتنی بر رفتار: فراتر از تأیید هویت در شروع تماس، سیستم‌های امنیتی آینده ممکن است به طور مداوم رفتار را در طول یک تعامل تجزیه و تحلیل کنند. شرکت ها دوست دارند BioCatch از بیومتریک های رفتاری برای ایجاد پروفایل های کاربر بر اساس نحوه تعامل افراد با دستگاه های خود استفاده کنید. این فناوری می تواند ناهنجاری هایی را در رفتار تشخیص دهد که ممکن است نشان دهد کلاهبردار از اطلاعات دزدیده شده استفاده می کند، حتی اگر بررسی های اولیه احراز هویت را پشت سر گذاشته باشند.

احراز هویت مبتنی بر بیومتریک: شرکت ها دوست دارند اونفیدو در خط مقدم فناوری تأیید بیومتریک هستند و ابزارهای تأیید هویت مبتنی بر هوش مصنوعی را ارائه می دهند که جعلی های پیچیده و سایر اشکال تقلب هویت را شناسایی می کند. سیستم آنها از ترکیبی از تأیید اسناد و تجزیه و تحلیل بیومتریک استفاده می کند تا اطمینان حاصل کند که فردی که در طرف دیگر تماس یا چت ویدیویی قرار دارد واقعاً همان چیزی است که آنها ادعا می کنند.

احراز هویت پیشرفته مبتنی بر دانش: فراتر از سؤالات امنیتی ساده، سیستم‌های احراز هویت آینده ممکن است سؤالات پویا و ایجاد شده توسط هوش مصنوعی را بر اساس ردپای دیجیتالی کاربر و فعالیت‌های اخیر ترکیب کنند. به عنوان مثال، ثابت کنید، یک شرکت متخصص در هویت تلفن محور، در حال توسعه راه حل هایی است که از هوش تلفن و تجزیه و تحلیل رفتاری برای تأیید هویت استفاده می کند. فناوری آن‌ها می‌تواند الگوهایی را تجزیه و تحلیل کند که چگونه یک فرد از دستگاه خود برای ایجاد یک «امضای هویت» منحصربه‌فرد استفاده می‌کند که تکرار آن برای کلاهبرداران بسیار سخت‌تر است.

احراز هویت مبتنی بر بلاک چین: فناوری بلاک چین یک روش غیرمتمرکز و بدون دستکاری برای تأیید هویت ارائه می دهد. شرکت ها دوست دارند مدنی سیستم‌های تأیید هویت مبتنی بر بلاک چین پیشگام هستند که به کاربران اجازه می‌دهند اطلاعات شخصی خود را کنترل کنند و در عین حال احراز هویت ایمن را ارائه دهند. این سیستم ها یک رکورد قابل تایید و تغییر ناپذیر از هویت یک فرد ایجاد می کنند که برای مدیریت تراکنش های پرخطر عالی است.

همگرایی فناوری‌های LLM، RAG، تولید صوتی مصنوعی، تولید ویدیوی مصنوعی و فناوری‌های همگام‌سازی لب تا حدودی یک شمشیر دو لبه است. در حالی که این پیشرفت‌ها پتانسیل بسیار زیادی برای کاربردهای مثبت دارند، اما زمانی که توسط کلاهبرداران مسلح شوند، خطرات قابل توجهی را نیز به همراه دارند.

این مسابقه تسلیحاتی مداوم بین کارشناسان امنیتی و مجرمان سایبری بر نیاز به نوآوری مستمر و هوشیاری در زمینه امنیت دیجیتال تاکید می کند. ما می‌توانیم در جهت بهره‌برداری از مزایای این ابزارهای قدرتمند و در عین حال کاهش پتانسیل آسیب‌رسانی آن‌ها تنها با پذیرش این خطرات و آمادگی برای مقابله با آن‌ها کار کنیم.

مقررات جامع، آموزش در مورد این اشکال جدید کلاهبرداری، سرمایه گذاری در اقدامات امنیتی پیشرفته، و شاید مهمتر از همه، دوز سالم از شک و تردید از هر یک.هر یک از ما هنگام درگیر شدن با اشخاص ناشناخته به صورت آنلاین یا تلفنی در پیمایش این منظره جدید ضروری است.



منبع:unite.ai

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *