تبلیغات کمپین در حال حاضر ممکن است کمی کثیف و بحث برانگیز شوند.
حالا تصور کنید که هدف تبلیغات کمپینی قرار گرفته اید که در آن یک نامزد مواضع قدرتمندی را بیان می کند که رای شما را تحت تاثیر قرار می دهد – و این تبلیغ حتی واقعی نیست. این یک دیپ فیک است.
این یک فرضیه آینده نگر نیست. دیپ فیک یک مشکل واقعی و فراگیر است. ما قبلاً “تأییدات” تولید شده توسط هوش مصنوعی را دیدهایم که در تیتر اخبار قرار گرفتهاند، و آنچه شنیدهایم فقط سطح را خراش میدهد.
با نزدیک شدن به انتخابات ریاست جمهوری 2024 ایالات متحده، در حال ورود به قلمروی ناشناخته در امنیت سایبری و یکپارچگی اطلاعات هستیم. من در تقاطع امنیت سایبری و هوش مصنوعی کار کردهام، زیرا هر دوی اینها مفاهیم نوپایی بودند، و هرگز چیزی شبیه به آنچه در حال حاضر اتفاق میافتد ندیدهام.
تکامل سریع هوش مصنوعی – به طور خاص هوش مصنوعی مولد و البته سهولت حاصل از ایجاد واقع بینانه دیپ فیک – چشم انداز تهدیدات انتخاباتی را دگرگون کرده است. این واقعیت جدید مستلزم تغییر در مفروضات اساسی در مورد امنیت انتخابات و آموزش رای دهندگان است.
هوش مصنوعی مسلح شده
شما مجبور نیستید تجربه شخصی من را به عنوان مدرک در نظر بگیرید. شواهد زیادی وجود دارد که نشان میدهد چالشهای امنیت سایبری که امروزه با آن روبرو هستیم با سرعت بیسابقهای در حال پیشرفت هستند. در بازه زمانی تنها چند سال، ما شاهد تحولی شگرف در قابلیتها و روششناسی بازیگران بالقوه تهدید بودهایم. این تکامل منعکس کننده توسعه شتابی است که در فناوریهای هوش مصنوعی دیدهایم، اما با پیچشی نگرانکننده.
مورد مورد نظر:
- اسلحه سازی سریع آسیب پذیری ها. مهاجمان امروزی میتوانند به سرعت از آسیبپذیریهای تازه کشفشده، اغلب سریعتر از توسعه و استقرار وصلهها، سوء استفاده کنند. ابزارهای هوش مصنوعی این فرآیند را تسریع میکنند و پنجره بین کشف آسیبپذیری و بهرهبرداری را کوچک میکنند.
- سطح حمله گسترش یافته پذیرش گسترده فناوری های ابری به طور قابل توجهی سطح حمله بالقوه را گسترش داده است. زیرساخت توزیع شده و مدل مسئولیت مشترک بین ارائه دهندگان و کاربران ابری، اگر به درستی مدیریت نشود، بردارهای جدیدی برای بهره برداری ایجاد می کند.
- اقدامات امنیتی قدیمی قدیمی. ابزارهای امنیتی قدیمی مانند فایروال ها و نرم افزارهای آنتی ویروس در تلاش هستند تا با این تهدیدات در حال تکامل همگام شوند، به خصوص وقتی صحبت از شناسایی و کاهش محتوای تولید شده توسط هوش مصنوعی باشد.
ببین کی داره حرف میزنه
در این چشمانداز تهدید جدید، دیپفیکها چالشی موذیانه برای یکپارچگی انتخابات است. تحقیقات اخیر ایوانتی اعداد و ارقامی را برای این تهدید مطرح می کند: بیش از نیمی از کارمندان اداری (54 درصد) از اینکه هوش مصنوعی پیشرفته می تواند صدای هر کسی را جعل کند، بی اطلاع هستند. این فقدان آگاهی در میان رای دهندگان بالقوه عمیقاً نگران کننده است زیرا به چرخه حساس انتخابات نزدیک می شویم.
خیلی چیزها در خطر است.
پیچیدگی فناوری دیپ فیک امروزی به عوامل تهدید، اعم از خارجی و داخلی اجازه می دهد تا محتوای صوتی، تصویری و متنی جعلی قانع کننده ای را با حداقل تلاش ایجاد کنند. اکنون یک پیام متنی ساده میتواند یک دیپفیک ایجاد کند که تشخیص آن از محتوای واقعی بهطور فزایندهای دشوار است. این قابلیت پیامدهای جدی برای انتشار اطلاعات نادرست و دستکاری افکار عمومی دارد.
چالش ها در اسناد و کاهش
انتساب یکی از مهم ترین چالش هایی است که با تداخل انتخاباتی ایجاد شده توسط هوش مصنوعی روبرو هستیم. در حالی که ما از لحاظ تاریخی مداخله انتخاباتی را با بازیگران دولت-ملت مرتبط دانستهایم، دموکراتیک کردن ابزارهای هوش مصنوعی به این معنی است که گروههای داخلی، با انگیزههای ایدئولوژیک مختلف، اکنون میتوانند از این فناوریها برای تأثیرگذاری بر انتخابات استفاده کنند.
این انتشار عوامل تهدید بالقوه توانایی ما را برای شناسایی و کاهش منابع اطلاعات نادرست پیچیده می کند. همچنین بر نیاز به یک رویکرد چند وجهی برای امنیت انتخابات که فراتر از اقدامات سنتی امنیت سایبری است، تاکید می کند.
تلاش هماهنگ برای حفظ سلامت انتخابات
پرداختن به چالش دیپ فیک های مبتنی بر هوش مصنوعی در انتخابات نیازمند تلاشی هماهنگ در بخش های مختلف است. در اینجا موارد کلیدی وجود دارد که ما باید تلاش خود را در آنها متمرکز کنیم:
- امنیت Shift-left برای سیستم های هوش مصنوعی. ما باید اصول امنیتی “shift-left” را برای توسعه خود سیستم های هوش مصنوعی به کار ببریم. این به معنای ترکیب ملاحظات امنیتی از مراحل اولیه توسعه مدل هوش مصنوعی، از جمله ملاحظات سوء استفاده احتمالی در دخالت در انتخابات است.
- اجرای تنظیمات ایمن سیستمها و پلتفرمهای هوش مصنوعی که به طور بالقوه میتوانند برای تولید دیپفیک استفاده شوند، باید بهطور پیشفرض دارای پیکربندیهای قوی و ایمن باشند. این شامل اقدامات احراز هویت قوی و محدودیتهایی در مورد انواع محتوایی است که میتوان تولید کرد.
- تامین امنیت زنجیره تامین هوش مصنوعی همانطور که بر تامین امنیت زنجیره تامین نرم افزار تمرکز می کنیم، باید این هوشیاری را به زنجیره تامین هوش مصنوعی نیز گسترش دهیم. این شامل بررسی دقیق مجموعه داده های مورد استفاده برای آموزش مدل های هوش مصنوعی و الگوریتم های به کار رفته در سیستم های هوش مصنوعی مولد است.
- قابلیت تشخیص پیشرفته ما باید روی ابزارهای تشخیص پیشرفته سرمایه گذاری و توسعه دهیم که بتواند محتوای تولید شده توسط هوش مصنوعی را شناسایی کند، به ویژه در زمینه اطلاعات مربوط به انتخابات. این احتمالاً شامل استفاده از هوش مصنوعی برای مبارزه با اطلاعات نادرست تولید شده توسط هوش مصنوعی خواهد بود.
- آموزش و آگاهی رای دهندگان. یکی از مؤلفههای حیاتی دفاع ما در برابر دیپ فیک، رأیدهندگان آگاه است. ما به برنامههای آموزشی جامع نیاز داریم تا به رایدهندگان کمک کند تا وجود و تأثیر بالقوه محتوای تولید شده توسط هوش مصنوعی را درک کنند و ابزارهایی برای ارزیابی انتقادی اطلاعاتی که با آن مواجه میشوند در اختیار آنها قرار دهیم.
- همکاری بین بخشی بخش فناوری، بهویژه شرکتهای فناوری اطلاعات و امنیت سایبری، باید با سازمانهای دولتی، مقامات انتخاباتی و سازمانهای رسانهای همکاری نزدیکی داشته باشند تا یک جبهه متحد علیه دخالتهای انتخاباتی مبتنی بر هوش مصنوعی ایجاد کنند.
چه چیزی در حال حاضر، و چه چیزی بعد
همانطور که ما این استراتژی ها را اجرا می کنیم، بسیار مهم است که به طور مداوم اثربخشی آنها را اندازه گیری کنیم. این به معیارها و ابزارهای نظارتی جدیدی نیاز دارد که به طور خاص برای ردیابی تأثیر محتوای تولید شده توسط هوش مصنوعی بر گفتمان انتخاباتی و رفتار رأی دهندگان طراحی شده اند.
ما همچنین باید آماده باشیم تا استراتژی های خود را به سرعت تطبیق دهیم. حوزه هوش مصنوعی با سرعت سرسام آوری در حال پیشرفت است و اقدامات دفاعی ما باید به همان سرعت تکامل یابد. این ممکن است شامل استفاده از هوش مصنوعی برای ایجاد اقدامات امنیتی قوی تر و سازگارتر باشد.
چالش دیپفیکهای مبتنی بر هوش مصنوعی در انتخابات نشاندهنده فصل جدیدی در امنیت سایبری و یکپارچگی اطلاعات است. برای پرداختن به آن، ما باید فراتر از پارادایم های امنیتی سنتی فکر کنیم و همکاری بین بخش ها و رشته ها را تقویت کنیم. هدف: استفاده از قدرت هوش مصنوعی به نفع فرآیندهای دموکراتیک و در عین حال کاهش احتمال آسیب آن. این فقط یک چالش فنی نیست، بلکه یک چالش اجتماعی است که مستلزم هوشیاری، سازگاری و همکاری مداوم است.
یکپارچگی انتخابات ما – و در نتیجه، سلامت دموکراسی ما – به توانایی ما برای رویارویی با این چالش بستگی دارد. این مسئولیتی است که بر دوش همه ماست: فناوران، سیاست گذاران و شهروندان.