SPLXAI برای مقابله با تهدیدهای امنیتی رو به رشد در سیستم های AI عامل ، دور بذر 7 میلیون دلاری را تأمین می کند


در یک قدم مهم در جهت حفظ آینده هوش مصنوعی ، چلکسای، یک دنباله دار در امنیت تهاجمی برای عامل AI ، 7 میلیون دلار بودجه بذر جمع آوری کرده است. دور توسط Launchub Ventures، با مشارکت استراتژیک از پایتخت بارانبا شبهبا سرمایه گذاری در زمان اجرابا DNV Venturesوت سرمایه گذاری های جنوبی مرکزیبشر سرمایه جدید توسعه توسعه را تسریع می کند سکو، طراحی شده برای محافظت از سازمانها با استفاده از عوامل پیشرفته و برنامه های کاربردی AI.

از آنجا که شرکت ها به طور فزاینده ای هوش مصنوعی را در عملیات روزانه ادغام می کنند ، چشم انداز تهدید به سرعت در حال تحول است. تا سال 2028 ، پیش بینی شده است که 33 ٪ از برنامه های سازمانی AI عامل AI را شامل می شوند -سیستم های AI قادر به تصمیم گیری خودمختار و اجرای کار پیچیده. اما این تغییر یک سطح حمله بسیار گسترده ای را به همراه دارد که ابزارهای سنتی امنیت سایبری مجهز به آن نیستند.

“استقرار عوامل هوش مصنوعی در مقیاس پیچیدگی قابل توجهی را معرفی می کند ،” گفته شده کریستیان کامبربا مدیر عامل و بنیانگذار SPLXAIبشر “آزمایش دستی در این محیط امکان پذیر نیست. پلت فرم ما تنها راه حل مقیاس پذیر برای تأمین AI عامل است.”

AI عامل AI چیست و چرا این یک خطر امنیتی است؟

برخلاف معمولی دستیاران هوش مصنوعی که به پیشبرد مستقیم پاسخ می دهند ، یک عامل به سیستمهایی که قادر به انجام وظایف چند مرحله ای هستند به طور خودمختار اشاره دارد. به نمایندگان هوش مصنوعی فکر کنید که می توانند جلسات ، سفر به کتاب را برنامه ریزی کنند ، یا گردش کار را مدیریت کنند – همه بدون ورودی مداوم انسانی. این استقلال ، در حالی که قدرتمند است ، خطرات جدی از جمله تزریق سریع ، پاسخ های خارج از موضوعی ، نشت زمینه و توهم AI (خروجی های نادرست یا گمراه کننده).

علاوه بر این ، بیشتر حمایت های موجود – مانند نگهبان های هوش مصنوعی – واکنشی و غالباً ضعیف هستند و در نتیجه رفتار بیش از حد محدود کننده یا مجاز بودن خطرناک ایجاد می شود. اینجاست که Splxai وارد می شود.

پلت فرم SLAPXAI: تیم قرمز برای AI در مقیاس

پلت فرم SLAPXAI تیم قرمز کاملاً خودکار را برای سیستم های Genai ارائه می دهد ، و شرکت ها را قادر می سازد آزمایش های مداوم و نفوذ در زمان واقعی را در جریان گردش کار AI انجام دهند. این حملات مخالف پیشرفته را شبیه سازی می کند-نوعی که از مهاجمان واقعی در دنیای واقعی تقلید می کند-در چندین روش ، از جمله متن ، تصاویر ، صدا و حتی اسناد.

برخی از قابلیت های برجسته عبارتند از:

  • تجزیه و تحلیل ریسک پویا: به طور مداوم برنامه های AI را برای تشخیص آسیب پذیری ها و ارائه بینش های عملی بررسی می کند.

  • پنتستوری خاص دامنه: تست خیاط به موارد استفاده منحصر به فرد هر سازمان-از امور مالی تا خدمات به مشتری.

  • ادغام خط لوله CI/CD: امنیت را مستقیماً در فرایند توسعه قرار می دهد تا آسیب پذیری ها را قبل از تولید بدست آورد.

  • نقشه برداری انطباق: به طور خودکار تراز با چارچوب هایی مانند Nist AI ، OWASP LLM Top 10 ، EU AI ACT و ISO 42001 را ارزیابی می کند.

این رویکرد فعال در حال حاضر در حال افزایش است. مشتریان شامل KPMG ، Infobip ، شبکه نامزدی برند و Glean هستند. از زمان راه اندازی در اوت 2024 ، این شرکت 127 ٪ رشد سه ماهه را گزارش کرده است.

سرمایه گذاران چشم انداز امنیت هوش مصنوعی را پشت سر می گذارند

راه اندازیUB Ventures ‘ شریک عمومی استن سیراکف، که اکنون به هیئت مدیره Splxai می پیوندد ، بر لزوم راه حل های امنیتی مقیاس پذیر هوش مصنوعی تأکید کرد: “همانطور که AI عامل فعال می شود ، پتانسیل سوءاستفاده نیز انجام می شود. SPLXAI تنها فروشنده ای است که برنامه ای برای مدیریت آن خطر در مقیاس دارد.”

سرمایه باران دکتری چنسی وانگ این احساسات را تکرار کرد و اهمیت تیمی خودکار قرمز برای سیستم های هوش مصنوعی را در مراحل ابتدایی خود برجسته کرد: “تخصص و تخصص فناوری SPLXAI ، این یک بازیگر اصلی در تأمین Genai است. آزمایش دستی فقط آن را کاهش نمی دهد.”

اضافات جدید تیم را تقویت می کند

در کنار بودجه ، Splxai دو استخدام استراتژیک را اعلام کرد:

  • استن سیراکف (Launchub Ventures) به هیئت مدیرهبشر

  • شنی دون، CISO سابق شبکه نامزدی برند ، مراحل AS مدیر ارشد امنیت اطلاعات برای رهبری شرکت حاکمیت ، ریسک و انطباق (GRC) ابتکار عمل

ابزارهای برش: رادار عامل و اصلاح در زمان واقعی

علاوه بر پلتفرم اصلی ، SPLXAI اخیراً راه اندازی شده است رادار عامل -ابزاری از منبع باز که وابستگی ها را در گردش کار عامل ترسیم می کند ، پیوندهای ضعیف را شناسایی می کند و شکاف های امنیتی سطوح را از طریق تجزیه و تحلیل کد استاتیک نشان می دهد.

در همین حال ، موتور اصلاح آنها یک روش خودکار برای تولید سوابق سخت شده سیستم ، کاهش 80 ٪ سطح حمله ، بهبود پیشگیری از نشت سریع 97 ٪ و به حداقل رساندن تلاش مهندسی را 95 ٪ ارائه می دهد. این سوابق سیستم در شکل دادن به رفتار هوش مصنوعی بسیار مهم است و در صورت قرار گرفتن در معرض یا ضعیف ، می تواند به بدهی های امنیتی عمده تبدیل شود.

شبیه سازی تهدیدات در دنیای واقعی به زبان 20+

SPLXAI همچنین از آزمایش امنیت چند زبانه پشتیبانی می کند و آن را به یک راه حل جهانی برای امنیت AI Enterprise تبدیل می کند. این پلتفرم از هر دو نوع کاربر متناقض و خوش خیم استفاده می کند ، و به سازمان ها کمک می کند تا تهدیداتی مانند:

  • نشت متن (افشای تصادفی داده های حساس)

  • مهندسی اجتماعی حملات

  • تزریق سریع وت فرار از زندان تکنیک ها

  • خروجی های سمی یا مغرضانه

همه اینها به لطف اطلاعات منحصر به فرد AI Teaming AI SPLXAI ، با حداقل مثبت کاذب تحویل داده می شود.

به جلو نگاه می کنیم: آینده هوش مصنوعی امن

از آنجا که مشاغل برای ادغام هوش مصنوعی در همه چیز از خدمات مشتری گرفته تا توسعه محصول ، نیاز به امنیت AI در زمان واقعی هرگز بیشتر نبوده است. SPLXAI برای اطمینان از اینکه سیستم های AI نه تنها قدرتمند هستند ، بلکه قابل اعتماد ، ایمن و سازگار هستند ، هزینه ای را برای اطمینان از این که سیستم های AI نه تنها قدرتمند هستند ، پیش می برد.

“ما در یک ماموریت برای تأمین امنیت و محافظت از برنامه های دارایی Genai هستیم.” کامبر اضافه کرد. “پلتفرم ما سازمانها را قادر می سازد تا بدون شکستن چیزها سریع حرکت کنند – یا اعتماد به نفس را به خطر بیاندازند.”

با سرمایه و حرکت تازه خود ، چلکسای آماده است تا سالهای آینده به یک لایه اساسی در پشته امنیتی هوش مصنوعی تبدیل شود.



منبع:unite.ai

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *