استیو ویلسون مدیر ارشد هوش مصنوعی و افسر محصول در Exabeam است ، جایی که تیم وی برای مقابله با چالش های امنیت سایبری در دنیای واقعی ، از فناوری های پیشرفته AI استفاده می کند. وی پروژه امنیتی OWASP GEN AI ، سازمان پشت این صنعت OWASP 10 را برای لیست امنیت مدل بزرگ زبان تأسیس و همکار کرد.
کتاب برنده جایزه وی ، “کتاب پخش توسعه دهنده برای امنیت مدل زبان بزرگ“(O’Reilly Media) ، به عنوان بهترین کتاب امنیت سایبری برش توسط مجله دفاع سایبر انتخاب شد.
غربال یک رهبر در اطلاعات و اتوماسیون است که عملیات امنیتی را برای هوشمندانه ترین شرکت های جهان فراهم می کند. با ترکیب مقیاس و قدرت هوش مصنوعی با قدرت تحلیلی رفتاری و اتوماسیون پیشرو در صنعت ، سازمان ها دیدگاه جامع تری از حوادث امنیتی کسب می کنند ، ناهنجاری های از دست رفته توسط سایر ابزارها را کشف می کنند و به پاسخ های سریعتر ، دقیق تر و مکرر دست می یابند. Exabeam تیم های امنیتی جهانی را قادر می سازد تا با تهدیدات سایبری مبارزه کنند ، ریسک را کاهش دهند و عملیات ساده را انجام دهند.
عنوان جدید شما رئیس هوش مصنوعی و افسر محصول در Exabeam است. چگونه این نشان دهنده اهمیت در حال تحول هوش مصنوعی در امنیت سایبری است؟
امنیت سایبری یکی از اولین حوزه هایی بود که واقعاً یادگیری ماشین را در آغوش گرفت – در Exabeam ، ما بیش از یک دهه از ML به عنوان هسته اصلی موتور تشخیص خود استفاده کرده ایم تا رفتار غیر عادی را که انسان به تنهایی از دست می دهد ، شناسایی کنیم. با ورود فن آوری های جدیدتر هوش مصنوعی ، مانند عوامل هوشمند ، هوش مصنوعی از اهمیت بالایی برخوردار شده است.
نقش ترکیبی من به عنوان رئیس هوش مصنوعی و افسر محصول در Exabeam دقیقاً این تکامل را منعکس می کند. در یک شرکت عمیقاً متعهد به تعبیه هوش مصنوعی در سراسر محصولات خود ، و در صنعتی مانند امنیت سایبری که نقش AI به طور فزاینده ای بسیار مهم است ، منطقی بود که استراتژی هوش مصنوعی و استراتژی محصول را تحت یک نقش متحد کنیم. این ادغام تضمین می کند که ما از لحاظ استراتژیک برای ارائه راه حل های تحول آمیز AI به تحلیلگران امنیتی و تیم های عملیاتی که بیشتر به ما وابسته هستند ، تراز می کنیم.
Exabeam در عملیات امنیتی پیشگام “AI عامل” است. آیا می توانید توضیح دهید که این در عمل چیست و چگونه از رویکردهای سنتی AI متمایز می شود؟
AI عامل نشان دهنده تکامل معنی دار از رویکردهای سنتی هوش مصنوعی است. این عمل گرا است-با شروع فرآیند ، تجزیه و تحلیل اطلاعات و ارائه بینش قبل از تحلیلگران حتی از آنها استفاده می کند. فراتر از تجزیه و تحلیل داده های صرف ، AI عامل به عنوان یک مشاور عمل می کند ، و توصیه های استراتژیک را در کل SOC ارائه می دهد ، کاربران را به سمت ساده ترین برد و ارائه راهنمایی گام به گام برای بهبود وضعیت امنیتی خود هدایت می کند. علاوه بر این ، نمایندگان به عنوان بسته های تخصصی فعالیت می کنند ، نه یک چت بابات دست و پا گیر ، هر یک متناسب با شخصیت ها و مجموعه داده های خاص که یکپارچه در جریان کار تحلیلگران ، مهندسان و مدیران برای ارائه کمک های هدفمند و تأثیرگذار ادغام می شوند.
با ادغام Exabeam Nova چندین عامل هوش مصنوعی در سراسر گردش کار SOC ، آینده نقش تحلیلگر امنیتی چیست؟ آیا در حال تحول ، کوچک شدن یا تخصص تر شدن است؟
نقش تحلیلگر امنیتی قطعاً در حال تحول است. تحلیلگران ، مهندسان امنیت و مدیران SOC به طور یکسان از داده ها ، هشدارها و موارد غافلگیر می شوند. تغییر آینده واقعی فقط مربوط به صرفه جویی در وقت در کارهای دنیوی نیست – هرچند که مأمورین مطمئناً به آنجا کمک می کنند – بلکه در مورد بالا بردن نقش همه در نقش یک تیم. تحلیلگران هنوز هم به مهارتهای فنی قوی احتیاج دارند ، اما اکنون آنها تیمی از نمایندگان را آماده می کنند که برای تسریع وظایف خود ، تقویت تصمیمات خود و واقعاً پیشرفت در وضعیت امنیتی را هدایت کنند. این تحول ، تحلیلگران را به جای پاسخ دهندگان تاکتیکی به ارکستر استراتژیک تبدیل می کند.
داده های اخیر ارتباط بین مدیران و تحلیلگران در مورد تأثیر بهره وری هوش مصنوعی را نشان می دهد. چرا فکر می کنید این شکاف ادراک وجود دارد ، و چگونه می توان به آن رسیدگی کرد؟
داده های اخیر قطع ارتباط واضح را نشان می دهد: 71 ٪ از مدیران معتقدند هوش مصنوعی به طور قابل توجهی بهره وری را افزایش می دهد ، اما تنها 22 ٪ از تحلیلگران خط مقدم ، کاربران روزانه موافق هستند. در Exabeam ، ما شاهد رشد این شکاف در کنار دیوانگی اخیر وعده های هوش مصنوعی در امنیت سایبری هستیم. ایجاد نسخه های نمایشی AI چشمک زن هرگز ساده تر نبوده است ، و فروشندگان سریع ادعا می کنند که هر چالش SOC را حل کرده اند. در حالی که این مدیران Demos در ابتدا خیره کننده هستند ، بسیاری از آنها در جایی که شمارش می شود – در دست تحلیلگران. پتانسیل وجود دارد و جیب های بازپرداخت واقعی وجود دارد ، اما هنوز هم سر و صدای زیادی وجود دارد و پیشرفت های معناداری نیز وجود دارد. برای برطرف کردن این شکاف درک ، مدیران باید ابزارهای هوش مصنوعی را که واقعاً به تحلیلگران توانمند می شوند ، در اولویت قرار دهند ، نه فقط در یک نسخه ی نمایشی تحت تأثیر قرار گیرند. هنگامی که AI واقعاً اثربخشی تحلیلگران را افزایش می دهد ، اعتماد و بهبود بهره وری واقعی دنبال می شود.
هوش مصنوعی در حال تسریع در تشخیص و پاسخ تهدید است ، اما چگونه می توانید تعادل بین اتوماسیون و قضاوت انسانی را در حوادث امنیت سایبری با سهام بالا حفظ کنید؟
قابلیت های هوش مصنوعی به سرعت در حال پیشرفت هستند ، اما “مدل های زبانی” بنیادی امروز که زیربنای عوامل هوشمند است ، در ابتدا برای کارهایی مانند ترجمه زبان طراحی شده اند-نه تصمیم گیری ظریف ، تئوری بازی و یا رسیدگی به عوامل پیچیده انسانی. این امر باعث می شود قضاوت انسانی در امنیت سایبری ضروری تر باشد. نقش تحلیلگر توسط هوش مصنوعی کاهش نمی یابد. بالا رفته است اکنون تحلیلگران تیم رهبری تیم هستند و تجربه و بینش خود را برای راهنمایی و هدایت چندین عامل هدایت می کنند ، و اطمینان حاصل می کنند که تصمیمات با زمینه و ظرافت آگاه می شوند. در نهایت ، متعادل کردن اتوماسیون با قضاوت انسانی در مورد ایجاد یک رابطه همزیستی است که در آن هوش مصنوعی تخصص انسان را تقویت می کند ، نه جایگزین آن.
چگونه استراتژی محصول شما وقتی AI به جای یک افزودنی به یک اصل طراحی اصلی تبدیل می شود ، تکامل می یابد؟
در Exabeam ، استراتژی محصول ما اساساً توسط هوش مصنوعی به عنوان یک اصل طراحی اصلی شکل می گیرد ، نه یک افزودنی سطحی. ما Exabeam را از زمین تا پشتیبانی از یادگیری ماشین – از مصرف ورود به سیستم ، تجزیه ، غنی سازی و عادی سازی – برای جمع آوری یک مدل اطلاعات مشترک قوی که بطور خاص برای تغذیه سیستم های ML بهینه شده است ، ساخته ایم. داده های ساخت یافته با کیفیت بالا فقط برای سیستم های AI مهم نیستند-این خون حیات آنهاست. امروز ، ما به طور مستقیم عوامل هوشمند خود را در جریان کار بحرانی قرار دادیم و از چت های عمومی و ناخوشایند اجتناب کردیم. درعوض ، ما دقیقاً موارد استفاده مهم را هدف قرار می دهیم که مزایای آن در دنیای واقعی و ملموس را برای کاربران خود ارائه می دهند.
با Exabeam Nova ، شما قصد دارید “از کمک به خودمختار حرکت کنید.” نقاط عطف اصلی برای رسیدن به عملیات امنیتی کاملاً خودمختار چیست؟
ایده عملیات امنیتی کاملاً خودمختار جذاب اما زودرس است. عوامل کاملاً خودمختار ، در هر دامنه ، هنوز کارآمد یا ایمن نیستند. در حالی که تصمیم گیری در هوش مصنوعی در حال بهبود است ، به قابلیت اطمینان در سطح انسان نرسیده و مدتی نخواهد بود. در Exabeam ، رویکرد ما در حال تعقیب استقلال کامل نیست ، که گروه من در OWASP به عنوان یک آسیب پذیری اصلی شناخته می شود که به عنوان آژانس بیش از حد شناخته می شود. ارائه استقلال بیشتر به عوامل بیشتر از آنچه که می توان آزمایش کرد و معتبر شد ، عملیات را در زمین های خطرناک قرار می دهد. درعوض ، هدف ما تیم های عوامل هوشمند است که قادر به هدایت با دقت هستند و تحت نظارت متخصصان انسانی در SOC کار می کنند. این ترکیبی از نظارت انسان و کمک های عامل هدفمند ، مسیر واقع بینانه و تأثیرگذار به جلو است.
بزرگترین چالش هایی که با ادغام Genai و یادگیری ماشین در مقیاس مورد نیاز برای امنیت سایبری در زمان واقعی روبرو شده اید چیست؟
یکی از بزرگترین چالش ها در ادغام Genai و یادگیری ماشین در مقیاس برای امنیت سایبری ، تعادل سرعت و دقت است. Genai به تنهایی نمی تواند مقیاس کامل آنچه موتور ML با سرعت بالا ما را کنترل می کند-پردازش ترابیت های داده به طور مداوم. حتی پیشرفته ترین عوامل هوش مصنوعی دارای “پنجره زمینه” هستند که بسیار کافی نیست. در عوض ، دستور العمل ما شامل استفاده از ML برای تقطیر داده های عظیم در بینش های عملی است ، که عوامل هوشمند ما سپس ترجمه و عملیاتی می شوند.
شما OWASP Top 10 را برای برنامه های LLM تأسیس کردید. چه چیزی الهام بخش این امر است ، و چگونه می بینید که بهترین روش های امنیتی هوش مصنوعی را شکل می دهد؟
هنگامی که من OWASP Top 10 را برای برنامه های LLM در اوایل سال 2023 راه اندازی کردم ، اطلاعات ساختاری در مورد LLM و Genai Security کمیاب بود ، اما علاقه فوق العاده بالا بود. در طی چند روز ، بیش از 200 داوطلب به ابتکار عمل پیوستند و نظرات و تخصص متنوعی را برای شکل دادن به لیست اصلی به ارمغان آوردند. از آن زمان ، بیش از 100000 بار خوانده شده است و به استانداردهای صنعت بین المللی تبدیل شده است. امروز ، این تلاش به پروژه امنیتی OWASP GEN AI گسترش یافته است ، و مناطقی مانند AI Red Teaming ، امنیت سیستم های عامل و استفاده از توهین آمیز ژنرال AI در امنیت سایبری را پوشش می دهد. گروه ما اخیراً از 10،000 عضو پیشی گرفتند و به پیشرفت شیوه های امنیتی هوش مصنوعی در سطح جهان ادامه می دهند.
کتاب شما ، ‘کتاب پخش توسعه دهنده برای امنیت LLM‘، یک جایزه برتر کسب کرد. مهمترین غذای آماده یا اصل از کتابی که هر توسعه دهنده هوش مصنوعی هنگام ساختن برنامه های امن باید درک کند چیست؟ “
مهمترین راهپیمایی از کتاب من ، “کتاب پخش توسعه دهنده برای امنیت LLM” ساده است: “با قدرت عالی مسئولیت بزرگی به وجود می آید.” در حالی که درک مفاهیم امنیتی سنتی ضروری است ، توسعه دهندگان اکنون با مجموعه کاملاً جدیدی از چالش های منحصر به فرد برای LLMS روبرو هستند. این فناوری قدرتمند یک پاس رایگان نیست ، بلکه نیاز به شیوه های امنیتی پیشگیرانه و متفکرانه دارد. توسعه دهندگان باید دیدگاه خود را گسترش دهند ، از ابتدا این آسیب پذیری های جدید را بشناسند و به آن بپردازند و امنیت را در هر مرحله از چرخه عمر برنامه هوش مصنوعی خود قرار دهند.
چگونه می بینید که نیروی کار امنیت سایبری در 5 سال آینده در حال تحول در حال پیشرفت است زیرا AI عامل اصلی بیشتر می شود؟
ما در حال حاضر در یک مسابقه تسلیحاتی هوش مصنوعی هستیم. مخالفان با تهاجمی در حال استفاده از هوش مصنوعی برای پیشبرد اهداف مخرب خود هستند و باعث می شود متخصصان امنیت سایبری بسیار مهمتر از همیشه باشند. پنج سال آینده نیروی کار امنیت سایبری را کاهش نمی دهد ، آنها آن را بالا می برند. متخصصان باید AI را در آغوش بگیرند و آن را در تیم ها و گردش کار خود ادغام کنند. نقش های امنیتی به سمت فرماندهی استراتژیک تغییر می کند-کمتر در مورد تلاش فردی و بیشتر در مورد ارکستر کردن یک پاسخ مؤثر با تیمی از عوامل محور AI. این تحول ، متخصصان امنیت سایبری را قادر می سازد تا در نبرد با تهدیدهای همیشه در حال تحول ، قاطعانه و با اطمینان را رهبری کنند.
با تشکر از شما برای مصاحبه عالی ، خوانندگانی که مایل به کسب اطلاعات بیشتر هستند باید بازدید کنند غربالبشر