دیوید ماهر، مدیر ارشد فناوری Intertrust – سری مصاحبه


دیوید ماهر به عنوان خدمت می کند اعتماد متقابلمعاون اجرایی و مدیر ارشد فناوری. دیو با بیش از 30 سال تجربه در سیستم های توزیع شده قابل اعتماد، سیستم های ایمن و مدیریت ریسک، تلاش های تحقیق و توسعه را رهبری کرده و موقعیت های رهبری کلیدی را در سراسر زیرمجموعه های شرکت داشته است. او پیش از این رئیس شرکت Seacert، یک مرجع صدور گواهی برای رسانه های دیجیتال و اینترنت اشیا، و رئیس شرکت whiteCryption، توسعه دهنده سیستم های نرم افزاری برای دفاع شخصی بود. او همچنین به عنوان رئیس مشترک مارلین خدمت کرد اعتماد کنید سازمان مدیریت (MTMO)، که بر تنها اکوسیستم مدیریت حقوق دیجیتال مستقل جهان نظارت دارد.

اعتماد متقابل نوآوری‌هایی را توسعه داده است که سیستم‌های عامل توزیع شده را قادر می‌سازد تا داده‌ها و محاسبات را روی شبکه‌های باز ایمن و کنترل کنند، که منجر به ثبت اختراع اساسی در محاسبات توزیع شده قابل اعتماد می‌شود.

اینترتراست که در اصل ریشه در تحقیقات دارد، به یک شرکت متمرکز بر محصول تبدیل شده است که خدمات محاسباتی قابل اعتمادی را ارائه می‌کند که عملیات دستگاه و داده را به ویژه برای اینترنت اشیا و هوش مصنوعی یکسان می‌کند. بازارهای آن شامل توزیع رسانه، هویت/احراز هویت دستگاه، مدیریت انرژی دیجیتال، تجزیه و تحلیل و امنیت ذخیره سازی ابری است.

چگونه می‌توانیم شکاف اعتماد هوش مصنوعی را ببندیم و نگرانی‌های فزاینده عمومی در مورد ایمنی و قابلیت اطمینان هوش مصنوعی را برطرف کنیم؟

شفافیت مهمترین کیفیتی است که به اعتقاد من به رفع نگرانی های فزاینده در مورد هوش مصنوعی کمک می کند. شفافیت شامل ویژگی‌هایی است که هم به مصرف‌کنندگان و هم به فن‌آوران کمک می‌کند تا درک کنند که مکانیسم‌های هوش مصنوعی بخشی از سیستم‌هایی هستند که ما با آنها در تعامل هستیم، چه نوع شجره‌نامه‌ای دارند: چگونه یک مدل هوش مصنوعی آموزش داده می‌شود، چه حفاظ‌هایی وجود دارد، چه سیاست‌هایی در توسعه مدل اعمال شده است، و چه چیزهایی. تضمین های دیگری برای ایمنی و امنیت مکانیزم مشخص وجود دارد. با شفافیت بیشتر، می‌توانیم به خطرات و مسائل واقعی رسیدگی کنیم و ترس‌ها و حدس‌های غیرمنطقی آن‌قدر حواسمان را پرت نکنیم.

احراز هویت ابرداده چه نقشی در اطمینان از قابل اعتماد بودن خروجی های هوش مصنوعی ایفا می کند؟

احراز هویت فراداده به افزایش اطمینان ما در مورد قابل اعتماد بودن یک مدل هوش مصنوعی یا مکانیسم دیگر کمک می کند. کارت مدل هوش مصنوعی نمونه‌ای از مجموعه‌ای از ابرداده است که می‌تواند به ارزیابی استفاده از مکانیزم هوش مصنوعی (مدل، عامل و غیره) برای یک هدف خاص کمک کند. ما باید استانداردهایی را برای وضوح و کامل بودن کارت های مدل با استانداردهایی برای اندازه گیری های کمی و ادعاهای تأیید شده در مورد عملکرد، تعصب، ویژگی های داده های آموزشی و غیره ایجاد کنیم.

چگونه سازمان ها می توانند خطر سوگیری هوش مصنوعی و توهم در مدل های زبان بزرگ (LLM) را کاهش دهند؟

تیم قرمز یک رویکرد کلی برای رسیدگی به این خطرات و سایر خطرات در طول توسعه و پیش از انتشار مدل ها است. این رویکرد که در ابتدا برای ارزیابی سیستم های ایمن استفاده می شد، اکنون برای سیستم های مبتنی بر هوش مصنوعی استاندارد شده است. این یک رویکرد سیستمی برای مدیریت ریسک است که می‌تواند و باید کل چرخه حیات یک سیستم را از توسعه اولیه تا استقرار میدانی در بر گیرد و کل زنجیره تامین توسعه را پوشش دهد. طبقه بندی و احراز هویت داده های آموزشی مورد استفاده برای یک مدل بسیار مهم است.

شرکت ها برای ایجاد شفافیت در سیستم های هوش مصنوعی و کاهش خطرات مرتبط با مشکل «جعبه سیاه» چه اقداماتی می توانند انجام دهند؟

درک کنید که شرکت چگونه از مدل استفاده می کند و چه نوع تعهداتی ممکن است در استقرار داشته باشد، چه برای استفاده داخلی یا استفاده توسط مشتریان، چه به طور مستقیم یا غیر مستقیم. سپس، آنچه را که من شجره مکانیسم‌های هوش مصنوعی می‌نامم، از جمله اظهارات روی کارت مدل، نتایج آزمایش‌های تیم قرمز، تجزیه و تحلیل تفاضلی در مورد استفاده خاص شرکت، آنچه که به طور رسمی ارزیابی شده است، و آنچه افراد دیگر انجام شده است، درک کنید. تجربه تست داخلی با استفاده از یک طرح آزمون جامع در یک محیط واقعی کاملاً مورد نیاز است. بهترین شیوه ها در این منطقه نوپا در حال تکامل هستند، بنابراین مهم است که به آن ادامه دهید.

چگونه می توان سیستم های هوش مصنوعی را با در نظر گرفتن دستورالعمل های اخلاقی طراحی کرد، و چه چالش هایی برای دستیابی به این امر در صنایع مختلف وجود دارد؟

این یک حوزه تحقیقاتی است و بسیاری ادعا می‌کنند که مفهوم اخلاق و نسخه‌های فعلی هوش مصنوعی ناسازگار هستند، زیرا اصول اخلاقی مبتنی بر مفهوم هستند و مکانیسم‌های هوش مصنوعی عمدتاً مبتنی بر داده‌ها هستند. به عنوان مثال، اطمینان از قوانین ساده ای که انسان ها آن را درک می کنند، مانند «تقلب نکن»، دشوار است. با این حال، تجزیه و تحلیل دقیق تعاملات و تضاد اهداف در یادگیری مبتنی بر هدف، حذف داده‌های ناقص و اطلاعات نادرست، و ایجاد قوانینی که مستلزم استفاده از فیلترهای خروجی است که نرده‌های محافظ را اعمال می‌کند و نقض اصول اخلاقی مانند حمایت یا همدردی با آنها را آزمایش می‌کند. استفاده از خشونت در محتوای خروجی باید در نظر گرفته شود. به طور مشابه، آزمایش دقیق برای سوگیری می تواند به همسویی بیشتر مدل با اصول اخلاقی کمک کند. باز هم، بسیاری از این می‌تواند مفهومی باشد، بنابراین باید برای آزمایش اثرات یک رویکرد معین دقت شود، زیرا مکانیسم هوش مصنوعی دستورالعمل‌ها را به روشی که انسان‌ها انجام می‌دهند «درک» نمی‌کند.

خطرات و چالش‌های کلیدی که هوش مصنوعی در آینده با آن مواجه است، به خصوص که بیشتر با سیستم‌های اینترنت اشیا ادغام می‌شود، چیست؟

ما می خواهیم از هوش مصنوعی برای خودکارسازی سیستم هایی استفاده کنیم که فرآیندهای زیرساختی حیاتی را بهینه می کنند. برای مثال، می‌دانیم که می‌توانیم توزیع و استفاده انرژی را با استفاده از نیروگاه‌های مجازی که هزاران عنصر تولید، ذخیره و استفاده انرژی را هماهنگ می‌کنند، بهینه کنیم. این تنها با اتوماسیون عظیم و استفاده از هوش مصنوعی برای کمک به تصمیم گیری های دقیق عملی است. سیستم ها شامل عواملی با اهداف بهینه سازی متناقض خواهند بود (مثلاً به نفع مصرف کننده در مقابل تامین کننده). ایمنی و امنیت هوش مصنوعی در استقرار گسترده چنین سیستم هایی بسیار مهم خواهد بود.

چه نوع زیرساختی برای شناسایی و احراز هویت ایمن موجودیت ها در سیستم های هوش مصنوعی مورد نیاز است؟

ما به یک زیرساخت قوی و کارآمد نیاز داریم که به موجب آن نهادهای دخیل در ارزیابی تمام جنبه‌های سیستم‌های هوش مصنوعی و استقرار آن‌ها بتوانند ادعاهای معتبر و معتبری را درباره سیستم‌های هوش مصنوعی، شجره‌نامه‌شان، داده‌های آموزشی موجود، منشأ داده‌های حسگر، امنیت تأثیرگذار بر حوادث و رویدادها منتشر کنند. این زیرساخت همچنین باید آن را کارآمد کند تا ادعاها و ادعاهای کاربران سیستم‌هایی که شامل مکانیسم‌های هوش مصنوعی هستند و توسط عناصری در سیستم‌های خودکاری که می‌سازند را تأیید کند. تصمیم گیری بر اساس خروجی های مدل های هوش مصنوعی و بهینه سازها.

آیا می‌توانید بینش‌هایی در مورد آنچه که در Intertrust روی آن کار می‌کنید و اینکه چگونه در مواردی که مورد بحث ما قرار می‌گیرد، با ما در میان بگذارید؟

ما در حال تحقیق و طراحی فناوری هستیم که می تواند زیرساخت مدیریت اعتماد مورد نیاز در سوال قبلی را فراهم کند. ما به طور خاص به مسائل مربوط به مقیاس، تأخیر، امنیت و قابلیت همکاری که در سیستم‌های IoT که شامل مؤلفه‌های هوش مصنوعی هستند، می‌پردازیم.

سرویس PKI (زیرساخت کلید عمومی) اینترتراست چگونه دستگاه‌های IoT را ایمن می‌کند و چه چیزی آن را برای استقرار در مقیاس بزرگ مقیاس‌پذیر می‌کند؟

PKI ما به طور خاص برای مدیریت اعتماد برای سیستم هایی طراحی شده است که شامل حاکمیت دستگاه ها و محتوای دیجیتال می شود. ما میلیاردها کلید رمزنگاری و گواهی‌هایی را مستقر کرده‌ایم که انطباق را تضمین می‌کنند. تحقیق فعلی ما به مقیاس و تضمین‌هایی می‌پردازد که اتوماسیون صنعتی عظیم و زیرساخت‌های حیاتی در سراسر جهان به آن نیاز دارند، از جمله بهترین شیوه‌ها برای استقرار «با اعتماد صفر» و احراز هویت دستگاه و داده‌ها که می‌تواند تریلیون‌ها حسگر و مولد رویداد را در خود جای دهد.

انگیزه شما برای پیوستن به ابتکارات هوش مصنوعی NIST چیست و مشارکت شما چگونه به توسعه استانداردهای قابل اعتماد و ایمن هوش مصنوعی کمک می کند؟

NIST تجربه و موفقیت فوق العاده ای در توسعه استانداردها و بهترین شیوه ها در سیستم های امن دارد. به عنوان یک محقق اصلی برای AISIC ایالات متحده از Intertrust، من می توانم از استانداردهای مهم و بهترین شیوه ها در توسعه سیستم های مدیریت اعتماد که شامل مکانیسم های هوش مصنوعی هستند، دفاع کنم. از تجربه گذشته، من به ویژه از رویکردی که NIST برای ارتقای خلاقیت، پیشرفت و همکاری صنعتی اتخاذ می‌کند و در عین حال کمک به تدوین و انتشار استانداردهای فنی مهمی که قابلیت همکاری را ارتقا می‌دهند، قدردانی می‌کنم. این استانداردها می توانند همزمان با انواع خطراتی که جامعه با آن مواجه است، پذیرش فناوری های سودمند را تشویق کنند.

با تشکر از شما برای مصاحبه عالی، خوانندگانی که مایل به کسب اطلاعات بیشتر هستند باید از آن بازدید کنند اعتماد متقابل.



منبع:unite.ai

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *