دیوید ماهر به عنوان خدمت می کند اعتماد متقابلمعاون اجرایی و مدیر ارشد فناوری. دیو با بیش از 30 سال تجربه در سیستم های توزیع شده قابل اعتماد، سیستم های ایمن و مدیریت ریسک، تلاش های تحقیق و توسعه را رهبری کرده و موقعیت های رهبری کلیدی را در سراسر زیرمجموعه های شرکت داشته است. او پیش از این رئیس شرکت Seacert، یک مرجع صدور گواهی برای رسانه های دیجیتال و اینترنت اشیا، و رئیس شرکت whiteCryption، توسعه دهنده سیستم های نرم افزاری برای دفاع شخصی بود. او همچنین به عنوان رئیس مشترک مارلین خدمت کرد اعتماد کنید سازمان مدیریت (MTMO)، که بر تنها اکوسیستم مدیریت حقوق دیجیتال مستقل جهان نظارت دارد.
اعتماد متقابل نوآوریهایی را توسعه داده است که سیستمهای عامل توزیع شده را قادر میسازد تا دادهها و محاسبات را روی شبکههای باز ایمن و کنترل کنند، که منجر به ثبت اختراع اساسی در محاسبات توزیع شده قابل اعتماد میشود.
اینترتراست که در اصل ریشه در تحقیقات دارد، به یک شرکت متمرکز بر محصول تبدیل شده است که خدمات محاسباتی قابل اعتمادی را ارائه میکند که عملیات دستگاه و داده را به ویژه برای اینترنت اشیا و هوش مصنوعی یکسان میکند. بازارهای آن شامل توزیع رسانه، هویت/احراز هویت دستگاه، مدیریت انرژی دیجیتال، تجزیه و تحلیل و امنیت ذخیره سازی ابری است.
چگونه میتوانیم شکاف اعتماد هوش مصنوعی را ببندیم و نگرانیهای فزاینده عمومی در مورد ایمنی و قابلیت اطمینان هوش مصنوعی را برطرف کنیم؟
شفافیت مهمترین کیفیتی است که به اعتقاد من به رفع نگرانی های فزاینده در مورد هوش مصنوعی کمک می کند. شفافیت شامل ویژگیهایی است که هم به مصرفکنندگان و هم به فنآوران کمک میکند تا درک کنند که مکانیسمهای هوش مصنوعی بخشی از سیستمهایی هستند که ما با آنها در تعامل هستیم، چه نوع شجرهنامهای دارند: چگونه یک مدل هوش مصنوعی آموزش داده میشود، چه حفاظهایی وجود دارد، چه سیاستهایی در توسعه مدل اعمال شده است، و چه چیزهایی. تضمین های دیگری برای ایمنی و امنیت مکانیزم مشخص وجود دارد. با شفافیت بیشتر، میتوانیم به خطرات و مسائل واقعی رسیدگی کنیم و ترسها و حدسهای غیرمنطقی آنقدر حواسمان را پرت نکنیم.
احراز هویت ابرداده چه نقشی در اطمینان از قابل اعتماد بودن خروجی های هوش مصنوعی ایفا می کند؟
احراز هویت فراداده به افزایش اطمینان ما در مورد قابل اعتماد بودن یک مدل هوش مصنوعی یا مکانیسم دیگر کمک می کند. کارت مدل هوش مصنوعی نمونهای از مجموعهای از ابرداده است که میتواند به ارزیابی استفاده از مکانیزم هوش مصنوعی (مدل، عامل و غیره) برای یک هدف خاص کمک کند. ما باید استانداردهایی را برای وضوح و کامل بودن کارت های مدل با استانداردهایی برای اندازه گیری های کمی و ادعاهای تأیید شده در مورد عملکرد، تعصب، ویژگی های داده های آموزشی و غیره ایجاد کنیم.
چگونه سازمان ها می توانند خطر سوگیری هوش مصنوعی و توهم در مدل های زبان بزرگ (LLM) را کاهش دهند؟
تیم قرمز یک رویکرد کلی برای رسیدگی به این خطرات و سایر خطرات در طول توسعه و پیش از انتشار مدل ها است. این رویکرد که در ابتدا برای ارزیابی سیستم های ایمن استفاده می شد، اکنون برای سیستم های مبتنی بر هوش مصنوعی استاندارد شده است. این یک رویکرد سیستمی برای مدیریت ریسک است که میتواند و باید کل چرخه حیات یک سیستم را از توسعه اولیه تا استقرار میدانی در بر گیرد و کل زنجیره تامین توسعه را پوشش دهد. طبقه بندی و احراز هویت داده های آموزشی مورد استفاده برای یک مدل بسیار مهم است.
شرکت ها برای ایجاد شفافیت در سیستم های هوش مصنوعی و کاهش خطرات مرتبط با مشکل «جعبه سیاه» چه اقداماتی می توانند انجام دهند؟
درک کنید که شرکت چگونه از مدل استفاده می کند و چه نوع تعهداتی ممکن است در استقرار داشته باشد، چه برای استفاده داخلی یا استفاده توسط مشتریان، چه به طور مستقیم یا غیر مستقیم. سپس، آنچه را که من شجره مکانیسمهای هوش مصنوعی مینامم، از جمله اظهارات روی کارت مدل، نتایج آزمایشهای تیم قرمز، تجزیه و تحلیل تفاضلی در مورد استفاده خاص شرکت، آنچه که به طور رسمی ارزیابی شده است، و آنچه افراد دیگر انجام شده است، درک کنید. تجربه تست داخلی با استفاده از یک طرح آزمون جامع در یک محیط واقعی کاملاً مورد نیاز است. بهترین شیوه ها در این منطقه نوپا در حال تکامل هستند، بنابراین مهم است که به آن ادامه دهید.
چگونه می توان سیستم های هوش مصنوعی را با در نظر گرفتن دستورالعمل های اخلاقی طراحی کرد، و چه چالش هایی برای دستیابی به این امر در صنایع مختلف وجود دارد؟
این یک حوزه تحقیقاتی است و بسیاری ادعا میکنند که مفهوم اخلاق و نسخههای فعلی هوش مصنوعی ناسازگار هستند، زیرا اصول اخلاقی مبتنی بر مفهوم هستند و مکانیسمهای هوش مصنوعی عمدتاً مبتنی بر دادهها هستند. به عنوان مثال، اطمینان از قوانین ساده ای که انسان ها آن را درک می کنند، مانند «تقلب نکن»، دشوار است. با این حال، تجزیه و تحلیل دقیق تعاملات و تضاد اهداف در یادگیری مبتنی بر هدف، حذف دادههای ناقص و اطلاعات نادرست، و ایجاد قوانینی که مستلزم استفاده از فیلترهای خروجی است که نردههای محافظ را اعمال میکند و نقض اصول اخلاقی مانند حمایت یا همدردی با آنها را آزمایش میکند. استفاده از خشونت در محتوای خروجی باید در نظر گرفته شود. به طور مشابه، آزمایش دقیق برای سوگیری می تواند به همسویی بیشتر مدل با اصول اخلاقی کمک کند. باز هم، بسیاری از این میتواند مفهومی باشد، بنابراین باید برای آزمایش اثرات یک رویکرد معین دقت شود، زیرا مکانیسم هوش مصنوعی دستورالعملها را به روشی که انسانها انجام میدهند «درک» نمیکند.
خطرات و چالشهای کلیدی که هوش مصنوعی در آینده با آن مواجه است، به خصوص که بیشتر با سیستمهای اینترنت اشیا ادغام میشود، چیست؟
ما می خواهیم از هوش مصنوعی برای خودکارسازی سیستم هایی استفاده کنیم که فرآیندهای زیرساختی حیاتی را بهینه می کنند. برای مثال، میدانیم که میتوانیم توزیع و استفاده انرژی را با استفاده از نیروگاههای مجازی که هزاران عنصر تولید، ذخیره و استفاده انرژی را هماهنگ میکنند، بهینه کنیم. این تنها با اتوماسیون عظیم و استفاده از هوش مصنوعی برای کمک به تصمیم گیری های دقیق عملی است. سیستم ها شامل عواملی با اهداف بهینه سازی متناقض خواهند بود (مثلاً به نفع مصرف کننده در مقابل تامین کننده). ایمنی و امنیت هوش مصنوعی در استقرار گسترده چنین سیستم هایی بسیار مهم خواهد بود.
چه نوع زیرساختی برای شناسایی و احراز هویت ایمن موجودیت ها در سیستم های هوش مصنوعی مورد نیاز است؟
ما به یک زیرساخت قوی و کارآمد نیاز داریم که به موجب آن نهادهای دخیل در ارزیابی تمام جنبههای سیستمهای هوش مصنوعی و استقرار آنها بتوانند ادعاهای معتبر و معتبری را درباره سیستمهای هوش مصنوعی، شجرهنامهشان، دادههای آموزشی موجود، منشأ دادههای حسگر، امنیت تأثیرگذار بر حوادث و رویدادها منتشر کنند. این زیرساخت همچنین باید آن را کارآمد کند تا ادعاها و ادعاهای کاربران سیستمهایی که شامل مکانیسمهای هوش مصنوعی هستند و توسط عناصری در سیستمهای خودکاری که میسازند را تأیید کند. تصمیم گیری بر اساس خروجی های مدل های هوش مصنوعی و بهینه سازها.
آیا میتوانید بینشهایی در مورد آنچه که در Intertrust روی آن کار میکنید و اینکه چگونه در مواردی که مورد بحث ما قرار میگیرد، با ما در میان بگذارید؟
ما در حال تحقیق و طراحی فناوری هستیم که می تواند زیرساخت مدیریت اعتماد مورد نیاز در سوال قبلی را فراهم کند. ما به طور خاص به مسائل مربوط به مقیاس، تأخیر، امنیت و قابلیت همکاری که در سیستمهای IoT که شامل مؤلفههای هوش مصنوعی هستند، میپردازیم.
سرویس PKI (زیرساخت کلید عمومی) اینترتراست چگونه دستگاههای IoT را ایمن میکند و چه چیزی آن را برای استقرار در مقیاس بزرگ مقیاسپذیر میکند؟
PKI ما به طور خاص برای مدیریت اعتماد برای سیستم هایی طراحی شده است که شامل حاکمیت دستگاه ها و محتوای دیجیتال می شود. ما میلیاردها کلید رمزنگاری و گواهیهایی را مستقر کردهایم که انطباق را تضمین میکنند. تحقیق فعلی ما به مقیاس و تضمینهایی میپردازد که اتوماسیون صنعتی عظیم و زیرساختهای حیاتی در سراسر جهان به آن نیاز دارند، از جمله بهترین شیوهها برای استقرار «با اعتماد صفر» و احراز هویت دستگاه و دادهها که میتواند تریلیونها حسگر و مولد رویداد را در خود جای دهد.
انگیزه شما برای پیوستن به ابتکارات هوش مصنوعی NIST چیست و مشارکت شما چگونه به توسعه استانداردهای قابل اعتماد و ایمن هوش مصنوعی کمک می کند؟
NIST تجربه و موفقیت فوق العاده ای در توسعه استانداردها و بهترین شیوه ها در سیستم های امن دارد. به عنوان یک محقق اصلی برای AISIC ایالات متحده از Intertrust، من می توانم از استانداردهای مهم و بهترین شیوه ها در توسعه سیستم های مدیریت اعتماد که شامل مکانیسم های هوش مصنوعی هستند، دفاع کنم. از تجربه گذشته، من به ویژه از رویکردی که NIST برای ارتقای خلاقیت، پیشرفت و همکاری صنعتی اتخاذ میکند و در عین حال کمک به تدوین و انتشار استانداردهای فنی مهمی که قابلیت همکاری را ارتقا میدهند، قدردانی میکنم. این استانداردها می توانند همزمان با انواع خطراتی که جامعه با آن مواجه است، پذیرش فناوری های سودمند را تشویق کنند.
با تشکر از شما برای مصاحبه عالی، خوانندگانی که مایل به کسب اطلاعات بیشتر هستند باید از آن بازدید کنند اعتماد متقابل.