هوش مصنوعی (AI) تقریباً در تمام جنبه های زندگی روزمره ما ، از توصیه های شخصی گرفته تا تصمیم گیری مهم ، در هم تنیده شده است. این یک داده است که هوش مصنوعی به پیشرفت خود ادامه خواهد دادو با آن ، تهدیدات مرتبط با هوش مصنوعی نیز پیچیده تر خواهد شد. از آنجا که مشاغل در پاسخ به پیچیدگی فزاینده ، دفاع از AI را تصویب می کنند ، گام بعدی در جهت ارتقاء فرهنگ امنیتی در سطح سازمان ، افزایش توضیحات هوش مصنوعی است.
در حالی که این سیستم ها قابلیت های چشمگیر را ارائه می دهند ، آنها اغلب به عنوان “عمل می کنند”جعبه های سیاه” – تولید نتایج بدون بینش واضح در مورد چگونگی رسیدن مدل در نتیجه گیری که انجام داد. سیستم های هوش مصنوعی اظهارات دروغین یا اقدامات دروغین انجام می دهند می تواند باعث ایجاد مسائل مهم و اختلالات احتمالی تجاری شود. هنگامی که شرکت ها به دلیل هوش مصنوعی اشتباه می کنند ، مشتریان و مصرف کنندگان آنها توضیحی می خواهند و به زودی پس از آن ، یک راه حل.
اما مقصر چیست؟ غالباً از داده های بد برای آموزش استفاده می شود. به عنوان مثال ، بیشتر فن آوری های عمومی Genai روی آنها آموزش داده می شوند داده هایی که در اینترنت موجود است، که اغلب تأیید نشده و نادرست است. در حالی که هوش مصنوعی می تواند پاسخ های سریع ایجاد کند ، صحت این پاسخ ها به کیفیت داده هایی که در آن آموزش داده شده بستگی دارد.
اشتباهات هوش مصنوعی در موارد مختلف می تواند رخ دهد ، از جمله تولید اسکریپت با دستورات نادرست و تصمیمات امنیتی کاذب ، یا اینکه یک کارمند را از کار در سیستم های تجاری خود به دلیل اتهامات دروغین که توسط سیستم AI انجام شده است ، دور کند. همه اینها پتانسیل ایجاد قطع مشارکت تجاری را دارند. این تنها یکی از دلایل بسیاری است که تضمین شفافیت برای ایجاد اعتماد به سیستم های هوش مصنوعی مهم است.
ساختمان در اعتماد
ما در فرهنگی وجود داریم که اعتماد به انواع منابع و اطلاعات را القا می کنیم. اما ، در عین حال ، ما بیشتر و بیشتر به اثبات و اعتبارسنجی می پردازیم ، نیاز به اعتبار مداوم اخبار ، اطلاعات و ادعاها. وقتی صحبت از هوش مصنوعی می شود ، ما به سیستمی اعتماد می کنیم که پتانسیل نادرست بودن را داشته باشد. مهمتر از همه ، غیرممکن است بدانید که آیا اقدامات سیستم های AI انجام می شود یا خیر ، بدون هیچ گونه شفافیت در مبنای تصمیم گیری ها دقیق است. چه می شود اگر سیستم AI سایبر شما ماشین ها را خاموش کند ، اما این اشتباه را در تفسیر علائم اشتباه کرده است؟ بدون بینش در مورد اینکه چه اطلاعاتی باعث شده است که سیستم تصمیم بگیرد ، هیچ راهی برای دانستن اینکه آیا این حق را درست کرده است یا خیر.
در حالی که اختلال در تجارت ناامید کننده است ، یکی از مهمترین نگرانی های مربوط به استفاده از هوش مصنوعی ، حریم خصوصی داده ها است. سیستم های AI ، مانند ChatGPT ، مدل های یادگیری ماشین هستند که از داده های دریافت شده پاسخ می دهند. بنابراین ، اگر کاربران یا توسعه دهندگان به طور تصادفی اطلاعات حساس را ارائه دهند ، مدل یادگیری ماشین ممکن است از این داده ها برای تولید پاسخ به سایر کاربران استفاده کند اطلاعات محرمانه را فاش کنیدبشر این اشتباهات این پتانسیل را دارد که کارایی ، سودآوری و مهمتر از همه اعتماد مشتری را به شدت مختل کند. سیستم های هوش مصنوعی به معنای افزایش کارایی و فرآیندهای سهولت هستند ، اما در این صورت که اعتبارسنجی مداوم لازم است زیرا به خروجی ها اعتماد نمی شود ، سازمان ها نه تنها وقت خود را هدر می دهند بلکه درهای آسیب پذیری های احتمالی را نیز باز می کنند.
تیم های آموزشی برای استفاده مسئول AI
به منظور محافظت از سازمانها در برابر خطرات احتمالی استفاده از هوش مصنوعی ، متخصصان فناوری اطلاعات مسئولیت مهم آموزش مناسب همکاران خود را برای اطمینان از استفاده از AI با مسئولیت پذیری دارند. با این کار ، آنها به حفظ سازمان های خود در برابر حملات سایبری که زنده بودن و سودآوری آنها را تهدید می کند ، کمک می کنند.
با این حال ، قبل از آموزش تیم های آموزش ، رهبران فناوری اطلاعات باید در داخل کشور تراز شوند تا مشخص شود که سیستم های AI برای سازمان خود مناسب خواهد بود. با عجله به هوش مصنوعی ، بعداً آتش سوزی خواهد شد ، بنابراین در عوض ، کوچک را شروع کنید و بر نیازهای سازمان تمرکز کنید. اطمینان حاصل کنید که استانداردها و سیستمهایی که شما انتخاب می کنید با پشته فنی فعلی سازمان خود و اهداف شرکت هماهنگ است و سیستم های AI مطابق با سایر فروشندگان دیگری که انتخاب می کنید ، استانداردهای امنیتی را رعایت می کنند.
پس از انتخاب یک سیستم ، متخصصان فناوری اطلاعات می توانند تیم های خود را در معرض این سیستم ها قرار دهند تا از موفقیت اطمینان حاصل کنند. با استفاده از هوش مصنوعی برای کارهای کوچک شروع کنید و ببینید که در کجا عملکرد خوبی دارد و جایی که نمی کند ، و یاد بگیرید خطرات یا اعتبار بالقوه ای که باید اعمال شود چیست. سپس استفاده از هوش مصنوعی را به کارهای تقویت کننده معرفی کنید ، و این امکان را برای وضوح سریعتر سرویس دهی ، از جمله سؤالات ساده “نحوه” فراهم می کند. از آنجا می توان به نحوه اعتبار سنجی در محل آموزش داد. این بسیار ارزشمند است زیرا ما شاهد خواهیم بود که مشاغل بیشتری در مورد قرار دادن شرایط مرزی و اعتبارسنجی ها در کنار هم قرار بگیریم ، و حتی قبلاً در مشاغل مانند استفاده از هوش مصنوعی برای کمک به نوشتن نرم افزار دیده می شود.
علاوه بر این مراحل عملی برای اعضای تیم آموزش ، شروع و تشویق بحث و گفتگو نیز ضروری است. تشویق باز ، داده محور ، گفتگو در مورد نحوه ارائه AI به نیازهای کاربر-آیا حل مشکلات دقیق و سریعتر است ، آیا ما هم برای شرکت و هم برای کاربر نهایی بهره می بریم ، آیا نمره NPS مشتری ما به دلیل این ابزارهای هوش مصنوعی افزایش می یابد؟ در مورد بازده سرمایه گذاری (ROI) روشن باشید و آن جلو و مرکز را حفظ کنید. ارتباطات شفاف باعث می شود که آگاهی از استفاده مسئولانه رشد کند ، و از آنجا که اعضای تیم درک بهتری از نحوه عملکرد سیستم های AI دارند ، احتمالاً از آنها با مسئولیت پذیری استفاده می کنند.
نحوه دستیابی به شفافیت در هوش مصنوعی
اگرچه تیم های آموزشی و افزایش آگاهی از اهمیت زیادی برخوردار هستند ، برای دستیابی به شفافیت در هوش مصنوعی ، بسیار مهم است که در مورد داده هایی که برای آموزش مدل ها استفاده می شود ، زمینه بیشتری وجود داشته باشد و اطمینان حاصل شود که فقط از داده های با کیفیت استفاده می شود. امیدوارم در نهایت راهی وجود داشته باشد تا ببینیم سیستم چگونه دلایل می دهد تا بتوانیم کاملاً به آن اعتماد کنیم. اما تا آن زمان ، ما به سیستمهایی احتیاج داریم که بتوانند با اعتبارسنجی و محافظ کار کنند و ثابت کنیم که آنها به آنها پایبند هستند.
در حالی که کامل شفافیت اراده ناگزیر گرفتن زمان به دستیابی به ، در سریع رشد از عده وت آن را استفاده ساختن من لازم به کار سریع همانطور که مدل های هوش مصنوعی همچنان ادامه دارند افزایش پیچیدگیآنها این قدرت را دارند که تفاوت زیادی در بشریت ایجاد کنند ، اما عواقب خطاهای آنها نیز رشد می کند. در نتیجه ، درک چگونگی رسیدن این سیستم ها به تصمیمات خود بسیار ارزشمند و لازم برای مؤثر و قابل اعتماد بودن است. با تمرکز بر روی سیستم های شفاف AI ، می توانیم اطمینان حاصل کنیم که این فناوری به همان اندازه مفید است که در عین حال بی طرفانه ، اخلاقی ، کارآمد و دقیق باقی بماند.