3 مورد برای نمایندگان ایمن و قابل اعتماد برای شرکتها


به گفته گارتنر ، 30 ٪ از پروژه های Genai احتمالاً تا پایان سال 2025 پس از اثبات مفهوم رها خواهد شد. تصویب زودهنگام Genai نشان داد كه بیشتر زیرساخت های داده و شیوه های حاكمتی بنگاهها برای استقرار مؤثر AI آماده نبودند. اولین موج تولید Genai با موانع قابل توجهی روبرو شد و بسیاری از سازمان ها در تلاشند تا از مراحل اثبات مفهوم برای دستیابی به ارزش تجاری معنی دار فراتر بروند.

با وارد کردن موج دوم تولید AI تولیدی ، شرکت ها در حال درک این موضوع هستند که اجرای موفقیت آمیز این فناوری ها به چیزی بیش از اتصال LLM به داده های خود نیاز دارد. کلید باز کردن قفل پتانسیل هوش مصنوعی بر سه ستون اصلی استوار است: دریافت داده به ترتیب و اطمینان از آماده سازی آن برای ادغام با هوش مصنوعی. تعمیرات اساسی شیوه های حاکمیت داده ها برای رفع چالش های منحصر به فرد Genai معرفی می کند. و استفاده از عوامل هوش مصنوعی به روش هایی که استفاده ایمن و قابل اطمینان را طبیعی و شهودی ایجاد می کند ، بنابراین کاربران مجبور به یادگیری مهارت های تخصصی یا الگوهای استفاده دقیق نیستند. این ستون ها با هم پایه و اساس محکمی برای عوامل هوش مصنوعی ایمن و مؤثر در محیط های سازمانی ایجاد می کنند.

به درستی تهیه داده های خود برای AI

در حالی که داده های ساختاری LLM ها اغلب به نظر می رسند که به صورت غیر مسلح به صورت غیر مسلح سازماندهی شده اند ، و به طور مرتب در جداول و ستون ها قرار می گیرند ، LLM ها اغلب برای درک و کار با این داده های ساخت یافته به طور مؤثر تلاش می کنند. این اتفاق می افتد زیرا ، در اکثر شرکت ها ، داده ها به روشی معنایی معنی دار برچسب گذاری نمی شوند. داده ها اغلب دارای برچسب های رمزنگاری هستند ، به عنوان مثال ، “شناسه” بدون هیچ نشانه مشخصی از اینکه آیا این یک شناسه برای مشتری ، یک محصول یا معامله است. با داده های ساخت یافته ، گرفتن زمینه و روابط مناسب بین نقاط مختلف داده های بهم پیوسته نیز دشوار است ، مانند اینکه چگونه مراحل سفر مشتری با یکدیگر ارتباط دارند. درست همانطور که ما نیاز به برچسب زدن هر تصویر داشتیم چشم انداز کامپیوتر برنامه های کاربردی برای فعال کردن تعامل معنی دار ، سازمانها اکنون باید وظیفه پیچیده ای را برای برچسب زدن معنایی داده های خود و مستندسازی روابط در تمام سیستم ها انجام دهند تا تعامل هوش مصنوعی معنی دار را فعال کنند.

علاوه بر این ، داده ها در بسیاری از مکان های مختلف پراکنده می شوند – از سرورهای سنتی گرفته تا خدمات مختلف ابری و برنامه های نرم افزاری مختلف. این وصله سیستم ها منجر به قابلیت همکاری مهم و موضوعات ادغام می شود که هنگام اجرای راه حل های هوش مصنوعی مشکل ساز تر می شوند.

یکی دیگر از چالش های اساسی در ناسازگاری تعاریف تجاری در سیستم ها و بخش های مختلف نهفته است. به عنوان مثال ، تیم های موفقیت مشتری ممکن است یک راه “Upsell” را تعریف کنند ، در حالی که تیم فروش آن را به روش دیگری تعریف می کند. هنگامی که یک عامل AI یا Chatbot را به این سیستم ها وصل می کنید و شروع به پرسیدن سؤال می کنید ، پاسخ های متفاوتی دریافت خواهید کرد زیرا تعاریف داده ها تراز نشده اند. این عدم تراز یک ناراحتی جزئی نیست – این یک مانع مهم برای اجرای راه حل های معتبر هوش مصنوعی است.

کیفیت ضعیف داده ها کلاسیک را ایجاد می کند “زباله در ، زباله بیرون“سناریویی که هنگام اعزام ابزارهای AI در یک شرکت ، از نظر تصاعدی جدی تر می شوند. داده های نادرست یا کثیف بسیار بیش از یک تجزیه و تحلیل تأثیر می گذارد – این اطلاعات نادرست را برای همه با استفاده از سیستم از طریق سؤالات و تعامل خود گسترش می دهد. برای ایجاد اعتماد به سیستم های هوش مصنوعی برای تصمیم گیری های تجاری واقعی ، شرکت ها باید اطمینان حاصل کنند که برنامه های هوش مصنوعی آنها دارای داده هایی هستند که در یک زمینه مناسب و تجاری مناسب هستند. این نشان دهنده یک تغییر اساسی در چگونگی تفکر سازمانها در مورد دارایی های داده خود در عصر هوش مصنوعی است – جایی که کیفیت ، قوام و وضوح معنایی به همان اندازه خود داده ها بسیار مهم است.

تقویت رویکردها به حاکمیت

حاکمیت داده ها در سالهای اخیر تمرکز عمده ای برای سازمانها بوده است ، که عمدتاً بر مدیریت و محافظت از داده های مورد استفاده در تجزیه و تحلیل متمرکز شده است. شرکت ها تلاش کرده اند تا اطلاعات حساس را ترسیم کنند ، به استانداردها دسترسی پیدا کنند ، مطابق قوانینی مانند GDPR و CCPA و تشخیص داده های شخصی باشند. این ابتکارات برای ایجاد داده های آماده AI بسیار مهم است. با این حال ، هنگامی که سازمانها عوامل هوش مصنوعی تولیدی را به گردش کار خود معرفی می کنند ، چالش حاکمیت فراتر از خود داده ها است تا کل تجربه تعامل کاربر را با هوش مصنوعی در بر بگیرد.

ما اکنون با این ضرورت روبرو هستیم که نه تنها داده های اساسی را اداره می کنیم بلکه فرایندی را که توسط آن کاربران از طریق عوامل هوش مصنوعی با آن داده ها ارتباط برقرار می کنند ، اداره می کنیم. قانون موجود ، مانند قانون AI اتحادیه اروپا، و مقررات بیشتر در مورد افق بر ضرورت حاکمیت بر روند پاسخگویی به سوال تأکید می کند. این به معنای اطمینان از ارائه پاسخ های شفاف ، قابل توضیح و قابل ردیابی است. هنگامی که کاربران پاسخ های جعبه سیاه دریافت می کنند-مانند پرسیدن ، “چند بیمار آنفولانزا دیروز بستری شدند؟” و فقط “50” بدون زمینه – اعتماد به این اطلاعات برای تصمیمات مهم دشوار است. بدون دانستن اینکه داده ها از کجا آمده اند ، چگونه محاسبه می شود ، یا تعاریفی از اصطلاحاتی مانند “پذیرفته شده” و “دیروز” ، خروجی هوش مصنوعی قابلیت اطمینان را از دست می دهد.

بر خلاف تعامل با اسناد ، که در آن کاربران می توانند پاسخ ها را به PDF یا سیاست های خاص برای تأیید صحت ردیابی کنند ، تعامل با داده های ساختار یافته از طریق عوامل AI اغلب فاقد این سطح از قابلیت ردیابی و توضیح است. برای رسیدگی به این موضوعات ، سازمان ها باید اقدامات حاکمیتی را انجام دهند که نه تنها از داده های حساس محافظت می کنند بلکه تجربه تعامل هوش مصنوعی را نیز کنترل و قابل اعتماد می کنند. این شامل ایجاد کنترل های دسترسی قوی برای اطمینان از این که فقط پرسنل مجاز می توانند به اطلاعات خاص ، تعریف مالکیت داده های روشن و مسئولیت های سرپرستی ، دسترسی پیدا کنند و اطمینان حاصل کنند که نمایندگان هوش مصنوعی توضیحات و منابع را برای خروجی های خود ارائه می دهند. با تعمیرات اساسی شیوه های حاکمیت داده ها برای شامل این ملاحظات ، شرکت ها می توانند با اطمینان از قدرت عوامل هوش مصنوعی ضمن رعایت مقررات در حال تحول و حفظ اعتماد کاربر استفاده کنند.

تفکر فراتر از مهندسی سریع

همانطور که سازمانها در تلاش برای بهبود دسترسی به داده ها ، عوامل AI مولد را معرفی می کنند ، مهندسی سریع به عنوان یک مانع فنی جدید برای کاربران تجاری ظاهر شده است. در حالی که به عنوان یک مسیر شغلی امیدوارکننده مورد توجه قرار می گیرد ، مهندسی سریع اساساً همان موانعی را که در تجزیه و تحلیل داده ها با آنها دست و پنجه نرم کرده ایم ، بازآفرینی می کند. ایجاد مطالب کامل هیچ تفاوتی با نوشتن پرس و جوهای تخصصی SQL یا ساخت فیلترهای داشبورد ندارد – این تخصص فنی را از یک قالب به قالب دیگر تغییر می دهد ، هنوز هم نیاز به مهارت های تخصصی دارد که بیشتر کاربران تجاری ندارند و نیازی به آن ندارند.

شرکت ها مدتهاست که با آموزش کاربران برای درک بهتر سیستم های داده ، ایجاد مستندات و ایجاد نقش های تخصصی سعی در حل دسترسی به داده ها دارند. اما این رویکرد عقب مانده است – ما از کاربران می خواهیم که به جای سازگاری داده ها با کاربران ، با داده ها سازگار شوند. مهندسی سریع تهدید می کند که با ایجاد یک لایه دیگر از واسطه های فنی ، این الگوی را ادامه خواهد داد.

دموکراتیک سازی داده های واقعی به سیستمهایی نیاز دارد که زبان تجاری را درک کنند ، نه کاربرانی که زبان داده را درک می کنند. هنگامی که مدیران در مورد حفظ مشتری سؤال می کنند ، نیازی به اصطلاحات یا اعلان کامل ندارند. سیستم ها باید هدف را درک کنند ، داده های مربوطه را در برچسب های مختلف (اعم از “چرند” ، “حفظ” یا “چرخه عمر مشتری”) تشخیص دهند و پاسخ های متنی ارائه دهند. این امر به کاربران مشاغل اجازه می دهد تا به جای یادگیری سؤالات فنی کامل ، روی تصمیمات تمرکز کنند.

پایان

نمایندگان هوش مصنوعی تغییرات مهمی را در نحوه عملکرد شرکت ها و تصمیم گیری به وجود می آورند ، اما با مجموعه ای از چالش های منحصر به فرد خود که باید قبل از استقرار مورد توجه قرار گیرند ، همراه باشند. با هوش مصنوعی ، هر خطایی هنگامی تقویت می شود که کاربران غیر فنی دسترسی به سلف سرویس داشته باشند ، و به درستی گرفتن پایه ها بسیار مهم است.

سازمانهایی که با موفقیت به چالش های اساسی کیفیت داده ها ، تراز معنایی و حكومت در حالی كه فراتر از محدودیت های مهندسی سریع حرکت می كنند ، قرار می گیرند تا با ایمن دموكراتیزه كردن دسترسی به داده ها و تصمیم گیری ها. بهترین رویکرد شامل ایجاد یک محیط مشترک است که کار تیمی را تسهیل می کند و تعامل انسان به دستگاه و همچنین دستگاه به ماشین را تراز می کند. این تضمین می کند که بینش های محور AI دقیق ، ایمن و قابل اعتماد هستند و یک فرهنگ گسترده سازمان را تشویق می کنند که مدیریت ، محافظت و به حداکثر رساندن داده ها را به پتانسیل کامل خود می رساند.



منبع:unite.ai

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *