چرا Genai بدون حاکمیت قوی غرفه می کند


از آنجا که شرکت ها با حرکت پروژه های AI مولد از آزمایش تا تولید ، دست و پنجه نرم می کنند – بسیاری از مشاغل در حالت آزمایشی گیر می کنند. همانطور که تحقیقات اخیر ما برجسته است ، 92 ٪ سازمانها نگران این هستند که خلبانان Genai بدون مقابله با مشکلات اساسی داده ها شتاب می گیرندبشر حتی بیشتر گفتن: 67 ٪ نتوانسته اند حتی نیمی از خلبانان خود را در تولید قرار دهند. این شکاف تولید کمتر در مورد بلوغ تکنولوژیکی و بیشتر در مورد آمادگی داده های اساسی است. پتانسیل Genai به قدرت زمین که روی آن ایستاده است بستگی دارد. و امروز ، برای اکثر سازمان ها ، این زمین در بهترین حالت لرزان است.

چرا Genai در خلبان گیر می کند

اگرچه راه حل های Genai مطمئناً توانا هستند ، اما آنها فقط به اندازه داده هایی که از آنها تغذیه می کنند مؤثر هستند. ادعای قدیمی “زباله در ، زباله های بیرون” امروز از همیشه واقعی تر است. بدون داده های قابل اعتماد ، کامل ، حق و قابل توضیح ، مدل های Genai اغلب نتایج حاصل از نادرست ، مغرضانه یا نامناسب برای هدف را به دست می آورند.

متأسفانه ، سازمانها با عجله برای استقرار موارد استفاده کم ، مانند چت های با قدرت هوش مصنوعی که پاسخ های متناسب با اسناد داخلی مختلف ارائه می دهند ، عجله کرده اند. و در حالی که اینها تجربیات مشتری را تا حدی بهبود می بخشد ، آنها نیاز به تغییر عمیق در زیرساخت داده های یک شرکت ندارند. اما برای مقیاس استراتژیک ، چه در مراقبت های بهداشتی ، خدمات مالی یا اتوماسیون زنجیره تأمین ، به سطح متفاوتی از بلوغ داده ها نیاز دارد.

در واقع ، 56 ٪ از افسران اصلی داده ها قابلیت اطمینان داده ها را به عنوان یک مانع اصلی برای استقرار AI ذکر می کنندبشر موضوعات دیگر داده های ناقص (53 ٪) ، مسائل مربوط به حفظ حریم خصوصی (50 ٪) و شکاف های مدیریت هوش مصنوعی بزرگتر (36 ٪) است.

نه حاکمیت ، نه Genai

برای اینکه Genai را فراتر از مرحله آزمایشی قرار دهید ، شرکت ها باید با مدیریت داده ها به عنوان یک ضرورت استراتژیک برای تجارت خود رفتار کنند. آنها باید اطمینان حاصل کنند که داده ها به کار مدل های AI مربوط می شوند و بنابراین باید به سؤالات زیر پرداخته شود:

  • آیا داده های مورد استفاده برای آموزش مدل از سیستم های مناسب استفاده می شود؟
  • آیا اطلاعات شناسایی شخصی را حذف کرده ایم و کلیه داده ها و مقررات حریم خصوصی را دنبال کرده ایم؟
  • آیا ما شفاف هستیم و آیا می توانیم از داده هایی که مدل استفاده می کند ، اثبات کنیم؟
  • آیا می توانیم فرآیندهای داده خود را مستند کنیم و آماده باشیم تا نشان دهیم که داده ها هیچ تعصب ندارند؟

حاکمیت داده ها همچنین باید در فرهنگ یک سازمان تعبیه شود. برای انجام این کار ، نیاز به ایجاد سواد هوش مصنوعی در همه تیم ها دارد. قانون AI اتحادیه اروپا این مسئولیت را رسمیت می بخشد ، و به ارائه دهندگان و کاربران سیستم های هوش مصنوعی نیاز دارد تا بهترین تلاش را برای اطمینان از کارکنان به اندازه کافی سواد هوش مصنوعی داشته باشند و اطمینان حاصل کنند که آنها چگونه این سیستم ها کار می کنند و چگونه از آنها با مسئولیت پذیری استفاده می کنند. با این حال ، پذیرش مؤثر هوش مصنوعی فراتر از دانش فنی است. همچنین این امر پایه و اساس محکمی در مهارت های داده ، از درک مدیریت داده ها گرفته تا فریم کردن سؤالات تحلیلی است. درمان سواد هوش مصنوعی در انزوا از سواد داده ها با توجه به اینکه چقدر از نزدیک در هم تنیده شده اند ، کوتاه بینانه خواهد بود.

از نظر حاکمیت داده ها ، هنوز کارهایی باید انجام شود. در میان مشاغلی که می خواهند سرمایه گذاری های مدیریت داده خود را افزایش دهند ، 47 ٪ موافق هستند که فقدان سواد داده یک مانع برتر استبشر این امر نیاز به ایجاد پشتیبانی از سطح بالا و توسعه مهارت های مناسب در سراسر سازمان را برجسته می کند. بدون این بنیادها ، حتی قدرتمندترین LLM ها برای تحویل تلاش می کنند.

توسعه هوش مصنوعی که باید پاسخگو باشد

در محیط نظارتی فعلی ، دیگر کافی نیست که هوش مصنوعی “فقط کار کند” ، همچنین باید پاسخگو باشد و توضیح داده شود. در اتحادیه اروپا و پیشنهاد انگلیس برنامه اقدام AI نیاز به شفافیت در موارد استفاده از هوش مصنوعی پرخطر دارد. دیگران پیروی از کت و شلوار ، و 1000+ صورتحساب مربوط به سیاست در 69 کشور در دستور کار قرار داردبشر

این جنبش جهانی به سمت پاسخگویی نتیجه مستقیمی از افزایش خواسته های مصرف کننده و ذینفعان برای انصاف در الگوریتم ها است. به عنوان مثال ، سازمانها باید بتوانند دلایلی را که مشتری برای وام رد شده یا نرخ بیمه حق بیمه را پرداخت کرده اند بگویند. برای اینکه بتوانند این کار را انجام دهند ، آنها باید بدانند که چگونه این مدل تصمیم گرفته است ، و این به نوبه خود به داشتن یک دنباله واضح و قابل شنیدن از داده هایی که برای آموزش آن استفاده شده است ، بستگی دارد.

مگر در مواردی که توضیح وجود داشته باشد ، مشاغل خطر از دست دادن اعتماد مشتری و همچنین مواجهه با پیامدهای مالی و قانونی را دارند. در نتیجه ، قابلیت ردیابی از اصل و نسب داده و توجیه نتایج “خوب بودن” نیست ، بلکه یک الزام انطباق است.

و از آنجا که Genai فراتر از استفاده از ابزارهای ساده برای عوامل کاملاً پر از آن است که می توانند تصمیم گیری کنند و بر آنها عمل کنند ، سهام برای حاکمیت داده های قوی حتی بیشتر می شود.

مراحل ساخت AI قابل اعتماد

بنابراین ، ظاهر خوب چگونه است؟ برای مقیاس پذیر با مسئولیت پذیری ، سازمان ها باید به دنبال اتخاذ یک استراتژی داده واحد در سه ستون باشند:

  • خیاط AI به تجارت: داده های خود را در مورد اهداف کلیدی کسب و کار قرار دهید ، و اطمینان از این امر منعکس کننده زمینه ، چالش ها و فرصت های منحصر به فرد برای تجارت شما است.
  • اعتماد به هوش مصنوعی را ایجاد کنید: ایجاد سیاست ها ، استانداردها و فرآیندهای مربوط به انطباق و نظارت بر استقرار اخلاقی و مسئول AI.
  • خطوط لوله آماده داده AI را بسازید: منابع داده متنوع خود را در یک پایه داده انعطاف پذیر برای پخت قوی هوش مصنوعی در اتصال Genai از پیش ساخته ترکیب کنید.

هنگامی که سازمان ها این حق را بدست می آورند ، حاکمیت ارزش هوش مصنوعی را تسریع می کند. به عنوان مثال در خدمات مالی ، صندوق های پرچین هستند استفاده از Gen AI برای پیشی از تحلیلگران انسانی در پیش بینی قیمت سهام در حالی که به طور قابل توجهی هزینه ها را کاهش می دهد. در ساخت ، بهینه سازی زنجیره تأمین هدایت شده توسط هوش مصنوعی ، سازمانها را قادر می سازد تا در زمان واقعی نسبت به تغییرات ژئوپلیتیکی و فشارهای زیست محیطی واکنش نشان دهند.

و اینها فقط ایده های آینده نگر نیستند ، آنها اکنون اتفاق می افتد ، که توسط داده های قابل اعتماد هدایت می شوند.

با استفاده از پایه های داده قوی ، شرکت ها کاهش مدل ، چرخه بازآموزی را محدود می کنند و سرعت را به ارزش افزایش می دهند. به همین دلیل حاکمیت یک سد راه نیست. این یک فعال کننده نوآوری است.

چه چیزی بعدی؟

پس از آزمایش ، سازمان ها فراتر از چت بابات و سرمایه گذاری در قابلیت های تحول گرا هستند. از شخصی سازی تعامل مشتری تا تسریع در تحقیقات پزشکیبا بهبود سلامت روانی و ساده سازی فرآیندهای نظارتی ، Genai شروع به نشان دادن پتانسیل خود در صنایع می کند.

با این حال ، این دستاوردها کاملاً به داده های زیربنایی آنها بستگی دارد. Genai با ساختن یک بنیاد داده قوی ، از طریق حاکمیت داده های قوی شروع می شود. و در حالی که Genai و Aticic AI به تکامل خود ادامه خواهند داد ، به زودی نظارت انسان را جایگزین نخواهد کرد. در عوض ، ما در حال ورود به مرحله ای از ایجاد ارزش ساختاری هستیم ، جایی که AI به یک خلبان قابل اعتماد تبدیل می شود. با سرمایه گذاری مناسب در کیفیت داده ها ، حاکمیت و فرهنگ ، مشاغل سرانجام می توانند Genai را از یک خلبان امیدوار کننده به چیزی تبدیل کنند که کاملاً از زمین خارج شود.



منبع:unite.ai

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *