از آنجا که AI Adoption و سازمان ها در همه صنایع ابزارها و برنامه های مبتنی بر هوش مصنوعی را پذیرفته اند ، باید تعجب آور باشد که مجرمان سایبری در حال حاضر راه هایی برای هدف قرار دادن و بهره برداری از آن ابزارها به نفع خودشان پیدا می کنند. اما اگرچه محافظت از هوش مصنوعی در برابر حملات سایبری بالقوه مهم است ، مسئله خطر هوش مصنوعی بسیار فراتر از امنیت است. در سراسر جهان ، دولت ها شروع به تنظیم چگونگی توسعه و استفاده از هوش مصنوعی می کنند – و مشاغل می توانند در صورت یافتن با استفاده از هوش مصنوعی به روش های نامناسب ، آسیب های شهرت قابل توجهی وارد کنند. مشاغل امروز کشف می کنند که استفاده از هوش مصنوعی به روشی اخلاقی و مسئولانه فقط کار درستی نیست – برای ایجاد اعتماد ، حفظ انطباق و حتی بهبود کیفیت محصولات آنها بسیار مهم است.
واقعیت نظارتی پیرامون هوش مصنوعی
چشم انداز نظارتی به سرعت در حال تحول باید نگرانی جدی برای فروشندگانی باشد که راه حل های مبتنی بر هوش مصنوعی را ارائه می دهند. به عنوان مثال ، اتحادیه اروپا، که در سال 2024 به تصویب رسید ، رویکرد مبتنی بر ریسک را برای تنظیم هوش مصنوعی اتخاذ می کند و سیستم هایی را که درگیر شیوه هایی مانند امتیاز دهی اجتماعی ، رفتار دستکاری و سایر فعالیتهای بالقوه غیر اخلاقی هستند “غیرقابل قبول” است. این سیستم ها به طور کامل ممنوع است ، در حالی که سایر سیستم های هوش مصنوعی “پرخطر” در معرض تعهدات سختگیرانه تر در مورد ارزیابی ریسک ، کیفیت داده ها و شفافیت هستند. مجازات های عدم انطباق شدید است: شرکت هایی که به نظر می رسد از AI به روش های غیرقابل قبول استفاده می کنند ، می توانند تا 35 میلیون یورو یا 7 ٪ از گردش مالی سالانه خود جریمه شوند.
قانون اتحادیه اروپا فقط یک قانون است ، اما به وضوح هزینه شدید عدم تحقق آستانه های اخلاقی خاص را نشان می دهد. ایالت هایی مانند کالیفرنیا ، نیویورک ، کلرادو و سایرین همه تصویب شده اند دستورالعمل های هوش مصنوعی خودشان، بیشتر آنها بر عواملی مانند شفافیت ، حفظ حریم خصوصی داده ها و پیشگیری از تعصب تمرکز دارد. و گرچه سازمان ملل متحد فاقد مکانیسم های اجرایی است که دولت ها از آن برخوردار هستند ، شایان ذکر است که تمام 193 عضو سازمان ملل به اتفاق آرا تأیید شد در قطعنامه 2024 “حقوق بشر و آزادی های اساسی باید در طول چرخه زندگی سیستم های اطلاعاتی مصنوعی مورد احترام ، محافظت و ترویج قرار گیرد.” در سراسر جهان ، حقوق بشر و ملاحظات اخلاقی به طور فزاینده ای در هنگام صحبت از هوش مصنوعی مهم است.
تأثیر شهرت اخلاق ضعیف هوش مصنوعی
در حالی که نگرانی های انطباق بسیار واقعی است ، داستان به همین جا ختم نمی شود. واقعیت این است که اولویت بندی رفتار اخلاقی می تواند اساساً کیفیت راه حل های هوش مصنوعی را بهبود بخشد. اگر یک سیستم هوش مصنوعی تعصب ذاتی داشته باشد ، به دلایل اخلاقی بد است – اما این بدان معنی است که محصول به همان اندازه که باید کار نمی کند. به عنوان مثال ، برخی از فناوری تشخیص چهره برای آن مورد انتقاد قرار گرفته است عدم شناسایی چهره های پوست تیره و همچنین چهره های پوستی. اگر یک راه حل تشخیص چهره نتواند بخش قابل توجهی از افراد را شناسایی کند ، این یک مشکل جدی اخلاقی را نشان می دهد – اما این بدان معنی است که خود فناوری فواید مورد انتظار را نیز ارائه نمی دهد و مشتریان خوشحال نمی شوند. پرداختن به تعصب هر دو نگرانی اخلاقی را کاهش می دهد و کیفیت محصول خود را بهبود می بخشد.
نگرانی های مربوط به تعصب ، تبعیض و انصاف می تواند فروشندگان را در آب گرم با نهادهای نظارتی به زمین بیاندازد ، اما اعتماد به نفس مشتری را نیز از بین می برد. این ایده خوبی است که هنگام استفاده از هوش مصنوعی و ارائه دهندگان برای کار با “خطوط قرمز” خاصی داشته باشید. ارائه دهندگان هوش مصنوعی در ارتباط با اطلاعاتی ، نظارت گسترده ، امتیاز دهی اجتماعی ، دولت های مظلوم و یا حتی فقط عدم پاسخگویی کلی می توانند باعث ناراحتی مشتریان شوند ، و فروشندگان ارائه راه حل های مبتنی بر هوش مصنوعی باید در نظر داشته باشند که با چه کسی شریک هستند. شفافیت تقریباً همیشه بهتر است – کسانی که از افشای نحوه استفاده از هوش مصنوعی خودداری می کنند یا شرکای آنها به نظر می رسد که چیزی را پنهان می کنند ، که معمولاً احساسات مثبت را در بازار ایجاد نمی کند.
شناسایی و کاهش پرچم های اخلاقی قرمز
مشتریان به طور فزاینده ای یاد می گیرند که به دنبال علائم رفتار غیر اخلاقی هوش مصنوعی باشند. فروشندگانی که بیش از حد تولید می کنند اما قابلیت های هوش مصنوعی خود را از بین نمی برند ، احتمالاً در مورد آنچه در واقع راه حل های آنها می تواند انجام دهد ، کمتر از حقیقت هستند. شیوه های ضعیف داده ها ، مانند خراش بیش از حد داده ها یا عدم توانایی در انصراف از آموزش مدل AI ، همچنین می تواند پرچم های قرمز را بالا ببرد. امروزه ، فروشندگانی که از AI در محصولات و خدمات خود استفاده می کنند باید یک چارچوب حاکمیت روشن و در دسترس عمومی با مکانیسم های مربوط به پاسخگویی داشته باشند. کسانی که داوری را اجباری می کنند – یا از آن بدتر ، به هیچ وجه متوسل نمی شوند – احتمالاً شرکای خوبی نخواهند بود. همین مسئله برای فروشندگانی نیز که تمایلی ندارند یا قادر به ارائه معیارهایی نیستند که آنها ارزیابی می کنند و تعصب را در مدل های هوش مصنوعی خود ارائه می دهند ، پیش می رود. مشتریان امروز به راه حل های Black Box اعتماد ندارند – آنها می خواهند بدانند که چگونه و چگونه هوش مصنوعی در راه حل هایی که به آنها اعتماد می کنند مستقر می شوند.
برای فروشندگانی که از AI در محصولات خود استفاده می کنند ، مهم است که به مشتریان منتقل شوند که ملاحظات اخلاقی مهم است. آنهایی که مدلهای هوش مصنوعی خود را آموزش می دهند ، نیاز به فرآیندهای پیشگیری از تعصب قوی دارند و مواردی که به فروشندگان هوش مصنوعی خارجی متکی هستند ، باید شرکا را با شهرت برای رفتار عادلانه در اولویت قرار دهند. همچنین ارائه یک انتخاب به مشتریان بسیار مهم است: بسیاری از آنها هنوز هم ناراحت هستند که به داده های خود به راه حل های هوش مصنوعی اعتماد کنند و ارائه “انتخاب” برای ویژگی های هوش مصنوعی به آنها امکان می دهد تا با سرعت خود آزمایش کنند. همچنین شفاف بودن در مورد اینکه داده های آموزش از کجا آمده است ، بسیار مهم است. باز هم ، این اخلاقی است ، اما این نیز تجارت خوبی است – اگر مشتری متوجه شود که راه حلی که به آنها متکی است بر روی داده های دارای حق چاپ آموزش داده شده است ، آنها را به سمت اقدامات نظارتی یا قانونی باز می کند. فروشندگان با قرار دادن همه چیز در باز ، می توانند با مشتریان خود اعتماد کنند و به آنها کمک کنند تا از نتایج منفی جلوگیری کنند.
اولویت بندی اخلاق ، تصمیم تجارت هوشمند است
اعتماد همیشه بخش مهمی از هر رابطه تجاری بوده است. هوش مصنوعی تغییر نکرده است – اما ملاحظات جدیدی را ارائه داده است که فروشندگان باید به آنها بپردازند. نگرانی های اخلاقی همیشه برای رهبران مشاغل مهم نیست ، اما وقتی صحبت از هوش مصنوعی می شود ، رفتار غیر اخلاقی می تواند عواقب جدی داشته باشد – از جمله آسیب های شهرت و تخلفات احتمالی نظارتی و انطباق. از همه بدتر ، عدم توجه به ملاحظات اخلاقی مانند کاهش تعصب می تواند به طور فعال به کیفیت محصولات و خدمات فروشنده آسیب برساند. با ادامه پذیرش هوش مصنوعی ، فروشندگان به طور فزاینده ای می دانند که اولویت بندی رفتار اخلاقی فقط کار درستی نیست – این نیز تجارت خوبی است.