این مربوط به آنچه AI می تواند برای ما انجام دهد نیست ، بلکه کاری که می توانیم برای هوش مصنوعی انجام دهیم


بیشتر آنها هوش مصنوعی (AI) را از طریق یک لنز یک طرفه مشاهده می کنند. این فناوری فقط برای خدمت به انسان و دستیابی به سطوح جدید کارآیی ، دقت و بهره وری وجود دارد. اما اگر نیمی از معادله را از دست ندهیم چه می شود؟ و اگر با این کار فقط نقص های فناوری را تقویت کنیم ، چه می شود؟

هوش مصنوعی در مراحل ابتدایی خود است و هنوز هم در استدلال ، کیفیت داده ها و درک مفاهیم مانند اعتماد ، ارزش و مشوق ها با محدودیت های قابل توجهی روبرو است. تقسیم بین قابلیت های فعلی و “اطلاعات” واقعی قابل توجه است. خبر خوب؟ ما می توانیم با تبدیل شدن به همکاران فعال به جای مصرف کنندگان منفعل هوش مصنوعی ، این مسئله را تغییر دهیم.

انسانها با ارائه چارچوب های استدلال بهتر ، تغذیه داده های با کیفیت و ایجاد شکاف اعتماد ، کلید تکامل هوشمندانه را نگه می دارند. در نتیجه ، انسان و ماشین می توانند در کنار هم برای یک برد برنده کار کنند-با همکاری بهتر ، داده های بهتری و نتایج بهتری ایجاد می کند.

بیایید در نظر بگیریم که یک رابطه همزیستی تر چگونه می تواند به نظر برسد و چگونه به عنوان شرکا ، همکاری معنی دار می تواند به نفع هر دو طرف معادله هوش مصنوعی باشد.

رابطه مورد نیاز بین انسان و ماشین

هوش مصنوعی بدون شک در تجزیه و تحلیل مجموعه داده های گسترده و خودکار کردن کارهای پیچیده عالی است. با این حال ، این فناوری اساساً در تفکر مانند ما محدود است. اول ، این مدل ها و سیستم عامل ها با استدلال فراتر از داده های آموزشی خود مبارزه می کنند. شناخت الگوی و پیش بینی آماری مشکلی ایجاد نمی کند اما قضاوت متنی و چارچوب های منطقی که ما از آن استفاده می کنیم ، برای تکرار چالش برانگیز تر هستند. این شکاف استدلال به این معنی است که هوش مصنوعی هنگام مواجهه با سناریوهای ظریف یا قضاوت اخلاقی ، غالباً از بین می رود.

دوم ، کیفیت داده های “زباله در زباله” وجود دارد. مدل های فعلی بر روی سه گانه های گسترده اطلاعات با و بدون رضایت آموزش داده می شوند. بدون در نظر گرفتن انتساب یا مجوز مناسب ، از اطلاعات تأیید نشده یا مغرضانه استفاده می شود ، در نتیجه AI تأیید نشده یا مغرضانهبشر “رژیم غذایی“از این رو مدل ها در بهترین حالت سوال برانگیز هستند و در بدترین حالت پراکنده هستند. فکر کردن در مورد این تأثیر از نظر تغذیه ای مفید است. اگر انسان فقط غذای آشغال را می خورد ، ما آهسته و لاغر می خوریم. اگر مأمورین فقط کپی رایت و مواد دست دوم مصرف می کنند ، عملکرد آنها به طور مشابه با خروجی نادرست ، غیر قابل اعتماد و به طور کلی مانع می شود. این هنوز دور است تصمیم گیری خودمختار و پیشگیرانه وعده داده شده در موج آینده عوامل.

از نظر انتقادی ، هوش مصنوعی هنوز کور است که با چه کسی و چه چیزی در تعامل است. این نمی تواند بین کاربران تراز و نادرست ، مبارزات برای تأیید روابط ، تمایز قائل شود و در درک مفاهیم مانند اعتماد ، تبادل ارزش و مشوق های ذینفعان – عناصر اصلی که حاکم بر تعامل انسان است ، درک نمی کند.

مشکلات AI با راه حل های انسانی

ما باید به سیستم عامل های هوش مصنوعی ، ابزار و نمایندگان فکر کنیم کمتر به عنوان خادمان و بیشتر به عنوان دستیاران که می توانیم به آموزش کمک کنیم. برای مبتدیان ، بیایید به استدلال نگاه کنیم. ما می توانیم چارچوب های منطقی جدید ، دستورالعمل های اخلاقی و تفکر استراتژیک را معرفی کنیم که سیستم های AI نمی توانند به تنهایی توسعه پیدا کنند. از طریق نظارت و نظارت دقیق متفکرانه ، می توانیم نقاط قوت آماری هوش مصنوعی را با خرد انسان تکمیل کنیم – به آنها یاد می دهیم که الگوهای را بشناسند و زمینه هایی را درک کنند که این الگوها را معنی دار می کند.

به همین ترتیب ، به جای اینکه به هوش مصنوعی اجازه دهد تا اطلاعاتی را که می تواند از اینترنت بگذارد ، آموزش دهد ، انسان ها می توانند مجموعه داده های با کیفیت بالاتر را که تأیید شده ، متنوع و از نظر اخلاقی هستند ، تنظیم کنند.

این به معنای توسعه سیستم های انتساب بهتری است که در آن سازندگان محتوا به دلیل مشارکت خود در آموزش شناخته شده و جبران می شوند.

چارچوب های نوظهور این امر را ممکن می سازند. از طرف متحد کردن هویت های آنلاین در زیر یک پرچم و تصمیم گیری در مورد اینکه آیا به اشتراک گذاری راحت و راحت هستند ، کاربران می توانند مدل هایی را به اطلاعات حزب صفر که به حریم خصوصی ، رضایت و مقررات مربوط می شوند ، تجهیز کنند. با این وجود بهتر است ، با ردیابی این اطلاعات در مورد blockchain ، کاربران و مدل سازان می توانند ببینند که اطلاعات از کجا می آیند و سازندگان را به اندازه کافی جبران می کنند تا این موضوع را ارائه دهند “نفت جدید. ” اینگونه است که ما کاربران را برای داده های آنها تصدیق می کنیم و آنها را در مورد انقلاب اطلاعات قرار می دهیم.

سرانجام ، پل زدن به شکاف اعتماد به معنای مسلح کردن مدل ها با ارزش ها و نگرش های انسانی است. این به معنای طراحی مکانیسم هایی است که ذینفعان را به رسمیت می شناسد ، روابط را تأیید می کند و بین کاربران تراز شده و نادرست تمایز می یابد. در نتیجه ، ما به هوش مصنوعی کمک می کنیم تا زمینه عملیاتی آن را درک کنیم – چه کسی از اقدامات خود بهره می برد ، چه چیزی به توسعه آن کمک می کند و چگونه ارزش از طریق سیستم هایی که در آن شرکت می کند جریان می یابد.

به عنوان مثال ، عوامل پشتیبانی شده از زیرساخت های blockchain در این مورد بسیار خوب هستند. آنها می توانند کاربران را با خرید اکوسیستم نشان داده شده از طریق شهرت ، نفوذ اجتماعی یا مالکیت نشانه ها تشخیص و اولویت بندی کنند. این امر به هوش مصنوعی اجازه می دهد تا با دادن وزن بیشتر به ذینفعان با پوست در بازی ، مشوق ها را تراز کند و سیستم های حاکمیتی را ایجاد کند که حامیان تأیید شده بر اساس سطح تعامل خود در تصمیم گیری شرکت کنند. در نتیجه ، هوش مصنوعی عمیق تر اکوسیستم خود را درک می کند و می تواند تصمیماتی را که توسط روابط ذینفعان واقعی آگاه است ، اتخاذ کند.

عنصر انسانی را در هوش مصنوعی از دست ندهید

در مورد ظهور این فناوری و چگونگی تهدید به تعمیرات اساسی صنایع و از بین بردن شغل ، فراوانی گفته شده است. با این حال ، پخت در نگهبان ها می تواند اطمینان حاصل کند که هوش مصنوعی به جای غلبه بر تجربه انسانی ، افزایش می یابد. به عنوان مثال ، موفق ترین پیاده سازی های هوش مصنوعی جایگزین انسان نمی شوند بلکه آنچه را که می توانیم با هم انجام دهیم گسترش می دهد. هنگامی که هوش مصنوعی به تجزیه و تحلیل روتین رسیدگی می کند و انسان جهت خلاق و نظارت اخلاقی را ارائه می دهد ، هر دو طرف نقاط قوت منحصر به فرد خود را نشان می دهند.

هنگامی که درست انجام شود ، هوش مصنوعی قول می دهد کیفیت و کارآیی فرآیندهای بی شماری انسانی را بهبود بخشد. اما هنگامی که اشتباه انجام شد ، محدود به منابع داده مشکوک است و فقط به جای نمایش هوش واقعی ، از هوش تقلید می کند. این به ما بستگی دارد ، طرف انسان معادله ، این مدل ها را باهوش تر کرده و اطمینان حاصل کنیم که ارزش ها ، قضاوت ها و اخلاق ما در قلب آنها باقی مانده است.

اعتماد برای این فناوری قابل مذاکره غیر قابل مذاکره است. هنگامی که کاربران می توانند تأیید کنند که داده های آنها به کجا می رود ، ببینید که چگونه از آن استفاده می شود و در ارزشی که ایجاد می کند شرکت می کنند ، آنها به جای افراد تمایلی به شرکای مایل تبدیل می شوند. به طور مشابه ، هنگامی که سیستم های AI می توانند از ذینفعان تراز شده و خطوط لوله داده شفاف استفاده کنند ، قابل اعتماد تر می شوند. به نوبه خود ، آنها به احتمال زیاد به مهمترین فضاهای خصوصی و حرفه ای ما دسترسی پیدا می کنند ، و باعث ایجاد یک پرواز از دسترسی بهتر به داده ها و نتایج بهبود یافته می شوند.

بنابراین ، با قرار گرفتن در این مرحله بعدی هوش مصنوعی ، بیایید روی اتصال انسان و ماشین با روابط قابل اثبات ، منابع داده با کیفیت و سیستم های دقیق تمرکز کنیم. ما نباید بپرسیم که AI چه کاری می تواند برای ما انجام دهد بلکه چه کاری می توانیم برای هوش مصنوعی انجام دهیم.



منبع:unite.ai

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *