تعصب غربی در هوش مصنوعی: چرا چشم اندازهای جهانی گم شده است


یک دستیار هوش مصنوعی پاسخ نامربوط یا گیج کننده ای به یک سوال ساده می دهد، و در تلاش برای درک تفاوت های ظریف فرهنگی یا الگوهای زبانی خارج از آموزش، موضوع مهمی را آشکار می کند. این سناریو برای میلیاردها نفر که برای خدمات ضروری مانند مراقبت های بهداشتی، آموزش یا پشتیبانی شغلی به هوش مصنوعی وابسته هستند، معمول است. برای بسیاری، این ابزارها کوتاه می آیند و اغلب نیازهای آنها را نادرست معرفی می کنند یا به طور کامل حذف می کنند.

سیستم‌های هوش مصنوعی عمدتاً توسط زبان‌ها، فرهنگ‌ها و دیدگاه‌های غربی هدایت می‌شوند و یک نمایش جهانی باریک و ناقص ایجاد می‌کنند. این سیستم ها که بر اساس مجموعه داده ها و الگوریتم های مغرضانه ساخته شده اند، نمی توانند تنوع جمعیت های جهانی را منعکس کنند. این تأثیر فراتر از محدودیت های فنی است و نابرابری های اجتماعی را تقویت می کند و شکاف ها را عمیق تر می کند. پرداختن به این عدم تعادل برای درک و استفاده از پتانسیل هوش مصنوعی برای خدمت به تمام بشریت و نه تنها به تعداد معدودی ممتاز ضروری است.

درک ریشه های تعصب هوش مصنوعی

تعصب هوش مصنوعی صرفاً یک خطا یا نادیده گرفتن نیست. این از نحوه طراحی و توسعه سیستم های هوش مصنوعی ناشی می شود. از لحاظ تاریخی، تحقیقات و نوآوری هوش مصنوعی عمدتاً در کشورهای غربی متمرکز شده است. این تمرکز منجر به تسلط انگلیسی به عنوان زبان اصلی برای انتشارات دانشگاهی، مجموعه داده ها و چارچوب های تکنولوژیکی شده است. در نتیجه، طراحی بنیادی سیستم‌های هوش مصنوعی اغلب شامل تنوع فرهنگ‌ها و زبان‌های جهانی نمی‌شود، و باعث می‌شود که مناطق وسیعی کمتر به نمایش گذاشته شوند.

سوگیری در هوش مصنوعی را می توان به تعصب الگوریتمی و سوگیری مبتنی بر داده طبقه بندی کرد. سوگیری الگوریتمی زمانی اتفاق می‌افتد که منطق و قوانین درون یک مدل هوش مصنوعی به نفع نتایج یا جمعیت‌های خاص باشد. به عنوان مثال، الگوریتم‌های استخدام آموزش‌دیده بر روی داده‌های استخدامی تاریخی ممکن است به طور ناخواسته به نفع جمعیت‌شناختی خاص باشد و تبعیض سیستماتیک را تقویت کند.

از سوی دیگر، سوگیری مبتنی بر داده از استفاده از مجموعه داده هایی ناشی می شود که نابرابری های اجتماعی موجود را منعکس می کند. تشخیص چهره برای مثال، فناوری اغلب در افراد با پوست روشن‌تر بهتر عمل می‌کند، زیرا مجموعه داده‌های آموزشی عمدتاً از تصاویر مناطق غربی تشکیل شده‌اند.

گزارش 2023 توسط موسسه AI Now تمرکز توسعه و قدرت هوش مصنوعی را در کشورهای غربی، به ویژه ایالات متحده و اروپا، جایی که شرکت های بزرگ فناوری بر این حوزه تسلط دارند، برجسته کرد. به طور مشابه، گزارش شاخص هوش مصنوعی 2023 توسط دانشگاه استنفورد مشارکت قابل توجه این مناطق در تحقیق و توسعه جهانی هوش مصنوعی را برجسته می کند، که نشان دهنده تسلط آشکار غرب در مجموعه داده ها و نوآوری است.

این عدم تعادل ساختاری نیاز مبرمی به سیستم‌های هوش مصنوعی برای اتخاذ رویکردهای فراگیرتری دارد که دیدگاه‌ها و واقعیت‌های متنوع جمعیت جهانی را نشان می‌دهد.

تأثیر جهانی تفاوت‌های فرهنگی و جغرافیایی در هوش مصنوعی

تسلط مجموعه داده‌های غرب محور، سوگیری‌های فرهنگی و جغرافیایی قابل‌توجهی در سیستم‌های هوش مصنوعی ایجاد کرده است که اثربخشی آنها را برای جمعیت‌های مختلف محدود کرده است. دستیاران مجازیبرای مثال، ممکن است به راحتی عبارات اصطلاحی یا ارجاعات رایج در جوامع غربی را تشخیص دهد، اما اغلب در پاسخگویی دقیق به کاربرانی از دیگر پیشینه های فرهنگی ناکام است. سؤالی در مورد یک سنت محلی ممکن است پاسخ مبهم یا نادرستی دریافت کند که نشان دهنده فقدان آگاهی فرهنگی سیستم است.

این سوگیری ها فراتر از ارائه نادرست فرهنگی است و با تفاوت های جغرافیایی بیشتر تقویت می شود. بیشتر داده‌های آموزشی هوش مصنوعی از مناطق شهری و با اتصال خوب در آمریکای شمالی و اروپا می‌آیند و به اندازه کافی مناطق روستایی و کشورهای در حال توسعه را شامل نمی‌شوند. این امر عواقب شدیدی در بخش های بحرانی دارد.

ابزارهای هوش مصنوعی کشاورزی که برای پیش‌بینی عملکرد محصول یا شناسایی آفات طراحی شده‌اند، اغلب در مناطقی مانند جنوب صحرای آفریقا یا آسیای جنوب شرقی با شکست مواجه می‌شوند، زیرا این سیستم‌ها با شرایط محیطی منحصربه‌فرد و شیوه‌های کشاورزی این مناطق سازگار نیستند. به طور مشابه، سیستم‌های هوش مصنوعی مراقبت‌های بهداشتی که معمولاً بر اساس داده‌های بیمارستان‌های غربی آموزش می‌بینند، برای ارائه تشخیص‌های دقیق برای جمعیت‌های دیگر نقاط جهان تلاش می‌کنند. تحقیقات نشان داده است که مدل‌های هوش مصنوعی پوستی که عمدتاً روی رنگ‌های پوست روشن‌تر آموزش داده شده‌اند، هنگام آزمایش بر روی انواع مختلف پوست، عملکرد بسیار بدتری دارند. به عنوان مثال، یک مطالعه در سال 2021 متوجه شد که مدل‌های هوش مصنوعی برای تشخیص بیماری‌های پوستی هنگام استفاده از مجموعه داده‌هایی که شامل رنگ پوست تیره‌تر هستند، دقت 29 تا 40 درصد کاهش را تجربه می‌کنند. این مسائل از محدودیت‌های فنی فراتر می‌روند، و منعکس‌کننده نیاز فوری به داده‌های جامع‌تر برای نجات جان‌ها و بهبود نتایج بهداشت جهانی است.

پیامدهای اجتماعی این سوگیری گسترده است. سیستم‌های هوش مصنوعی که برای توانمندسازی افراد طراحی شده‌اند، اغلب در عوض موانعی ایجاد می‌کنند. پلتفرم‌های آموزشی مجهز به هوش مصنوعی معمولاً برنامه‌های درسی غربی را اولویت‌بندی می‌کنند و دانش‌آموزان مناطق دیگر را بدون دسترسی به منابع مرتبط یا محلی می‌گذارند. ابزارهای زبانی اغلب نمی توانند پیچیدگی گویش های محلی و عبارات فرهنگی را درک کنند و آنها را برای بخش های وسیعی از جمعیت جهان بی اثر می کند.

تعصب در هوش مصنوعی می تواند مفروضات مضر را تقویت کند و نابرابری های سیستمی را عمیق تر کند. به عنوان مثال، فناوری تشخیص چهره به دلیل نرخ خطای بالاتر در میان اقلیت‌های قومی با انتقاداتی مواجه شده است که منجر به عواقب جدی در دنیای واقعی می‌شود. در سال 2020، رابرت ویلیامز، یک مرد سیاه پوست، به اشتباه در دیترویت به دلیل یک مسابقه تشخیص چهره معیوب دستگیر شد که تأثیر اجتماعی چنین سوگیری های فناوری را برجسته می کند.

از نظر اقتصادی، نادیده گرفتن تنوع جهانی در توسعه هوش مصنوعی می تواند نوآوری را محدود کرده و فرصت های بازار را کاهش دهد. شرکت‌هایی که نمی‌توانند دیدگاه‌های متفاوت را در نظر بگیرند، در معرض خطر بیگانگی بخش‌های بزرگی از کاربران بالقوه هستند. یک 2023 گزارش مک کینزی تخمین زده شد که هوش مصنوعی مولد می تواند سالانه بین 2.6 تا 4.4 تریلیون دلار به اقتصاد جهانی کمک کند. با این حال، تحقق این پتانسیل بستگی به ایجاد سیستم‌های هوش مصنوعی فراگیر دارد که به جمعیت‌های مختلف در سراسر جهان پاسخ می‌دهد.

با پرداختن به سوگیری ها و گسترش نمایندگی در توسعه هوش مصنوعی، شرکت ها می توانند بازارهای جدیدی را کشف کنند، نوآوری را پیش ببرند و اطمینان حاصل کنند که مزایای هوش مصنوعی به طور عادلانه در همه مناطق به اشتراک گذاشته می شود. این امر ضرورت اقتصادی ساخت سیستم‌های هوش مصنوعی را برجسته می‌کند که به طور مؤثری منعکس‌کننده و در خدمت جمعیت جهانی باشد.

زبان به عنوان مانعی برای فراگیری

زبان‌ها عمیقاً با فرهنگ، هویت و جامعه گره خورده‌اند، اما سیستم‌های هوش مصنوعی اغلب نمی‌توانند این تنوع را منعکس کنند. بیشتر ابزارهای هوش مصنوعی، از جمله دستیارهای مجازی و ربات‌های گفتگو، در چند زبان پرمخاطب به خوبی عمل می‌کنند و زبان‌های کمتر ارائه شده را نادیده می‌گیرند. این عدم تعادل به این معنی است که زبان‌های بومی، گویش‌های منطقه‌ای و زبان‌های اقلیت به ندرت مورد حمایت قرار می‌گیرند و جوامعی را که به آنها صحبت می‌کنند بیشتر به حاشیه می‌برند.

در حالی که ابزارهایی مانند Google Translate ارتباطات را متحول کرده‌اند، هنوز با بسیاری از زبان‌ها، به‌ویژه زبان‌هایی که دارای دستور زبان پیچیده یا حضور دیجیتال محدود هستند، دست و پنجه نرم می‌کنند. این حذف به این معنی است که میلیون‌ها ابزار مبتنی بر هوش مصنوعی غیرقابل دسترس یا بی‌اثر باقی می‌مانند و شکاف دیجیتالی را افزایش می‌دهند. الف گزارش سال 2023 یونسکو نشان داد که بیش از 40 درصد از زبان های جهان در معرض خطر ناپدید شدن هستند و عدم حضور آنها در سیستم های هوش مصنوعی این ضرر را تشدید می کند.

سیستم‌های هوش مصنوعی با اولویت بخشیدن به بخش کوچکی از تنوع زبانی جهان، سلطه غرب را در فناوری تقویت می‌کنند. پرداختن به این شکاف برای اطمینان از اینکه هوش مصنوعی واقعاً فراگیر می شود و به جوامع سراسر جهان، صرف نظر از زبانی که آنها صحبت می کنند، خدمت می کند، ضروری است.

پرداختن به تعصب غربی در هوش مصنوعی

رفع تعصب غربی در هوش مصنوعی مستلزم تغییر قابل توجهی در نحوه طراحی و آموزش سیستم های هوش مصنوعی است. اولین قدم ایجاد مجموعه داده های متنوع تر است. هوش مصنوعی به داده‌های چندزبانه، چندفرهنگی و نماینده منطقه‌ای برای خدمت به مردم در سراسر جهان نیاز دارد. پروژه هایی مانند ماساخانه، که از زبان های آفریقایی پشتیبانی می کند و AI4Bharatکه بر زبان‌های هندی تمرکز دارد، نمونه‌های خوبی از موفقیت توسعه هوش مصنوعی فراگیر است.

فناوری نیز می تواند به حل مشکل کمک کند. یادگیری فدرال امکان جمع‌آوری و آموزش داده‌ها را از مناطقی که کمتر ارائه شده است بدون به خطر انداختن حریم خصوصی می‌دهد. هوش مصنوعی قابل توضیح ابزارها تشخیص و تصحیح سوگیری ها را در زمان واقعی آسان تر می کنند. با این حال، فناوری به تنهایی کافی نیست. دولت‌ها، سازمان‌های خصوصی و محققان باید برای پر کردن شکاف‌ها با یکدیگر همکاری کنند.

قوانین و سیاست ها نیز نقش کلیدی دارند. دولت ها باید قوانینی را اجرا کنند که به داده های متنوعی در آموزش هوش مصنوعی نیاز دارد. آنها باید شرکت ها را در قبال نتایج مغرضانه پاسخگو نگه دارند. در عین حال، گروه های مدافع می توانند آگاهی را افزایش دهند و برای تغییر فشار بیاورند. این اقدامات تضمین می کند که سیستم های هوش مصنوعی نشان دهنده تنوع جهان هستند و به طور عادلانه به همه خدمات می دهند.

علاوه بر این، همکاری به همان اندازه مهم است که فناوری و مقررات. توسعه دهندگان و محققان مناطق محروم باید بخشی از فرآیند ایجاد هوش مصنوعی باشند. بینش آنها تضمین می کند که ابزارهای هوش مصنوعی از نظر فرهنگی مرتبط و کاربردی برای جوامع مختلف هستند. شرکت های فناوری نیز مسئولیت سرمایه گذاری در این مناطق را دارند. این به معنای تأمین مالی تحقیقات محلی، استخدام تیم‌های متنوع و ایجاد مشارکت‌هایی است که بر فراگیری تمرکز دارند.

خط پایین

هوش مصنوعی این پتانسیل را دارد که زندگی‌ها را متحول کند، شکاف‌ها را پر کند و فرصت‌ها را ایجاد کند، اما به شرطی که برای همه کارساز باشد. وقتی سیستم‌های هوش مصنوعی به تنوع غنی فرهنگ‌ها، زبان‌ها و دیدگاه‌ها در سرتاسر جهان چشم‌پوشی می‌کنند، به وعده خود عمل نمی‌کنند. موضوع سوگیری غربی در هوش مصنوعی فقط یک نقص فنی نیست، بلکه موضوعی است که توجه فوری را می طلبد. با اولویت دادن به فراگیری در طراحی، داده‌ها و توسعه، هوش مصنوعی می‌تواند به ابزاری تبدیل شود که همه جوامع را ارتقا می‌دهد، نه فقط تعداد کمی از ممتازها.



منبع:unite.ai

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *