اعتصاب تعادل: رویکردهای جهانی برای کاهش خطرات مربوط به AI


هیچ پنهانی نیست که طی چند سال گذشته ، فن آوری های مدرن مرزهای اخلاقی را تحت چارچوبهای قانونی موجود که برای متناسب بودن آنها ساخته نشده بودند ، تحت فشار قرار داده اند و در نتیجه مزارع قانونی و نظارتی ایجاد می شود. برای تلاش و مبارزه با تأثیرات این ، تنظیم کننده ها تصمیم می گیرند به روش های مختلف بین کشورها و مناطق ادامه دهند و در صورت یافتن توافق ، تنش های جهانی را افزایش می دهند.

این اختلافات نظارتی در اجلاس اقدام اخیر هوش مصنوعی در پاریس برجسته شد. در بیانیه نهایی از این رویداد که بر موضوعات فراگیر بودن و باز بودن در توسعه هوش مصنوعی متمرکز شده است. جالب اینجاست که فقط بدون تأکید بر خطرات خاص مربوط به هوش مصنوعی مانند تهدیدهای امنیتی ، به طور گسترده ای از ایمنی و اعتماد به نفس یاد کرده است. تهیه شده توسط 60 کشور ، انگلیس و ایالات متحده به طور آشکار از امضاهای این بیانیه گم شده بود ، که نشان می دهد در حال حاضر چقدر اجماع کمی در کشورهای کلیدی وجود دارد.

مقابله با هوش مصنوعی در سطح جهان

توسعه و استقرار هوش مصنوعی در هر کشور متفاوت تنظیم می شود. با این وجود ، بیشتر در جایی بین دو افراط – ایالات متحده و مواضع اتحادیه اروپا (اتحادیه اروپا) قرار دارد.

راه ایالات متحده: ابتدا نوآوری کنید ، سپس تنظیم کنید

در ایالات متحده هیچ اقدامی در سطح فدرال وجود ندارد که به طور خاص هوش مصنوعی را تنظیم کند ، در عوض به راه حل های مبتنی بر بازار و دستورالعمل های داوطلبانه متکی است. با این حال ، برخی از قوانین اساسی برای هوش مصنوعی وجود دارد ، از جمله قانون ملی ابتکار عمل هوش مصنوعی ، که هدف آن هماهنگی تحقیقات فدرال هوش مصنوعی ، قانون مجدداً مدیریت هواپیمایی فدرال و چارچوب مدیریت ریسک داوطلبانه انستیتوی ملی استاندارد و فناوری (NIST) است.

چشم انداز نظارتی ایالات متحده روان و در معرض تغییرات سیاسی بزرگ است. به عنوان مثال ، در اکتبر 2023 ، رئیس جمهور بایدن دستور اجرایی در مورد هوش مصنوعی ایمن ، ایمن و قابل اعتماد، قرار دادن استانداردهای زیرساخت های مهم ، تقویت امنیت سایبری AI و تنظیم پروژه های هوش مصنوعی با بودجه فدرال. با این حال ، در ژانویه سال 2025 ، رئیس جمهور ترامپ این دستور اجرایی را لغو کرد ، در محوری به دور از مقررات و به سمت اولویت بندی نوآوری.

رویکرد ایالات متحده منتقدان خود را دارد. آنها توجه دارند که “طبیعت تکه تکه“منجر به یک شبکه پیچیده از قوانین می شود که”فاقد استانداردهای قابل اجرا، “و”شکاف در حفاظت از حریم خصوصی. ” با این حال ، موضع به طور کلی در جریان است – در سال 2024 ، قانون گذاران ایالتی معرفی کردند تقریباً 700 قطعه قانون جدید هوش مصنوعی و وجود داشته است چندین شنیداری در مورد هوش مصنوعی در مدیریت و همچنین ، هوش مصنوعی و مالکیت معنوی. اگرچه بدیهی است که دولت ایالات متحده از مقررات خودداری نمی کند ، اما به وضوح به دنبال راه های اجرای آن بدون نیاز به سازش نوآوری است.

راه اتحادیه اروپا: اولویت بندی پیشگیری

اتحادیه اروپا رویکرد متفاوتی را انتخاب کرده است. در اوت 2024 ، پارلمان و شورای اروپا قانون هوش مصنوعی (قانون AI)، که تا به امروز به طور گسترده ای جامع ترین قطعه تنظیم هوش مصنوعی در نظر گرفته شده است. این قانون با استفاده از یک رویکرد مبتنی بر ریسک ، قوانین سختگیرانه ای را به سیستم های هوش مصنوعی با حساسیت بالا تحمیل می کند ، به عنوان مثال ، مواردی که در مراقبت های بهداشتی و زیرساخت های بحرانی استفاده می شود. برنامه های کم خطر فقط با حداقل نظارت روبرو هستند ، در حالی که در برخی از برنامه ها ، مانند سیستم های امتیاز دهی اجتماعی اداره دولتی کاملاً ممنوع است.

در اتحادیه اروپا ، انطباق نه تنها در مرزهای خود اجباری است بلکه از هر ارائه دهنده ، توزیع کننده یا کاربر سیستم های هوش مصنوعی که در اتحادیه اروپا فعالیت می کند ، یا ارائه راه حل های هوش مصنوعی به بازار خود – حتی اگر سیستم در خارج توسعه یافته باشد. این احتمال وجود دارد که این مسئله برای ما و سایر ارائه دهندگان غیر اتحادیه اروپا محصولات یکپارچه در هنگام تلاش برای انطباق ، چالش هایی ایجاد کند.

انتقادات از رویکرد اتحادیه اروپا شامل ادعای آن است عدم تنظیم استاندارد طلا برای حقوق بشر پیچیدگی بیش از حد همچنین به همراه عدم وضوح ذکر شده است. منتقدین نگران اتحادیه اروپا هستند نیازهای فنی بسیار دقیق، زیرا آنها در زمانی آمده اند که اتحادیه اروپا به دنبال تقویت رقابت خود است.

یافتن میانه نظارتی

در همین حال ، انگلستان چارچوبی “سبک وزن” را اتخاذ کرده است که در جایی بین اتحادیه اروپا و ایالات متحده قرار دارد و مبتنی بر ارزشهای اصلی مانند ایمنی ، انصاف و شفافیت است. تنظیم کننده های موجود ، مانند دفتر کمیسر اطلاعات ، قدرت اجرای این اصول را در حوزه های مربوطه خود دارند.

دولت انگلستان یک برنامه اقدام فرصت های هوش مصنوعی منتشر کرده است ، و اقداماتی را برای سرمایه گذاری در بنیادهای هوش مصنوعی ، اجرای اتخاذ اقتصاد متقابل سیستم های هوش مصنوعی هوش مصنوعی و فاستر “Homegrown” ارائه می دهد. در نوامبر 2023 ، انگلیس این را تأسیس کرد موسسه ایمنی AI (AISI)، در حال تحول از Taskforce مرزی AI. AISI برای ارزیابی ایمنی مدلهای پیشرفته AI ، همکاری با توسعه دهندگان اصلی برای دستیابی به این امر از طریق تست های ایمنی ایجاد شده است.

با این حال ، انتقادات از رویکرد انگلستان به مقررات هوش مصنوعی شامل می شود قابلیت های اجرای محدود و الف عدم هماهنگی بین قوانین بخش. منتقدین همچنین متوجه عدم وجود یک سازمان نظارتی مرکزی شده اند.

مانند انگلیس ، سایر کشورهای بزرگ نیز جای خود را در جایی در طیف ایالات متحده و اتحادیه اروپا پیدا کرده اند. به عنوان مثال ، کانادا یک رویکرد مبتنی بر ریسک را با قانون پیشنهادی هوش مصنوعی و داده (AIDA) معرفی کرده است ، که برای ایجاد تعادل بین نوآوری ، ایمنی و ملاحظات اخلاقی طراحی شده است. ژاپن با انتشار دستورالعمل هایی که باعث توسعه قابل اعتماد می شود ، رویکرد “محور انسانی” به هوش مصنوعی را اتخاذ کرده است. در همین حال ، در چین ، مقررات هوش مصنوعی توسط دولت کاملاً کنترل می شود ، با این که قوانین اخیر نیاز به مدل های هوش مصنوعی تولیدی دارند ، ارزیابی های امنیتی را انجام داده و با ارزش های سوسیالیستی هماهنگ می شوند. به طور مشابه با انگلیس ، استرالیا یک چارچوب اخلاق هوش مصنوعی منتشر کرده است و به دنبال به روزرسانی قوانین حریم خصوصی خود برای رفع چالش های نوظهور ناشی از نوآوری هوش مصنوعی است.

چگونه می توان همکاری های بین المللی برقرار کرد؟

با تکامل فناوری هوش مصنوعی ، تفاوت بین رویکردهای نظارتی به طور فزاینده ای آشکارتر می شود. هر رویکرد فردی در مورد حریم خصوصی داده ها ، حفاظت از حق چاپ و جنبه های دیگر ، یک اجماع جهانی منسجم در مورد خطرات کلیدی مربوط به AI را برای دستیابی به آنها دشوارتر می کند. در این شرایط ، همکاری های بین المللی برای تعیین استانداردهای پایه ای که خطرات کلیدی را بدون محدود کردن نوآوری برطرف می کنند ، بسیار مهم است.

پاسخ به همکاری های بین المللی می تواند مربوط به سازمانهای جهانی مانند سازمان همکاری اقتصادی و توسعه (OECD) ، سازمان ملل و چند نفر دیگر باشد که هم اکنون در حال ایجاد استانداردهای بین المللی و دستورالعمل های اخلاقی برای هوش مصنوعی هستند. مسیر پیش رو آسان نخواهد بود زیرا به همه افراد در صنعت نیاز دارند تا زمینه مشترک را پیدا کنند. اگر در نظر بگیریم که نوآوری با سرعت نور در حال حرکت است – اکنون زمان بحث و توافق است.



منبع:unite.ai

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *