Openai ، Anthropic و Google خواستار اقدام به عنوان AI US می شوند


شرکتهای اطلاعاتی مصنوعی ایالات متحده Openai ، Anthropic و Google به دولت فدرال هشدار داده اند که رهبری فناوری آمریکا در هوش مصنوعی “گسترده نیست و باریک است” همانطور که مدل های چینی مانند Deepseek R1 قابلیت های فزاینده ای را نشان می دهد، طبق اسناد ارسال شده به دولت ایالات متحده در پاسخ به درخواست اطلاعات در مورد توسعه برنامه اقدام AIبشر

این اظهارات اخیر از مارس 2025 نگرانی های فوری در مورد خطرات امنیت ملی ، رقابت اقتصادی و نیاز به چارچوب های نظارتی استراتژیک برای حفظ رهبری ایالات متحده در توسعه هوش مصنوعی در میان رشد رقابت جهانی و پیشرفت یارانهای دولتی چین در این زمینه را نشان می دهد. وابسته به انسان شناسی وت گوگل پاسخ های خود را در 6 مارس 2025 ، در حالی که ارسال Openai در 13 مارس 2025 دنبال شد.

چالش چین و Deepseek R1

ظهور مدل Deepseek R1 چین باعث نگرانی چشمگیر در بین توسعه دهندگان مهم هوش مصنوعی ایالات متحده شده است ، که آن را به عنوان برتر از فناوری آمریکایی نمی بینند بلکه به عنوان شواهد قانع کننده ای مبنی بر اینکه شکاف فناوری به سرعت بسته می شود ، می دانند.

Openai صریحاً هشدار می دهد که “Deepseek نشان می دهد که سرب ما گسترده نیست و باریک است” ، این مدل را “همزمان دولت-یارانه ، تحت کنترل دولت و آزادانه” توصیف می کند-ترکیبی که آنها به ویژه تهدید کننده منافع ایالات متحده و توسعه جهانی هوش مصنوعی می دانند.

طبق تجزیه و تحلیل Openai ، Deepseek خطراتی مشابه با غول ارتباطات چینی Huawei در ارتباط دارد. Openai در ارائه خود اظهار داشت: “مانند هواوی ، خطر قابل توجهی در ایجاد مدل های Deepseek در زیرساخت های بحرانی و سایر موارد استفاده پرخطر با توجه به این پتانسیل وجود دارد که Deepseek توسط CCP مجبور به دستکاری مدل های آن برای ایجاد آسیب است.”

این شرکت در ادامه نگرانی هایی در مورد حریم خصوصی و امنیت داده ها مطرح کرد و خاطرنشان کرد که مقررات چینی می تواند به DeepSeek نیاز داشته باشد تا داده های کاربر را با دولت به اشتراک بگذارد. این می تواند حزب کمونیست چین را قادر به توسعه سیستم های پیشرفته تر AI با منافع دولتی ضمن به خطر انداختن حریم شخصی فردی کند.

ارزیابی انسان شناسی به شدت بر پیامدهای امنیت زیستی متمرکز است. ارزیابی آنها نشان داد که Deepseek R1 “با پاسخ دادن به اکثر سؤالات سلاح های بیولوژیکی ، حتی اگر با یک هدف کاملاً مخرب تدوین شود.” این تمایل به ارائه اطلاعات بالقوه خطرناک برخلاف اقدامات ایمنی که توسط مدل های پیشرو ایالات متحده انجام شده است.

“در حالی که آمریکا امروزه در هوش مصنوعی رهبری می کند ، Deepseek نشان می دهد که سرب ما گسترده نیست و باریک است.”

هر دو شرکت این رقابت را از نظر ایدئولوژیک رقم می زنند ، با Openai ، مسابقه ای بین “هوش مصنوعی دموکراتیک” به رهبری آمریکا و “استبدادی ، هوش مصنوعی استبدادی” را توصیف می کند. آنها پیشنهاد می کنند که تمایل Deepseek برای ایجاد دستورالعمل برای “فعالیت های غیرقانونی و مضر مانند کلاهبرداری هویت و سرقت مالکیت معنوی” نشان دهنده رویکردهای اخلاقی اساساً متفاوت برای توسعه هوش مصنوعی بین دو کشور است.

ظهور Deepseek R1 بدون شک یک نقطه عطف مهم در مسابقه جهانی هوش مصنوعی است و نشان دهنده توانایی های رو به رشد چین با وجود کنترل صادرات ایالات متحده در نیمه هادی های پیشرفته و برجسته کردن فوریت اقدامات هماهنگ دولت برای حفظ رهبری آمریکا در این زمینه است.

پیامدهای امنیت ملی

اظهارات هر سه شرکت بر نگرانی های مهم امنیت ملی ناشی از مدل های پیشرفته هوش مصنوعی تأکید می کند ، اگرچه از زوایای مختلف به این خطرات نزدیک می شوند.

هشدارهای Openai به شدت بر پتانسیل تأثیر CCP بر مدل های هوش مصنوعی چینی مانند Deepseek تمرکز دارد. این شرکت تأکید می کند که مقررات چینی می تواند DeepSeek را به “سازش زیرساخت های مهم و برنامه های حساس” وادار کند و به داده های کاربر نیاز داشته باشد تا با دولت به اشتراک گذاشته شود. این به اشتراک گذاری داده ها می تواند توسعه سیستم های پیشرفته تر AI را که با منافع دولت چین مطابقت دارد ، امکان پذیر کند و هم مسائل مربوط به حریم خصوصی فوری و تهدیدات امنیتی بلند مدت را ایجاد کند.

مرکز نگرانی های انسان شناسی در مورد خطرات امنیت زیستی ناشی از قابلیت های پیشرفته هوش مصنوعی ، صرف نظر از کشور مبدا آنها. در یک افشای مخصوصاً نگران کننده ، Anthropic فاش کرد که “جدیدترین سیستم ما ، Claude 3.7 Sonnet ، در مورد پیشرفت در ظرفیت آن برای پشتیبانی از جنبه های توسعه سلاح های بیولوژیکی نشان می دهد.” این پذیرش صریح ، ماهیت کاربرد دوگانه سیستم های پیشرفته AI و نیاز به حفاظت از استحکام را تأکید می کند.

Anthropic همچنین آنچه را که آنها توصیف می کنند به عنوان “شکاف نظارتی در محدودیت های تراشه ایالات متحده” مربوط به تراشه های H20 Nvidiaبشر در حالی که این تراشه ها نیازهای کاهش یافته برای صادرات چینی را برآورده می کنند ، آنها “در تولید متن (” نمونه گیری “) برتری دارند – یک مؤلفه اساسی روشهای پیشرفته یادگیری تقویت کننده پیشرفته برای پیشرفت های توانایی مدل مرز فعلی.” انسان شناسی از “اقدام نظارتی فوری” خواست تا این آسیب پذیری احتمالی را در چارچوب های کنترل صادرات فعلی برطرف کند.

Google ، ضمن تأیید خطرات امنیتی هوش مصنوعی ، طرفداران رویکرد متعادل تر برای کنترل صادرات. این شرکت هشدار می دهد که قوانین فعلی صادرات هوش مصنوعی “ممکن است با تحمیل بارهای نامتناسب بر ارائه دهندگان خدمات ابری ایالات متحده ، اهداف رقابت اقتصادی را تضعیف کند.” درعوض ، گوگل “کنترل های متعادل صادراتی را که از امنیت ملی محافظت می کند ضمن امکان صادرات ایالات متحده و عملیات تجاری جهانی” توصیه می کند.

هر سه شرکت بر لزوم افزایش قابلیت ارزیابی دولت تأکید می کنند. Anthropic به طور خاص خواستار ساختن “ظرفیت دولت فدرال برای آزمایش و ارزیابی مدل های قدرتمند هوش مصنوعی برای قابلیت های امنیت ملی” برای درک بهتر سوء استفاده های احتمالی توسط مخالفان است. این امر مستلزم حفظ و تقویت موسسه ایمنی هوش مصنوعی ، هدایت NIST برای توسعه ارزیابی های امنیتی و مونتاژ تیم های کارشناسان بین رشته ای است.

جدول مقایسه: Openai ، Anthropic ، Google

حوزه تمرکز Openaiوابسته به انسان شناسیگوگل
نگرانی اصلیتهدیدهای سیاسی و اقتصادی از هوش مصنوعی تحت کنترل دولتخطرات امنیت زیستی از مدلهای پیشرفتهحفظ نوآوری ضمن تعادل امنیت
نمای در Deepseek R1“یارانه ای ، تحت کنترل دولت و آزادانه در دسترس” با خطرات شبیه هواویمایل به پاسخگویی به “سؤالات سلاح های بیولوژیکی” با هدف مخربتمرکز کمتری روی Deepseek ، بیشتر در مورد رقابت گسترده تر
اولویت امنیت ملیتأثیر CCP و خطرات امنیت داده هاتهدیدهای امنیت زیستی و حفره های صادراتی تراشهکنترل های متعادل صادراتی که ارائه دهندگان ایالات متحده را برآورده نمی کند
رویکرد نظارتیمشارکت داوطلبانه با دولت فدرال ؛ یک نقطه تماسافزایش ظرفیت آزمایش دولت ؛ کنترل های صادراتی سخت“چارچوب فدرال طرفدار Invovation” ؛ حاکمیت خاص بخش
تمرکز زیرساختتصویب دولت ابزارهای مرزی AIگسترش انرژی (50 گرم ولت تا سال 2027) برای توسعه هوش مصنوعیاقدام هماهنگ در مورد انرژی ، اجازه اصلاحات
توصیه متمایزچارچوب کنترل صادرات مرتب شده برای ترویج “هوش مصنوعی دموکراتیک”اقدام نظارتی فوری در مورد تراشه های Nvidia H20 صادر شده به چیندسترسی صنعت به داده های آشکارا در دسترس برای یادگیری منصفانه

استراتژی های رقابت اقتصادی

الزامات زیرساختی ، به ویژه نیازهای انرژی ، به عنوان یک عامل مهم در حفظ رهبری هوش مصنوعی ایالات متحده ظاهر می شود. Anthropic هشدار داد كه “تا سال 2027 ، آموزش یك مدل AI مرزی واحد به خوشه های محاسباتی شبکه ای نیاز دارد كه تقریباً پنج گیگاوات قدرت را ترسیم كنند.” آنها یک هدف ملی بلندپروازانه را برای ساختن 50 گیگاوات اضافی از قدرت اختصاص داده شده به صنعت AI تا سال 2027 ، در کنار اقدامات برای ساده سازی مجوز و تسریع در مصوبات خط انتقال پیشنهاد دادند.

Openai بار دیگر این رقابت را به عنوان یک مسابقه ایدئولوژیک بین “هوش مصنوعی دموکراتیک” و “هوش مصنوعی استبدادی” ساخته شده توسط CCP تشکیل می دهد. چشم انداز آنها برای “هوش مصنوعی دموکراتیک” بر “بازار آزاد ترویج رقابت رایگان و منصفانه” و “آزادی برای توسعه دهندگان و کاربران برای همکاری با آنها و هدایت ابزارهای ما همانطور که مناسب است” در گاردهای ایمنی مناسب تأکید می کند.

هر سه شرکت توصیه های مفصلی را برای حفظ رهبری ایالات متحده ارائه دادند. انسان شناسی بر اهمیت “تقویت رقابت اقتصادی آمریکا” تأکید کرد و اطمینان حاصل کرد که “مزایای اقتصادی محور AI به طور گسترده در جامعه مشترک است.” آنها از “تأمین و مقیاس تأمین انرژی ایالات متحده” به عنوان یک پیش نیاز مهم برای حفظ توسعه هوش مصنوعی در مرزهای آمریکایی حمایت کردند و هشدار دادند که محدودیت های انرژی می تواند توسعه دهندگان را در خارج از کشور مجبور کند.

گوگل خواستار اقدامات تعیین کننده برای “توسعه بیش از حد توسعه هوش مصنوعی ایالات متحده” ، با تمرکز بر سه حوزه اصلی: سرمایه گذاری در هوش مصنوعی ، شتاب تصویب دولت AI و ارتقاء رویکردهای طرفدار نوآوری در سطح بین المللی. این شرکت بر لزوم “اقدامات هماهنگ فدرال ، ایالتی ، محلی و صنعت در مورد سیاست هایی مانند انتقال و اجازه اصلاحات برای رفع نیازهای انرژی” در کنار “کنترل های متعادل صادرات” و “ادامه بودجه برای تحقیقات و توسعه بنیادی هوش مصنوعی” تأکید کرد.

ارسال Google به ویژه نیاز به “چارچوب فدرال طرفدار نوآوری برای هوش مصنوعی” را برجسته می کند که مانع از وصله مقررات ایالتی می شود و در عین حال دسترسی صنعت به داده های موجود برای مدل های آموزشی را تضمین می کند. رویکرد آنها بر “حاکمیت و استانداردهای هوش مصنوعی متمرکز ، خاص و مبتنی بر ریسک” تأکید می کند تا مقررات گسترده ای.

توصیه های نظارتی

یک رویکرد یکپارچه فدرال در مورد مقررات هوش مصنوعی به عنوان یک موضوع سازگار در همه ارسال ها پدیدار شد. اوپای نسبت به “داوری نظارتی ایجاد شده توسط کشورهای شخصی آمریکایی” هشدار داد و “رویکرد جامع گرایانه که امکان همکاری داوطلبانه بین دولت فدرال و بخش خصوصی را فراهم می کند ، پیشنهاد کرد. چارچوب آنها نظارت بر وزارت بازرگانی ، به طور بالقوه از طریق مجدداً تصور می شود موسسه ایمنی AI ایالات متحده، ارائه یک نقطه تماس واحد برای شرکت های هوش مصنوعی برای مشارکت با دولت در مورد خطرات امنیتی.

در مورد کنترل صادرات ، OpenAi از یک چارچوب مرتب شده برای ارتقاء پذیرش AI آمریکایی در کشورهایی که با ارزش های دموکراتیک مطابقت دارند و ضمن محدود کردن دسترسی به چین و متحدین آن ، حمایت می کند. انسان شناسی به طور مشابه خواستار “سخت شدن کنترل صادرات برای گسترش رهبری هوش مصنوعی ایالات متحده” و “بهبود چشمگیر امنیت آزمایشگاههای مرزی ایالات متحده” از طریق همکاری پیشرفته با سازمان های اطلاعاتی شد.

ملاحظات مربوط به حق چاپ و مالکیت معنوی به طور برجسته در هر دو توصیه OpenAI و Google نمایش داده شده است. Openai بر اهمیت حفظ اصول استفاده منصفانه تأکید کرد تا مدل های AI را قادر به یادگیری از مواد دارای حق چاپ بدون تضعیف ارزش تجاری آثار موجود کند. آنها هشدار دادند كه قوانین حق چاپ بیش از حد محدود می تواند در مقایسه با رقبای چینی ، شركت های هوش مصنوعی ما را ضرر كند. گوگل این دیدگاه را تکرار کرد و از “قوانین متعادل کپی رایت ، مانند استفاده منصفانه و استثنائات استخراج متن و داده” که آنها را “مهم برای قادر به یادگیری سیستم های هوش مصنوعی برای یادگیری از دانش قبلی و داده های در دسترس عموم” توصیف کردند ، حمایت کرد.

هر سه شرکت بر لزوم اتخاذ تسریع دولت از فن آوری های هوش مصنوعی تأکید کردند. Openai خواستار “استراتژی بلندپروازانه تصویب دولت” برای مدرن سازی فرایندهای فدرال و استقرار ایمن ابزارهای مرزی AI شد. آنها به طور خاص توصیه می کنند موانع مربوط به تصویب هوش مصنوعی ، از جمله فرآیندهای اعتبار سنجی منسوخ مانند فدراپ، مقامات آزمایش محدود و مسیرهای تهیه انعطاف پذیر. انسان شناسی به همین ترتیب از “ترویج تهیه سریع AI در سراسر دولت فدرال” برای انقلابی در عملیات و تقویت امنیت ملی حمایت می کرد.

گوگل پیشنهاد کرد “ساده سازی اعتبارنامه ، مجوز و شیوه های تهیه” منسوخ شده در دولت برای تسریع در تصویب هوش مصنوعی. آنها بر اهمیت قوانین مؤثر تهیه عمومی و بهبود قابلیت همکاری در راه حل های ابری دولت برای تسهیل نوآوری تأکید کردند.

ارسال های جامع از این شرکت های پیشرو در زمینه هوش مصنوعی پیام واضحی ارائه می دهد: حفظ رهبری آمریکا در هوش مصنوعی مستلزم اقدام هماهنگ فدرال در جبهه های مختلف – از توسعه زیرساخت ها و چارچوب های نظارتی گرفته تا حمایت از امنیت ملی و نوسازی دولت – به ویژه به عنوان رقابت از چین است.



منبع:unite.ai

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *