Denas Grybauskas ، مدیر ارشد مدیریت و استراتژی در Oxylabs – سری مصاحبه ها


Denas Grybauskas مدیر ارشد حاکمیت و استراتژی در Oxylabs ، یک رهبر جهانی در جمع آوری اطلاعات وب و راه حل های حق بیمه Proxy است.

در سال 2015 تأسیس شد ، اگزیلب یکی از بزرگترین شبکه های پروکسی با منبع اخلاقی در جهان را فراهم می کند-با استفاده از بیش از 177 میلیون IP در 195 کشور-همراه با ابزارهای پیشرفته ای مانند Web Unblocker ، Web Scraper API و Oxycopilot ، یک دستیار خراش با قدرت AI که به زبان طبیعی به داده های ساختاری تبدیل می شود.

شما یک سفر حقوقی و حاکمیتی چشمگیر در فضای فنی حقوقی لیتوانی داشته اید. چه چیزی شخصاً شما را برای مقابله با یکی از قطبی ترین چالش های هوش مصنوعی – اخلاق و حق چاپ – در نقش شما در Oxylabs ، انگیزه داد؟

Oxylabs همیشه پرچمدار نوآوری مسئول در صنعت بوده است. ما اولین کسی بودیم که از استانداردهای صنعت منابع اخلاقی و استانداردهای صنعت استفاده کردیم. اکنون ، با حرکت سریع هوش مصنوعی ، باید اطمینان حاصل کنیم که نوآوری با مسئولیت متعادل است.

ما این مسئله را به عنوان یک مشکل بزرگ در صنعت هوش مصنوعی دیدیم و همچنین می توانیم راه حل را ببینیم. با ارائه این مجموعه داده ها ، ما شرکت ها و سازندگان هوش مصنوعی را قادر می سازیم تا در مورد توسعه عادلانه AI در همان صفحه قرار بگیرند ، که برای همه افراد درگیر مفید است. ما می دانستیم که نگه داشتن حقوق سازندگان در خط مقدم چقدر مهم است بلکه محتوا را برای توسعه سیستم های هوش مصنوعی آینده فراهم می کند ، بنابراین ما این مجموعه داده ها را به عنوان چیزی ایجاد کردیم که می تواند خواسته های بازار امروز را برآورده کنیم.

انگلیس در میان نبرد کپی رایت گرم است و صداهای قوی از هر دو طرف دارد. وضعیت فعلی بحث بین نوآوری هوش مصنوعی و حقوق خالق را چگونه تفسیر می کنید؟

در حالی که مهم است که دولت انگلستان از نوآوری تکنولوژیکی تولیدی به عنوان یک اولویت استفاده کند ، بسیار مهم است که سازندگان باید احساس افزایش و محافظت از هوش مصنوعی داشته باشند ، نه به سرقت بروند. چارچوب حقوقی که در حال حاضر مورد بحث است باید یک نقطه شیرین بین تقویت نوآوری و در عین حال محافظت از سازندگان پیدا کند و امیدوارم در هفته های آینده ما ببینیم که آنها راهی برای اعتصاب تعادل پیدا می کنند.

Oxylabs به تازگی اولین مجموعه داده های اخلاقی YouTube جهان را راه اندازی کرده است که به رضایت خالق برای آموزش AI نیاز دارد. این فرآیند رضایت دقیقاً چگونه کار می کند – و برای سایر صنایع مانند موسیقی یا انتشار چقدر مقیاس پذیر است؟

تمام میلیون ها فیلم اصلی در مجموعه داده ها رضایت صریح سازندگان را برای استفاده از آموزش هوش مصنوعی ، اتصال سازندگان و مبتکران از نظر اخلاقی دارند. کلیه مجموعه داده های ارائه شده توسط Oxylabs شامل فیلم ها ، رونوشت ها و ابرداده های غنی است. در حالی که چنین داده هایی دارای موارد استفاده بالقوه زیادی است ، Oxylabs آن را به طور خاص برای آموزش AI تصفیه و آماده کرده است ، این همان کاربردی است که سازندگان محتوا آگاهانه با آن موافقت کرده اند.

بسیاری از رهبران فناوری استدلال می کنند که نیاز به انتخاب صریح از همه سازندگان می تواند صنعت هوش مصنوعی را “بکشد”. پاسخ شما به این ادعا چیست و رویکرد Oxylabs چگونه در غیر این صورت اثبات می شود؟

نیاز به این امر ، برای هر استفاده از مواد برای آموزش هوش مصنوعی ، یک انتخاب صریح قبلی چالش های عملیاتی قابل توجهی را ارائه می دهد و برای نوآوری هوش مصنوعی هزینه قابل توجهی خواهد داشت. به جای حمایت از حقوق سازندگان ، این می تواند ناخواسته شرکت ها را برای تغییر فعالیت های توسعه به حوزه های قضایی با اجرای دقیق تر یا رژیم های مختلف حق چاپ وادار کند. با این حال ، این بدان معنا نیست که در صورت رعایت حق چاپ ، نمی توان در جایی که توسعه هوش مصنوعی مورد تشویق قرار گیرد ، میانه وجود داشته باشد. در مقابل ، آنچه ما به آن نیاز داریم مکانیسم های کارآمد است که رابطه شرکت های هوش مصنوعی و سازندگان را ساده می کند.

این مجموعه داده ها یک رویکرد را برای حرکت به جلو ارائه می دهند. مدل امتناع ، براساس آن می توان از محتوا استفاده کرد مگر اینکه صاحب حق چاپ صریحاً از آن خارج شود ، دیگری است. راه سوم تسهیل معامله بین ناشران ، سازندگان و شرکتهای هوش مصنوعی از طریق راه حل های فناوری مانند سیستم عامل های آنلاین است.

در نهایت ، هر راه حل باید در محدوده قوانین کپی رایت قابل اجرا و حمایت از داده ها عمل کند. در Oxylabs ، ما معتقدیم که نوآوری هوش مصنوعی باید با مسئولیت پذیری دنبال شود و هدف ما کمک به چارچوب های قانونی و عملی است که به سازندگان احترام می گذارند و در عین حال پیشرفت می کنند.

بزرگترین موانعی که تیم شما برای غلبه بر آنها برای ایجاد مجموعه داده های مبتنی بر رضایت داشت ، چه بود؟

مسیر برای ما توسط YouTube افتتاح شد و به سازندگان محتوا این امکان را می داد تا به راحتی و به راحتی کار خود را برای آموزش AI مجوز دهند. پس از آن ، کار ما عمدتاً فنی بود ، شامل جمع آوری داده ها ، تمیز کردن و ساخت آن برای تهیه مجموعه داده ها و ساختن کل مجموعه فنی برای شرکت ها برای دسترسی به داده های مورد نیاز خود. اما این کاری است که ما سالهاست که از یک طریق یا دیگری انجام می دهیم. البته ، هر مورد مجموعه چالش های خاص خود را ارائه می دهد ، به ویژه هنگامی که شما با چیزی عظیم و پیچیده به عنوان داده های چند حالته سر و کار دارید. اما ما هم دانش و هم ظرفیت فنی برای انجام این کار داشتیم. با توجه به این ، هنگامی که نویسندگان YouTube فرصتی برای رضایت داشتند ، بقیه فقط مسئله قرار دادن وقت و منابع ما در آن بود.

فراتر از محتوای YouTube ، آیا آینده ای را تصور می کنید که سایر محتوای اصلی – مانند موسیقی ، نوشتن یا هنر دیجیتالی – می توانند به طور سیستماتیک برای استفاده به عنوان داده های آموزش مجوز داشته باشند؟

مدتی است که ما به نیاز به یک رویکرد سیستماتیک برای رضایت و پاسخگویی به محتوا اشاره کرده ایم تا بتوانیم نوآوری هوش مصنوعی را در حالی که آن را با حقوق خالق تعادل می بخشد ، فعال کنیم. فقط در شرایطی که یک روش مناسب و تعاونی برای هر دو طرف برای رسیدن به اهداف خود وجود داشته باشد ، فواید متقابل خواهد بود.

این فقط آغاز است. ما معتقدیم که ارائه مجموعه داده هایی مانند ما در طیف وسیعی از صنایع می تواند راه حلی را ارائه دهد که در نهایت بحث کپی رایت را به یک دوست داشتنی نزدیک می رساند.

آیا اهمیت پیشنهادهایی مانند مجموعه داده های اخلاقی Oxylabs بسته به رویکردهای مختلف مدیریت هوش مصنوعی در اتحادیه اروپا ، انگلیس و سایر حوزه های قضایی متفاوت است؟

از یک سو ، در دسترس بودن مجموعه داده های مبتنی بر صریح و مبتنی بر این زمینه را برای شرکت های هوش مصنوعی مستقر در حوزه های قضایی که دولت ها به سمت تنظیم دقیق تر متمایل می شوند ، تعیین می کند. نگرانی اصلی این شرکت ها این است که به جای حمایت از سازندگان ، قوانین سختگیرانه برای به دست آوردن رضایت فقط یک مزیت ناعادلانه به توسعه دهندگان هوش مصنوعی در سایر حوزه های قضایی می بخشد. مشکل این نیست که این شرکت ها به رضایت اهمیتی نمی دهند بلکه این است که بدون یک روش مناسب برای به دست آوردن آن ، آنها محکوم به عقب ماندن هستند.

از طرف دیگر ، ما معتقدیم که اگر اعطای رضایت و دسترسی به داده های دارای مجوز برای آموزش AI ساده شود ، هیچ دلیلی وجود ندارد که این رویکرد نباید در سطح جهان به عنوان ارجح تبدیل شود. مجموعه داده های ما که بر اساس محتوای YouTube دارای مجوز ساخته شده اند ، گامی به سوی این ساده سازی هستند.

با توجه به رشد بی اعتمادی عمومی به نحوه آموزش هوش مصنوعی ، به نظر شما چگونه شفافیت و رضایت می تواند به مزایای رقابتی برای شرکت های فنی تبدیل شود؟

اگرچه شفافیت اغلب به عنوان مانعی برای حاشیه رقابتی دیده می شود ، اما همچنین بزرگترین سلاح ما برای مبارزه با بی اعتمادی است. هرچه شرکتهای هوش مصنوعی شفافیت بیشتری ارائه دهند ، شواهد بیشتری برای آموزش اخلاقی و سودمند هوش مصنوعی وجود دارد و از این طریق اعتماد به صنعت هوش مصنوعی را بازسازی می کند. و به نوبه خود ، سازندگان می بینند که آنها و جامعه می توانند از نوآوری هوش مصنوعی ارزش کسب کنند ، دلیل بیشتری برای رضایت در آینده خواهند داشت.

Oxylabs اغلب با خراش داده ها و هوش وب همراه است. چگونه این ابتکار اخلاقی جدید در دید گسترده تر شرکت جای می گیرد؟

انتشار مجموعه داده های YouTube با منابع اخلاقی ، مأموریت ما را در Oxylabs برای ایجاد و ترویج شیوه های صنعت اخلاقی ادامه می دهد. به عنوان بخشی از این ، ما ابتکار جمع آوری داده های وب اخلاقی (EWDCI) را تأسیس کردیم و یک چارچوب سطح شفاف صنعت را برای تهیه منابع پروکسی معرفی کردیم. ما همچنین پروژه 4β را به عنوان بخشی از مأموریت خود راه اندازی کردیم تا محققان و دانشگاهیان بتوانند تأثیر تحقیق خود را به حداکثر برسانند و درک داده های مهم وب عمومی را تقویت کنند.

با نگاهی به آینده ، فکر می کنید دولت ها باید رضایت خود را برای آموزش داده های آموزش موظفند ، یا باید یک ابتکار عمل داوطلبانه به رهبری صنعت باقی بماند؟

در یک اقتصاد بازار آزاد ، به طور کلی بهتر است که بازار خود را تصحیح کند. با اجازه دادن به نوآوری در پاسخ به نیازهای بازار ، ما به طور مداوم سعادت خود را دوباره اختراع و تجدید می کنیم. قانون سنگین دست هرگز انتخاب اول خوب نیست و فقط باید به همه راه های دیگر برای اطمینان از عدالت در حالی که اجازه می دهد نوآوری خسته شود ، متوسل شوید.

به نظر نمی رسد که ما قبلاً در آموزش AI به آن نقطه رسیده ایم. گزینه های صدور مجوز YouTube برای سازندگان و مجموعه داده های ما نشان می دهد که این اکوسیستم به طور فعال به دنبال راه هایی برای سازگاری با واقعیت های جدید است. بنابراین ، اگرچه مقررات واضح لازم است تا اطمینان حاصل شود که همه در حقوق خود عمل می کنند ، دولت ها ممکن است بخواهند به آرامی حرکت کنند. آنها به جای اینکه در هر مورد نیاز به رضایت ابراز داشته باشند ، ممکن است بخواهند راه هایی را که صنایع می توانند سازوکارهایی برای حل تنش های فعلی ایجاد کنند ، بررسی کنند و نشانه های خود را در هنگام قانونگذاری برای تشویق نوآوری به جای مانع از آن ، از آن استفاده کنند.

چه توصیه ای را برای راه اندازی ها و توسعه دهندگان هوش مصنوعی ارائه می دهید که می خواهند بدون استفاده از نوآوری ، استفاده از داده های اخلاقی را در اولویت قرار دهند؟

یکی از راه های راه اندازی می تواند به تسهیل در استفاده از داده های اخلاقی کمک کند ، توسعه راه حل های فناوری است که روند دستیابی به رضایت و استخراج ارزش را برای سازندگان ساده می کند. از آنجا که گزینه هایی برای به دست آوردن داده های شفاف به دست آمده ، شرکت های هوش مصنوعی نیازی به سازش در سرعت ندارند. بنابراین ، من به آنها توصیه می کنم که چشم خود را برای چنین پیشنهادهایی باز نگه دارند.

با تشکر از شما برای مصاحبه عالی ، خوانندگانی که مایل به کسب اطلاعات بیشتر هستند باید بازدید کنند اگزیلببشر



منبع:unite.ai

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *