گریس یی، مدیر ارشد نوآوری اخلاقی (اخلاق هوش مصنوعی و دسترسی) در Adobe – سری مصاحبه


گریس یی مدیر ارشد نوآوری اخلاقی (اخلاق هوش مصنوعی و دسترسی) در Adobe، کار جهانی و سازمانی را حول محور اخلاق و توسعه فرآیندها، ابزارها، آموزش ها و سایر منابع هدایت می کند تا اطمینان حاصل شود که نوآوری های هوش مصنوعی پیشرو در صنعت Adobe به طور مداوم در راستای ارزش های اصلی و اصول اخلاقی Adobe تکامل می یابند. گریس تعهد ادوبی به ساخت و استفاده مسئولانه از فناوری را ارتقا می‌دهد، و اصول اخلاقی و جامعیت را در تمام کارهای این شرکت در زمینه توسعه هوش مصنوعی متمرکز می‌کند. به عنوان بخشی از این کار، گریس بر کمیته اخلاق هوش مصنوعی Adobe و هیئت بازبینی نظارت می کند، که توصیه هایی را برای کمک به تیم های توسعه دهنده Adobe ارائه می دهد و ویژگی ها و محصولات جدید هوش مصنوعی را بررسی می کند تا مطمئن شود که آنها با اصول مسئولیت پذیری، مسئولیت و شفافیت Adobe مطابقت دارند. این اصول کمک می‌کند تا اطمینان حاصل کنیم که ویژگی‌های مبتنی بر هوش مصنوعی خود را به بازار ارائه می‌کنیم و در عین حال نتایج مضر و مغرضانه را کاهش می‌دهیم. گریس علاوه بر این، با تیم سیاستگذاری همکاری می کند تا به حمایت از کمک به شکل دادن به خط مشی عمومی، قوانین و مقررات پیرامون هوش مصنوعی به نفع جامعه کمک کند.

به عنوان بخشی از تعهد Adobe به دسترسی، Grace کمک می کند تا اطمینان حاصل شود که محصولات Adobe شامل همه کاربران و در دسترس هستند، به طوری که هر کسی می تواند تجربیات دیجیتالی ایجاد کند، تعامل داشته باشد و با آنها درگیر شود. تحت رهبری او، ادوبی با گروه‌های دولتی، انجمن‌های تجاری و جوامع کاربر همکاری می‌کند تا سیاست‌ها و استانداردهای دسترسی را ترویج و پیش ببرد و راه‌حل‌های صنعتی تاثیرگذار را هدایت کند.

آیا می‌توانید درباره سفر ادوبی در پنج سال گذشته در شکل‌دهی به اخلاق هوش مصنوعی به ما بگویید؟ چه نقاط عطف کلیدی این تکامل را مشخص کرده است، به ویژه در مواجهه با پیشرفت های سریع مانند هوش مصنوعی مولد؟

پنج سال پیش، ما فرآیند اخلاق هوش مصنوعی خود را با ایجاد اصول اخلاقی هوش مصنوعی در زمینه مسئولیت‌پذیری، مسئولیت‌پذیری و شفافیت، که به‌عنوان پایه‌ای برای فرآیند حاکمیت اخلاق هوش مصنوعی ما عمل می‌کند، رسمی‌سازی کردیم. ما یک تیم متنوع و متقابل از کارمندان Adobe از سراسر جهان گرد هم آوردیم تا اصول عملی را توسعه دهیم که بتواند در آزمون زمان مقاومت کند.

از آنجا، ما یک فرآیند بررسی قوی برای شناسایی و کاهش خطرات و سوگیری‌های احتمالی در اوایل چرخه توسعه هوش مصنوعی ایجاد کردیم. این ارزیابی چندبخشی به ما کمک کرده است تا ویژگی‌ها و محصولاتی را که می‌توانند سوگیری‌ها و کلیشه‌های مضر را تداوم بخشند، شناسایی و به آن بپردازیم.

با ظهور هوش مصنوعی مولد، ارزیابی اخلاق هوش مصنوعی خود را برای رسیدگی به چالش‌های اخلاقی جدید تطبیق دادیم. این فرآیند تکراری به ما این امکان را می‌دهد که از مشکلات احتمالی جلوتر باشیم و اطمینان حاصل کنیم که فناوری‌های هوش مصنوعی ما مسئولانه توسعه یافته و به کار گرفته می‌شوند. تعهد ما به یادگیری مستمر و همکاری با تیم‌های مختلف در سراسر شرکت در حفظ ارتباط و اثربخشی برنامه اخلاق هوش مصنوعی ما، در نهایت افزایش تجربه‌ای که به مشتریان خود ارائه می‌دهیم و ارتقای فراگیر بودن بسیار مهم بوده است. را

اصول اخلاق هوش مصنوعی Adobe – پاسخگویی، مسئولیت پذیری و شفافیت – چگونه به عملیات روزانه تبدیل می شود؟ آیا می‌توانید نمونه‌هایی از این که چگونه این اصول پروژه‌های هوش مصنوعی Adobe را هدایت کرده‌اند، به اشتراک بگذارید؟

ما با اجرای شیوه‌های مهندسی قوی که نوآوری مسئولانه را تضمین می‌کند، در حالی که به طور مستمر از کارکنان و مشتریان خود بازخورد جمع‌آوری می‌کنیم تا تنظیمات لازم را انجام دهیم، به تعهدات اخلاقی AI Adobe در ویژگی‌های مبتنی بر هوش مصنوعی پایبند هستیم.

ویژگی‌های جدید هوش مصنوعی تحت یک ارزیابی اخلاقی کامل قرار می‌گیرند تا سوگیری‌ها و خطرات احتمالی را شناسایی و کاهش دهند. هنگامی که Adobe Firefly، خانواده مدل‌های هوش مصنوعی خود را معرفی کردیم، برای کاهش تولید محتوایی که می‌تواند کلیشه‌های مضر را تداوم بخشد، مورد ارزیابی قرار گرفت. این ارزیابی یک فرآیند تکراری است که بر اساس همکاری نزدیک با تیم های محصول، شامل بازخورد و آموخته ها برای مرتبط و موثر ماندن، تکامل می یابد. ما همچنین تمرین‌های کشف ریسک را با تیم‌های محصول انجام می‌دهیم تا تأثیرات احتمالی را برای طراحی مکانیسم‌های آزمایش و بازخورد مناسب درک کنیم. را

ادوبی چگونه نگرانی‌های مربوط به سوگیری در هوش مصنوعی را برطرف می‌کند، به‌ویژه در ابزارهایی که توسط یک پایگاه کاربر جهانی و متنوع استفاده می‌شوند؟ آیا می توانید مثالی از نحوه شناسایی و کاهش تعصب در یک ویژگی خاص هوش مصنوعی ارائه دهید؟

ما به طور مداوم فرآیندهای ارزیابی و بررسی اخلاق هوش مصنوعی خود را با همکاری نزدیک با تیم‌های مهندسی و محصول خود در حال توسعه هستیم. ارزیابی اخلاق هوش مصنوعی که ما چند سال پیش داشتیم با ارزیابی فعلی متفاوت است و من پیش‌بینی می‌کنم که در آینده تغییرات بیشتری ایجاد شود. این رویکرد تکراری به ما امکان می‌دهد تا یادگیری‌های جدید را ترکیب کنیم و به نگرانی‌های اخلاقی نوظهور با تکامل فناوری‌هایی مانند Firefly رسیدگی کنیم.

به عنوان مثال، هنگامی که ما پشتیبانی چند زبانه را به Firefly اضافه کردیم، تیم من متوجه شد که خروجی مورد نظر را ارائه نمی دهد و برخی کلمات به طور ناخواسته مسدود می شوند. برای کاهش این موضوع، ما از نزدیک با تیم بین‌المللی‌سازی و سخنرانان بومی خود همکاری کردیم تا مدل‌های خود را گسترش دهیم و اصطلاحات و مفاهیم خاص کشور را پوشش دهیم. را

تعهد ما به تکامل رویکرد ارزیابی خود با پیشرفت فناوری چیزی است که به Adobe کمک می کند تا نوآوری را با مسئولیت اخلاقی متعادل کند. با تقویت فرآیندی فراگیر و پاسخگو، ما اطمینان می‌دهیم که فناوری‌های هوش مصنوعی ما بالاترین استانداردهای شفافیت و یکپارچگی را برآورده می‌کنند و به سازندگان قدرت می‌دهیم تا با اطمینان از ابزارهای ما استفاده کنند.

با مشارکت شما در شکل‌دهی خط‌مشی عمومی، ادوبی چگونه تقاطع بین قوانین هوش مصنوعی در حال تغییر سریع و نوآوری را طی می‌کند؟ Adobe چه نقشی در شکل دادن به این مقررات ایفا می کند؟

ما به طور فعال با سیاست گذاران و گروه های صنعتی درگیر هستیم تا به شکل گیری سیاستی کمک کنیم که نوآوری را با ملاحظات اخلاقی متعادل کند. بحث‌های ما با سیاست‌گذاران بر رویکرد ما به هوش مصنوعی و اهمیت توسعه فناوری برای ارتقای تجربیات انسانی متمرکز است. تنظیم‌کننده‌ها به دنبال راه‌حل‌های عملی برای رسیدگی به چالش‌های فعلی هستند و با ارائه چارچوب‌هایی مانند اصول اخلاق هوش مصنوعی ما – که به طور مشترک توسعه یافته و به طور مداوم در ویژگی‌های مبتنی بر هوش مصنوعی ما اعمال شده‌اند – بحث‌های سازنده‌تری را تقویت می‌کنیم. بسیار مهم است که مثال‌های عینی را روی میز بیاوریم که نشان دهد اصول ما در عمل چگونه کار می‌کنند و تأثیر دنیای واقعی را نشان می‌دهند، برخلاف صحبت کردن از طریق مفاهیم انتزاعی.

Adobe چه ملاحظات اخلاقی را در هنگام یافتن منبع داده های آموزشی در اولویت قرار می دهد و چگونه تضمین می کند که مجموعه داده های مورد استفاده هم اخلاقی و هم به اندازه کافی برای نیازهای هوش مصنوعی قوی هستند؟

در Adobe، ما چندین ملاحظات اخلاقی کلیدی را در هنگام یافتن منبع داده های آموزشی برای مدل های هوش مصنوعی خود اولویت بندی می کنیم. به‌عنوان بخشی از تلاش‌هایمان برای طراحی Firefly برای ایمن بودن تجاری، آن را بر روی مجموعه داده‌های محتوای دارای مجوز مانند Adobe Stock و محتوای دامنه عمومی که حق نسخه‌برداری منقضی شده است آموزش دادیم. ما همچنین بر تنوع مجموعه داده‌ها تمرکز کردیم تا از تقویت سوگیری‌ها و کلیشه‌های مضر در خروجی‌های مدل خود جلوگیری کنیم. برای رسیدن به این هدف، ما با تیم‌ها و کارشناسان مختلف برای بررسی و مدیریت داده‌ها همکاری می‌کنیم. با پایبندی به این شیوه‌ها، ما در تلاش هستیم تا فناوری‌های هوش مصنوعی را ایجاد کنیم که نه تنها قدرتمند و مؤثر باشند، بلکه برای همه کاربران اخلاقی و فراگیر باشند. را

به نظر شما، شفافیت در برقراری ارتباط با کاربران، نحوه آموزش سیستم‌های هوش مصنوعی Adobe مانند Firefly و استفاده از چه نوع داده‌ای چقدر اهمیت دارد؟

شفافیت در ارتباط با نحوه آموزش ویژگی‌های هوش مصنوعی مولد Adobe مانند Firefly، از جمله انواع داده‌های مورد استفاده، بسیار مهم است. با حصول اطمینان از درک کاربران از فرآیندهای پشت توسعه هوش مصنوعی مولد ما، اعتماد و اطمینان را در فناوری‌های ما ایجاد می‌کند. با باز بودن در مورد منابع داده، روش‌های آموزشی، و حفاظت‌های اخلاقی که در اختیار داریم، کاربران را قادر می‌سازیم تا درباره نحوه تعاملشان با محصولات ما تصمیم‌گیری آگاهانه بگیرند. این شفافیت نه تنها با اصول اصلی اخلاق هوش مصنوعی ما مطابقت دارد، بلکه باعث تقویت یک رابطه مشترک با کاربران ما می شود.

از آنجایی که هوش مصنوعی، به‌ویژه هوش مصنوعی مولد، به مقیاس‌پذیری ادامه می‌دهد، فکر می‌کنید مهم‌ترین چالش‌های اخلاقی که شرکت‌هایی مانند Adobe در آینده نزدیک با آن‌ها مواجه خواهند شد، چیست؟

من معتقدم مهم‌ترین چالش‌های اخلاقی برای شرکت‌هایی مانند Adobe، کاهش سوگیری‌های مضر، تضمین فراگیری و حفظ اعتماد کاربران است. پتانسیل هوش مصنوعی برای تداوم ناخواسته کلیشه‌ها یا تولید محتوای مضر و گمراه‌کننده نگرانی‌ای است که مستلزم هوشیاری مداوم و تدابیر حفاظتی قوی است. برای مثال، با پیشرفت‌های اخیر در هوش مصنوعی مولد، ایجاد محتوای فریبنده، انتشار اطلاعات نادرست و دستکاری افکار عمومی برای «بازیگران بد» آسان‌تر از همیشه است و اعتماد و شفافیت را تضعیف می‌کند.

برای رسیدگی به این موضوع، Adobe در سال 2019، Content Authenticity Initiative (CAI) را تأسیس کرد تا یک اکوسیستم دیجیتال قابل اعتمادتر و شفاف برای مصرف کنندگان بسازد. CAI برای پیاده سازی راه حل ما برای ایجاد اعتماد آنلاین – به نام Content Credentials. اعتبار محتوا شامل «مواد تشکیل دهنده» یا اطلاعات مهمی مانند نام سازنده، تاریخ ایجاد تصویر، ابزارهایی که برای ایجاد یک تصویر استفاده شده است و هر گونه ویرایشی که در طول مسیر انجام شده است. این به کاربران امکان می دهد تا زنجیره دیجیتالی از اعتماد و اعتبار ایجاد کنند.

همانطور که هوش مصنوعی مولد در حال گسترش است، ترویج پذیرش گسترده اعتبار محتوا برای بازگرداندن اعتماد به محتوای دیجیتال بسیار مهمتر خواهد بود.

چه توصیه ای به سازمان های دیگری می کنید که تازه شروع به فکر کردن در مورد چارچوب های اخلاقی برای توسعه هوش مصنوعی کرده اند؟

توصیه من این است که با ایجاد اصول روشن، ساده و عملی که می تواند تلاش های شما را هدایت کند، شروع کنید. اغلب، شرکت‌ها یا سازمان‌هایی را می‌بینم که بر روی چیزهایی تمرکز می‌کنند که در تئوری خوب به نظر می‌رسند، اما اصول آنها عملی نیستند. دلیل اینکه اصول ما در آزمون زمان ایستاده اند این است که آنها را به گونه ای طراحی کرده ایم که قابل اجرا باشند. وقتی ویژگی‌های مبتنی بر هوش مصنوعی خود را ارزیابی می‌کنیم، تیم‌های محصول و مهندسی ما می‌دانند که به دنبال چه هستیم و چه استانداردهایی از آنها انتظار داریم.

من همچنین به سازمان‌ها توصیه می‌کنم با دانستن اینکه این فرآیند تکراری خواهد بود، وارد این فرآیند شوند. من ممکن است ندانم که ادوبی قرار است در پنج یا 10 سال آینده چه چیزی را اختراع کند، اما می دانم که ارزیابی خود را برای پاسخگویی به آن نوآوری ها و بازخوردهایی که دریافت می کنیم، توسعه خواهیم داد.

با تشکر از شما برای مصاحبه عالی، خوانندگانی که مایل به کسب اطلاعات بیشتر هستند باید از آن بازدید کنند Adobe.



منبع:unite.ai

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *