گریس یی مدیر ارشد نوآوری اخلاقی (اخلاق هوش مصنوعی و دسترسی) در Adobe، کار جهانی و سازمانی را حول محور اخلاق و توسعه فرآیندها، ابزارها، آموزش ها و سایر منابع هدایت می کند تا اطمینان حاصل شود که نوآوری های هوش مصنوعی پیشرو در صنعت Adobe به طور مداوم در راستای ارزش های اصلی و اصول اخلاقی Adobe تکامل می یابند. گریس تعهد ادوبی به ساخت و استفاده مسئولانه از فناوری را ارتقا میدهد، و اصول اخلاقی و جامعیت را در تمام کارهای این شرکت در زمینه توسعه هوش مصنوعی متمرکز میکند. به عنوان بخشی از این کار، گریس بر کمیته اخلاق هوش مصنوعی Adobe و هیئت بازبینی نظارت می کند، که توصیه هایی را برای کمک به تیم های توسعه دهنده Adobe ارائه می دهد و ویژگی ها و محصولات جدید هوش مصنوعی را بررسی می کند تا مطمئن شود که آنها با اصول مسئولیت پذیری، مسئولیت و شفافیت Adobe مطابقت دارند. این اصول کمک میکند تا اطمینان حاصل کنیم که ویژگیهای مبتنی بر هوش مصنوعی خود را به بازار ارائه میکنیم و در عین حال نتایج مضر و مغرضانه را کاهش میدهیم. گریس علاوه بر این، با تیم سیاستگذاری همکاری می کند تا به حمایت از کمک به شکل دادن به خط مشی عمومی، قوانین و مقررات پیرامون هوش مصنوعی به نفع جامعه کمک کند.
به عنوان بخشی از تعهد Adobe به دسترسی، Grace کمک می کند تا اطمینان حاصل شود که محصولات Adobe شامل همه کاربران و در دسترس هستند، به طوری که هر کسی می تواند تجربیات دیجیتالی ایجاد کند، تعامل داشته باشد و با آنها درگیر شود. تحت رهبری او، ادوبی با گروههای دولتی، انجمنهای تجاری و جوامع کاربر همکاری میکند تا سیاستها و استانداردهای دسترسی را ترویج و پیش ببرد و راهحلهای صنعتی تاثیرگذار را هدایت کند.
آیا میتوانید درباره سفر ادوبی در پنج سال گذشته در شکلدهی به اخلاق هوش مصنوعی به ما بگویید؟ چه نقاط عطف کلیدی این تکامل را مشخص کرده است، به ویژه در مواجهه با پیشرفت های سریع مانند هوش مصنوعی مولد؟
پنج سال پیش، ما فرآیند اخلاق هوش مصنوعی خود را با ایجاد اصول اخلاقی هوش مصنوعی در زمینه مسئولیتپذیری، مسئولیتپذیری و شفافیت، که بهعنوان پایهای برای فرآیند حاکمیت اخلاق هوش مصنوعی ما عمل میکند، رسمیسازی کردیم. ما یک تیم متنوع و متقابل از کارمندان Adobe از سراسر جهان گرد هم آوردیم تا اصول عملی را توسعه دهیم که بتواند در آزمون زمان مقاومت کند.
از آنجا، ما یک فرآیند بررسی قوی برای شناسایی و کاهش خطرات و سوگیریهای احتمالی در اوایل چرخه توسعه هوش مصنوعی ایجاد کردیم. این ارزیابی چندبخشی به ما کمک کرده است تا ویژگیها و محصولاتی را که میتوانند سوگیریها و کلیشههای مضر را تداوم بخشند، شناسایی و به آن بپردازیم.
با ظهور هوش مصنوعی مولد، ارزیابی اخلاق هوش مصنوعی خود را برای رسیدگی به چالشهای اخلاقی جدید تطبیق دادیم. این فرآیند تکراری به ما این امکان را میدهد که از مشکلات احتمالی جلوتر باشیم و اطمینان حاصل کنیم که فناوریهای هوش مصنوعی ما مسئولانه توسعه یافته و به کار گرفته میشوند. تعهد ما به یادگیری مستمر و همکاری با تیمهای مختلف در سراسر شرکت در حفظ ارتباط و اثربخشی برنامه اخلاق هوش مصنوعی ما، در نهایت افزایش تجربهای که به مشتریان خود ارائه میدهیم و ارتقای فراگیر بودن بسیار مهم بوده است. را
اصول اخلاق هوش مصنوعی Adobe – پاسخگویی، مسئولیت پذیری و شفافیت – چگونه به عملیات روزانه تبدیل می شود؟ آیا میتوانید نمونههایی از این که چگونه این اصول پروژههای هوش مصنوعی Adobe را هدایت کردهاند، به اشتراک بگذارید؟
ما با اجرای شیوههای مهندسی قوی که نوآوری مسئولانه را تضمین میکند، در حالی که به طور مستمر از کارکنان و مشتریان خود بازخورد جمعآوری میکنیم تا تنظیمات لازم را انجام دهیم، به تعهدات اخلاقی AI Adobe در ویژگیهای مبتنی بر هوش مصنوعی پایبند هستیم.
ویژگیهای جدید هوش مصنوعی تحت یک ارزیابی اخلاقی کامل قرار میگیرند تا سوگیریها و خطرات احتمالی را شناسایی و کاهش دهند. هنگامی که Adobe Firefly، خانواده مدلهای هوش مصنوعی خود را معرفی کردیم، برای کاهش تولید محتوایی که میتواند کلیشههای مضر را تداوم بخشد، مورد ارزیابی قرار گرفت. این ارزیابی یک فرآیند تکراری است که بر اساس همکاری نزدیک با تیم های محصول، شامل بازخورد و آموخته ها برای مرتبط و موثر ماندن، تکامل می یابد. ما همچنین تمرینهای کشف ریسک را با تیمهای محصول انجام میدهیم تا تأثیرات احتمالی را برای طراحی مکانیسمهای آزمایش و بازخورد مناسب درک کنیم. را
ادوبی چگونه نگرانیهای مربوط به سوگیری در هوش مصنوعی را برطرف میکند، بهویژه در ابزارهایی که توسط یک پایگاه کاربر جهانی و متنوع استفاده میشوند؟ آیا می توانید مثالی از نحوه شناسایی و کاهش تعصب در یک ویژگی خاص هوش مصنوعی ارائه دهید؟
ما به طور مداوم فرآیندهای ارزیابی و بررسی اخلاق هوش مصنوعی خود را با همکاری نزدیک با تیمهای مهندسی و محصول خود در حال توسعه هستیم. ارزیابی اخلاق هوش مصنوعی که ما چند سال پیش داشتیم با ارزیابی فعلی متفاوت است و من پیشبینی میکنم که در آینده تغییرات بیشتری ایجاد شود. این رویکرد تکراری به ما امکان میدهد تا یادگیریهای جدید را ترکیب کنیم و به نگرانیهای اخلاقی نوظهور با تکامل فناوریهایی مانند Firefly رسیدگی کنیم.
به عنوان مثال، هنگامی که ما پشتیبانی چند زبانه را به Firefly اضافه کردیم، تیم من متوجه شد که خروجی مورد نظر را ارائه نمی دهد و برخی کلمات به طور ناخواسته مسدود می شوند. برای کاهش این موضوع، ما از نزدیک با تیم بینالمللیسازی و سخنرانان بومی خود همکاری کردیم تا مدلهای خود را گسترش دهیم و اصطلاحات و مفاهیم خاص کشور را پوشش دهیم. را
تعهد ما به تکامل رویکرد ارزیابی خود با پیشرفت فناوری چیزی است که به Adobe کمک می کند تا نوآوری را با مسئولیت اخلاقی متعادل کند. با تقویت فرآیندی فراگیر و پاسخگو، ما اطمینان میدهیم که فناوریهای هوش مصنوعی ما بالاترین استانداردهای شفافیت و یکپارچگی را برآورده میکنند و به سازندگان قدرت میدهیم تا با اطمینان از ابزارهای ما استفاده کنند.
با مشارکت شما در شکلدهی خطمشی عمومی، ادوبی چگونه تقاطع بین قوانین هوش مصنوعی در حال تغییر سریع و نوآوری را طی میکند؟ Adobe چه نقشی در شکل دادن به این مقررات ایفا می کند؟
ما به طور فعال با سیاست گذاران و گروه های صنعتی درگیر هستیم تا به شکل گیری سیاستی کمک کنیم که نوآوری را با ملاحظات اخلاقی متعادل کند. بحثهای ما با سیاستگذاران بر رویکرد ما به هوش مصنوعی و اهمیت توسعه فناوری برای ارتقای تجربیات انسانی متمرکز است. تنظیمکنندهها به دنبال راهحلهای عملی برای رسیدگی به چالشهای فعلی هستند و با ارائه چارچوبهایی مانند اصول اخلاق هوش مصنوعی ما – که به طور مشترک توسعه یافته و به طور مداوم در ویژگیهای مبتنی بر هوش مصنوعی ما اعمال شدهاند – بحثهای سازندهتری را تقویت میکنیم. بسیار مهم است که مثالهای عینی را روی میز بیاوریم که نشان دهد اصول ما در عمل چگونه کار میکنند و تأثیر دنیای واقعی را نشان میدهند، برخلاف صحبت کردن از طریق مفاهیم انتزاعی.
Adobe چه ملاحظات اخلاقی را در هنگام یافتن منبع داده های آموزشی در اولویت قرار می دهد و چگونه تضمین می کند که مجموعه داده های مورد استفاده هم اخلاقی و هم به اندازه کافی برای نیازهای هوش مصنوعی قوی هستند؟
در Adobe، ما چندین ملاحظات اخلاقی کلیدی را در هنگام یافتن منبع داده های آموزشی برای مدل های هوش مصنوعی خود اولویت بندی می کنیم. بهعنوان بخشی از تلاشهایمان برای طراحی Firefly برای ایمن بودن تجاری، آن را بر روی مجموعه دادههای محتوای دارای مجوز مانند Adobe Stock و محتوای دامنه عمومی که حق نسخهبرداری منقضی شده است آموزش دادیم. ما همچنین بر تنوع مجموعه دادهها تمرکز کردیم تا از تقویت سوگیریها و کلیشههای مضر در خروجیهای مدل خود جلوگیری کنیم. برای رسیدن به این هدف، ما با تیمها و کارشناسان مختلف برای بررسی و مدیریت دادهها همکاری میکنیم. با پایبندی به این شیوهها، ما در تلاش هستیم تا فناوریهای هوش مصنوعی را ایجاد کنیم که نه تنها قدرتمند و مؤثر باشند، بلکه برای همه کاربران اخلاقی و فراگیر باشند. را
به نظر شما، شفافیت در برقراری ارتباط با کاربران، نحوه آموزش سیستمهای هوش مصنوعی Adobe مانند Firefly و استفاده از چه نوع دادهای چقدر اهمیت دارد؟
شفافیت در ارتباط با نحوه آموزش ویژگیهای هوش مصنوعی مولد Adobe مانند Firefly، از جمله انواع دادههای مورد استفاده، بسیار مهم است. با حصول اطمینان از درک کاربران از فرآیندهای پشت توسعه هوش مصنوعی مولد ما، اعتماد و اطمینان را در فناوریهای ما ایجاد میکند. با باز بودن در مورد منابع داده، روشهای آموزشی، و حفاظتهای اخلاقی که در اختیار داریم، کاربران را قادر میسازیم تا درباره نحوه تعاملشان با محصولات ما تصمیمگیری آگاهانه بگیرند. این شفافیت نه تنها با اصول اصلی اخلاق هوش مصنوعی ما مطابقت دارد، بلکه باعث تقویت یک رابطه مشترک با کاربران ما می شود.
از آنجایی که هوش مصنوعی، بهویژه هوش مصنوعی مولد، به مقیاسپذیری ادامه میدهد، فکر میکنید مهمترین چالشهای اخلاقی که شرکتهایی مانند Adobe در آینده نزدیک با آنها مواجه خواهند شد، چیست؟
من معتقدم مهمترین چالشهای اخلاقی برای شرکتهایی مانند Adobe، کاهش سوگیریهای مضر، تضمین فراگیری و حفظ اعتماد کاربران است. پتانسیل هوش مصنوعی برای تداوم ناخواسته کلیشهها یا تولید محتوای مضر و گمراهکننده نگرانیای است که مستلزم هوشیاری مداوم و تدابیر حفاظتی قوی است. برای مثال، با پیشرفتهای اخیر در هوش مصنوعی مولد، ایجاد محتوای فریبنده، انتشار اطلاعات نادرست و دستکاری افکار عمومی برای «بازیگران بد» آسانتر از همیشه است و اعتماد و شفافیت را تضعیف میکند.
برای رسیدگی به این موضوع، Adobe در سال 2019، Content Authenticity Initiative (CAI) را تأسیس کرد تا یک اکوسیستم دیجیتال قابل اعتمادتر و شفاف برای مصرف کنندگان بسازد. CAI برای پیاده سازی راه حل ما برای ایجاد اعتماد آنلاین – به نام Content Credentials. اعتبار محتوا شامل «مواد تشکیل دهنده» یا اطلاعات مهمی مانند نام سازنده، تاریخ ایجاد تصویر، ابزارهایی که برای ایجاد یک تصویر استفاده شده است و هر گونه ویرایشی که در طول مسیر انجام شده است. این به کاربران امکان می دهد تا زنجیره دیجیتالی از اعتماد و اعتبار ایجاد کنند.
همانطور که هوش مصنوعی مولد در حال گسترش است، ترویج پذیرش گسترده اعتبار محتوا برای بازگرداندن اعتماد به محتوای دیجیتال بسیار مهمتر خواهد بود.
چه توصیه ای به سازمان های دیگری می کنید که تازه شروع به فکر کردن در مورد چارچوب های اخلاقی برای توسعه هوش مصنوعی کرده اند؟
توصیه من این است که با ایجاد اصول روشن، ساده و عملی که می تواند تلاش های شما را هدایت کند، شروع کنید. اغلب، شرکتها یا سازمانهایی را میبینم که بر روی چیزهایی تمرکز میکنند که در تئوری خوب به نظر میرسند، اما اصول آنها عملی نیستند. دلیل اینکه اصول ما در آزمون زمان ایستاده اند این است که آنها را به گونه ای طراحی کرده ایم که قابل اجرا باشند. وقتی ویژگیهای مبتنی بر هوش مصنوعی خود را ارزیابی میکنیم، تیمهای محصول و مهندسی ما میدانند که به دنبال چه هستیم و چه استانداردهایی از آنها انتظار داریم.
من همچنین به سازمانها توصیه میکنم با دانستن اینکه این فرآیند تکراری خواهد بود، وارد این فرآیند شوند. من ممکن است ندانم که ادوبی قرار است در پنج یا 10 سال آینده چه چیزی را اختراع کند، اما می دانم که ارزیابی خود را برای پاسخگویی به آن نوآوری ها و بازخوردهایی که دریافت می کنیم، توسعه خواهیم داد.
با تشکر از شما برای مصاحبه عالی، خوانندگانی که مایل به کسب اطلاعات بیشتر هستند باید از آن بازدید کنند Adobe.