تغییرات اخیر

در اینجا اطلاعیه‌ها، نسخه‌ها و تغییرات جدید لیارا فهرست می‌شوند.

شفافیت در هوش مصنوعی (AI Transparency): چرا برای انتخاب مهم است؟


۳۰ خرداد ۱۴۰۴

در سال‌های اخیر، هوش مصنوعی به بخش جدایی‌ناپذیری از زندگی روزمره و کسب‌وکارها تبدیل شده است. اما همان‌قدر که این فناوری پیشرفته فرصت‌های بی‌نظیری خلق می‌کند، سوالات مهمی درباره شفافیت عملکرد آن هم مطرح می‌شود. شفافیت در هوش مصنوعی (AI Transparency)، یعنی امکان فهم و بررسی چگونگی تصمیم‌گیری‌های این سیستم‌ها، یکی از دغدغه‌های اصلی متخصصان، کاربران و قانون‌گذاران است.

در این مقاله به بررسی مفهوم شفافیت در هوش مصنوعی (AI Transparency)، اهمیت آن، چارچوب‌های قانونی مرتبط، تفاوت‌های کلیدی با قابلیت توضیح‌پذیری و تفسیرپذیری، و راهکارهای عملی برای افزایش این شفافیت می‌پردازیم تا درک بهتری از این موضوع حیاتی به دست آوریم.

در ادامه خواهید خواند:

  • شفافیت در هوش مصنوعی (AI Transparency) چیست؟
  • چرا شفافیت در هوش مصنوعی مهم است؟
  • مقررات و چارچوب‌های شفافیت در هوش مصنوعی
  • قابلیت توضیح‌پذیری هوش مصنوعی در برابر قابلیت تفسیر و شفافیت هوش مصنوعی
  • چگونه شفافیت در هوش مصنوعی را فراهم کنیم؟
  • چالش‌های شفافیت در هوش مصنوعی
  • جمع بندی
AI Transparency

شفافیت در هوش مصنوعی (AI Transparency) چیست؟

شفافیت در هوش مصنوعی (AI Transparency) یعنی دسترسی داشتن به اطلاعاتی که به ما کمک می‌کند بفهمیم یک سیستم هوش مصنوعی چطور ساخته شده و چگونه تصمیم می‌گیرد.

بسیاری از پژوهشگران هوش مصنوعی را «جعبه سیاه» می‌نامند، چون به دلیل پیچیدگی بالای این فناوری، هنوز فهمیدن و توضیح دادن عملکرد و نتایج آن دشوار است. شفافیت در هوش مصنوعی باعث می‌شود این جعبه سیاه باز شود و بهتر بفهمیم مدل‌های هوش مصنوعی چگونه به نتایج خود می‌رسند.

امروزه در بسیاری از صنایع مهم مثل بانکداری، سلامت، منابع انسانی و امنیت، از هوش مصنوعی برای تصمیم‌گیری استفاده می‌شود. وقتی مردم بهتر بفهمند این مدل‌ها چطور آموزش داده شده‌اند و چگونه تصمیم می‌گیرند، اعتماد به نتایج هوش مصنوعی و سازمان‌های استفاده‌کننده بیشتر می‌شود.

سازندگان هوش مصنوعی می‌توانند با شفاف بودن، اعتماد ایجاد کنند. آن‌ها باید منطق الگوریتم، داده‌هایی که برای آموزش مدل‌ها استفاده شده است، روش های ارزیابی و تست مدل و اطلاعات دیگر را به صورت شفاف منتشر کنند. این موضوع به افراد کمک می‌کند تا عملکرد مدل‌ را در برابر عدالت، خطاها و سوگیری‌ها بسنجد.

داشتن شفافیت بالا در هوش مصنوعی، بخش مهمی از هوش مصنوعی مسئولانه است. هوش مصنوعی مسئولانه یعنی رعایت اصولی که طراحی، ساخت، استفاده و توسعه هوش مصنوعی را به گونه‌ای هدایت کند که با ارزش‌های جامعه، قوانین و اخلاقیات هماهنگ باشد.

با سرویس هوش مصنوعی لیارا، سریع و مطمئن از مدل‌های هوش مصنوعی استفاده کنید.
✅ ارائه API اختصاصی هوش مصنوعی✅ سازگار با مدل‌های اپن‌سورس✅ کنترل کامل، امنیت بالا و مقیاس‌پذیری
خرید و راه‌اندازی سرویس هوش مصنوعی

چرا شفافیت در هوش مصنوعی مهم است؟

برنامه‌های هوش مصنوعی مانند چت‌بات‌های تولید محتوا، دستیارهای مجازی و موتورهای پیشنهاددهی، هر روز توسط میلیون‌ها نفر در سراسر جهان استفاده می‌شوند. برای کاربردهای کم‌ریسک مانند این موارد، شفافیت درباره نحوه عملکرد این ابزارها اهمیت کمتری دارد؛ چرا که اگر مدل اشتباه کند یا دچار سوگیری شود، کاربر ممکن است فقط زمان یا پول کمی را از دست بدهد.

اما در حال حاضر، بسیاری از حوزه‌های حساس‌تر به هوش مصنوعی برای تصمیم‌گیری‌های حیاتی متکی شده‌اند. به عنوان مثال، هوش مصنوعی در تصمیم‌گیری‌های سرمایه‌گذاری، تشخیص‌های پزشکی، استخدام، صدور حکم‌های قضایی و موارد دیگر نقش مهمی ایفا می‌کند. در این موارد، پیامدهای سوگیری یا خطا در نتایج هوش مصنوعی می‌تواند بسیار جدی باشد؛ افراد ممکن است پس‌انداز زندگی خود را از دست بدهند، فرصت‌های شغلی را از دست بدهند یا حتی سال‌ها از عمرشان تحت تاثیر قرار گیرد.

برای اینکه افراد و سازمان‌ها به هوش مصنوعی اعتماد کنند و مطمئن باشند که تصمیم‌ها به صورت عادلانه و دقیق گرفته می‌شوند، باید شفافیت کافی درباره نحوه عملکرد مدل‌ها، منطق الگوریتم‌ها و روش‌های ارزیابی دقت و عدالت‌ آن‌ها وجود داشته باشد. همچنین لازم است اطلاعاتی درباره داده‌های آموزش و تنظیم مدل، منابع داده، نحوه پردازش، وزن‌دهی و برچسب‌گذاری داده‌ها در دسترس باشد.

علاوه بر افزایش اعتماد، شفافیت در هوش مصنوعی باعث تسهیم دانش و همکاری گسترده‌تر در اکوسیستم هوش مصنوعی می‌شود و پیشرفت‌های بیشتری را در این حوزه به همراه دارد. سازمان‌هایی که به صورت پیش‌فرض شفافیت را رعایت می‌کنند، می‌توانند بیشتر روی استفاده موثر از فناوری‌های هوش مصنوعی برای رسیدن به اهداف کسب‌وکار تمرکز کنند و نگرانی کمتری درباره قابلیت اطمینان هوش مصنوعی داشته باشند.

چت بات چیست؟ معرفی تکنولوژی، کاربردها و نقش آن در بهبود ارتباطات
چت بات چیست؟ 

مقررات و چارچوب‌های شفافیت در هوش مصنوعی

مجموعه مقرراتی که استفاده از هوش مصنوعی را کنترل می‌کنند، پیوسته در حال تغییر و تکامل هستند. برای مطابقت با این مقررات و پاسخگویی به درخواست‎‌های ناظران، ارزیابان و بازرسان، وجود فرآیندهای شفاف در مدل‌های هوش مصنوعی حیاتی است. قانون هوش مصنوعی اتحادیه اروپا (EU AI Act) به عنوان نخستین چارچوب قانونی جامع در جهان برای تنظیم هوش مصنوعی شناخته می‌شود.

قانون هوش مصنوعی اتحادیه اروپا (EU AI Act)

این قانون با رویکردی مبتنی بر میزان ریسک، مقررات مختلفی را متناسب با سطح خطر سیستم‌های هوش مصنوعی اعمال می‌کند. برخی از کاربردهای AI به‌طور کامل ممنوع شده‌اند و برای برخی دیگر، الزامات سختگیرانه‌ای در زمینه مدیریت ریسک، حاکمیت و شفافیت در نظر گرفته شده است. برای برخی از انواع خاص هوش مصنوعی نیز تعهدات شفافیت بیشتری تعریف شده است. به عنوان مثال:

  • سیستم‌های هوش مصنوعی که به‌طور مستقیم با افراد تعامل دارند باید به گونه‌ای طراحی شوند که کاربران بدانند با یک سیستم AI تعامل دارند، مگر اینکه این موضوع از شرایط کاملاً مشخص باشد. مثلاً یک چت‌بات باید به‌روشنی اعلام کند که چت‌بات است.
  • سیستم‌هایی که متن، تصویر یا سایر محتوای خاص تولید می‌کنند باید خروجی‌های خود را با قالب‌های قابل‌خواندن توسط ماشین علامت‌گذاری کنند تا مشخص شود که محتوا توسط AI تولید یا دست‌کاری شده است. این موضوع شامل مدل‌هایی می‌شود که دیپ‌فیک تولید می‌کنند؛ یعنی تصاویر یا ویدیوهایی که در آن فردی کاری انجام می‌دهد یا حرفی می‌زند که در واقعیت انجام نداده یا نگفته است.

اجرای مقررات حفاظت از داده‌های شخصی (GDPR) در اتحادیه اروپا موجب شد تا بسیاری از کشورها قوانینی مشابه برای حفظ حریم خصوصی تدوین کنند. به همین ترتیب، کارشناسان پیش‌بینی می‌کنند که قانون هوش مصنوعی اتحادیه اروپا به الگویی برای توسعه استانداردهای جهانی در زمینه حاکمیت و اخلاق AI تبدیل شود.

چارچوب‌های راهنمای شفافیت در هوش مصنوعی

اگر چه بیشتر کشورها هنوز قوانین جامع برای هوش مصنوعی تدوین نکرده‌اند، اما چندین چارچوب معتبر و گسترده وجود دارد که هدف آن‌ها هدایت توسعه مسئولانه AI و ایجاد زمینه برای تدوین قوانین آینده است. این چارچوب‌ها الزام‌آور نیستند اما استانداردهای ارزشمندی ارائه می‌دهند.

  • دستور اجرایی کاخ سفید درباره توسعه ایمن، مطمئن و قابل‌اعتماد هوش مصنوعی: این دستور در 30 اکتبر 2023 صادر و در 20 ژانویه 2025 لغو شد. در بخش‌های مختلف به شفافیت پرداخته بود؛ به‌ویژه در بخش 8 که بر محافظت از مصرف‌کنندگان، بیماران، مسافران و دانش‌آموزان تمرکز داشت. در این بخش توصیه شده بود که نهادهای نظارتی از اختیارات خود برای حمایت از مصرف‌کنندگان در برابر خطرات هوش مصنوعی استفاده کنند، از جمله با تأکید بر الزامات شفافیت و توانایی نهادها در توضیح استفاده از مدل‌های AI.
  • طرح کلی منشور حقوقی AI (Blueprint for an AI Bill of Rights): این سند شامل پنج اصل و مجموعه‌ای از شیوه‌های مرتبط است که راهنمای طراحی و به‌کارگیری سیستم‌های هوش مصنوعی محسوب می‌شوند. اصل چهارم، یعنی “اطلاع‌رسانی و توضیح”، به‌طور مستقیم به شفافیت می‌پردازد: طراحان، توسعه‌دهندگان و بهره‌برداران از سیستم‌های خودکار باید اسنادی با زبان ساده و قابل‌درک ارائه دهند که شامل توضیح عملکرد کلی سیستم، نقش اتوماسیون ، اطلاع‌رسانی درباره استفاده از AI، مسئولیت‌پذیری سازمان و همچنین توضیح نتایج به‌صورت واضح، به‌موقع و قابل‌دسترسی باشد.
  • چارچوب سیاست‌گذاری جامع فرآیند هوش مصنوعی هیروشیما: این چارچوب پس از نشست سران G7 در سال 2023 تدوین و معرفی شد. فرآیند هیروشیما شامل مجموعه‌ای از اصول راهنما برای توسعه جهانی سیستم‌های پیشرفته هوش مصنوعی است که بر امنیت، قابلیت اطمینان و اعتمادپذیری تاکید دارد. در این چارچوب، سازمان‌ها به رعایت 11 اصل فراخوانده شده‌اند که برخی از آن‌ها بر انتشار گزارش‌های شفافیت و به‌اشتراک‌گذاری مسئولانه اطلاعات تأکید دارند.
شفافیت در هوش مصنوعی (AI Transparency) چیست؟

قابلیت توضیح‌پذیری هوش مصنوعی در برابر قابلیت تفسیر و شفافیت هوش مصنوعی

شفافیت در هوش مصنوعی (AI Transparency) ارتباط نزدیکی با دو مفهوم دیگر دارد: توضیح‌پذیری (AI Explainability) و قابل‌تفسیر بودن (AI Interpretability). این سه مفهوم برای حل یکی از چالش‌های همیشگی هوش مصنوعی یعنی مسئله‌ی جعبه سیاه طراحی شده‌اند؛ مشکلی که در آن مدل‌های AI آن‌قدر پیچیده هستند که انسان‌ها نمی‌توانند آن‌ها را به‌طور کامل درک یا بررسی کنند. با این حال، هر یک از این مفاهیم تعریف و کاربرد مشخص خود را دارند.

توضیح‌پذیری هوش مصنوعی (AI Explainability):

چگونه مدل به این نتیجه رسید؟

توضیح‌پذیری یا «هوش مصنوعی قابل توضیح‌» (XAI)، مجموعه‌ای از روش‌ها و فرآیندها است که به کاربران انسانی کمک می‌کند خروجی و عملکرد یک مدل یادگیری ماشین را درک کنند و به آن اعتماد داشته باشند. این مفهوم تلاش می‌کند توضیح دهد که چگونه مدل AI به یک نتیجه خاص رسیده و شفافیت مدل را توصیف‌پذیر می‌کند.

قابل‌تفسیر بودن هوش مصنوعی (AI Interpretability):

مدل چگونه تصمیم‌گیری می‌کند؟

قابل‌تفسیر بودن به این معناست که کل فرآیند تصمیم‌گیری مدل به‌طور کلی برای انسان قابل فهم باشد. این ویژگی اطلاعاتی درباره منطق درونی مدل، اهمیت ورودی‌ها و پیامدهای احتمالی تصمیمات آن ارائه می‌دهد. در واقع، تفسیرپذیری میزان قابل‌پیش‌بینی بودن نتایج مدل برای انسان‌هاست؛ در حالی که توضیح‌پذیری یک قدم جلوتر می‌رود و نحوه رسیدن مدل به نتیجه را دقیق‌تر بررسی می‌کند.

شفافیت در هوش مصنوعی (AI Transparency):

مدل چگونه ساخته شده، چه داده‌هایی آن را آموزش داده‌اند و چطور تصمیم‌گیری می‌کند؟

شفافیت فراتر از توضیح‌ عملکرد مدل است. این مفهوم به همه‌ی ابعاد توسعه، آموزش و به‌کارگیری یک سیستم هوش مصنوعی می‌پردازد؛ از جمله اینکه چه داده‌هایی برای آموزش استفاده شده‌اند، این داده‌ها از چه منابعی آمده‌اند و چه کسانی به آن‌ها دسترسی دارند. شفافیت، زمینه‌ای برای اعتمادسازی، پاسخ‌گویی و مسئولیت‌پذیری در استفاده از AI فراهم می‌کند.

10 ابزار متن‌ باز هوش مصنوعی برای توسعه پروژه‌ها
ابزارهای متن‌ باز هوش مصنوعی

چگونه شفافیت در هوش مصنوعی را فراهم کنیم؟

ایجاد شفافیت در سامانه‌های هوش مصنوعی، بسته به حوزه کاربرد، نوع سازمان و مخاطبان متفاوت است؛ اما برخی اصول کلی وجود دارند که می‌توانند در سراسر چرخه عمر سیستم‌های هوشمند به کار گرفته شوند. به صورت کلی، شفافیت نیازمند تعیین اصول مشخص، پیاده‌سازی آن‌ها در عمل و تعبیه این اصول در تمامی مراحل توسعه و استفاده از سامانه‌های هوش مصنوعی است.

افشای اطلاعات در تمام مراحل توسعه

یکی از موثرترین روش‌های دستیابی به شفافیت، ارائه اطلاعات شفاف در هر مرحله از چرخه عمر سامانه هوش مصنوعی است. برای انجام این کار، سازمان‌ها باید مشخص کنند که چه اطلاعاتی باید به اشتراک گذاشته شود و بهترین شیوه برای ارائه آن چیست.

چه اطلاعاتی باید مستند شود؟

نوع کاربرد مدل، صنعتی که در آن به کار گرفته می‌شود، میزان حساسیت استفاده و نوع مخاطب، همگی تعیین کننده اطلاعاتی هستند که باید افشا شوند. برای مثال، در کاربردهایی با حساسیت بالا مانند ارزیابی وام، میزان افشای اطلاعات باید بیشتر و دقیق‌تر باشد. برخی از اطلاعاتی که ممکن است لازم باشد مستند شوند.

  • نام مدل
  • هدف توسعه مدل
  • سطح ریسک
  • سیاست‌های مرتبط با مدل
  • روش تولید مدل
  • دامنه‌ی مورد استفاده
  • داده‌های آموزشی
  • دقت مدل در آموزش و آزمایش
  • بررسی‌های مربوط به سوگیری یا تبعیض
  • شاخص‌های مقاومت در برابر حملات (adversarial robustness)
  • شاخص‌های عدالت (fairness)
  • شاخص‌های قابل‌توضیح بودن (explainability)
  • اطلاعات تماس مسئول یا تیم پاسخ‌گو

اطلاعات مربوط به شفافیت می‌تواند توسط نقش‌های مختلف در زنجیره توسعه مدل (مانند تیم‌های داده، توسعه، حقوقی یا محصول) گردآوری شود تا مسئولیت‌ها در کل اکوسیستم تقسیم شود، نه اینکه تنها به یک فرد محدود باشد. ابزارهای نرم‌افزاری متعددی نیز وجود دارند که می‌توانند در خودکارسازی گردآوری این اطلاعات و انجام فعالیت‌های مرتبط با حکمرانی هوش مصنوعی مؤثر باشند.

نحوه ارائه اطلاعات شفافیت

نحوه ارائه اطلاعات شفافیت باید متناسب با مخاطب و مورد استفاده انتخاب شود. برای مثال، اگر مخاطب یک مصرف‌کننده عمومی است، اطلاعات باید به زبان ساده و قابل‌فهم ارائه شود. اما اگر مخاطب یک نهاد نظارتی یا متخصص فنی است، سطح جزئیات فنی باید بیشتر و دقیق‌تر باشد.

فرمت‌های متداول برای ارائه اطلاعات شفافیت عبارت‌اند از:

  • سند زنده (Living Document) که مشابه با «اظهارنامه انطباق» (SDoC) در صنایع مختلف عمل می‌کند
  • صفحات سیاست‌گذاری رسمی در وب‌سایت سازمان که نحوه اجرای شفافیت در سامانه‌های هوشمند را توضیح می‌دهند
  • محتواهای آموزشی مانند مستندات یا ویدیوها که به کاربران کمک می‌کنند درک بهتری از عملکرد هوش مصنوعی در محصولات داشته باشند
  • بیانیه‌های عمومی و فعالیت‌های رسانه‌ای که دیدگاه اخلاقی سازمان در زمینه هوش مصنوعی را به‌صورت رسمی اعلام می‌کنند
  • مقالات پژوهشی، داده‌نماها و گزارش‌های تحلیلی که در اختیار متخصصان و نهادهای قانونی یا علمی قرار می‌گیرند
مدل هوش مصنوعی چیست؟ کاربرد و انواع AI به زبان ساده
مدل هوش مصنوعی چیست؟

چالش‌های شفافیت در هوش مصنوعی

شفاف بودن در هوش مصنوعی مزایای زیادی دارد، اما با مشکلاتی هم همراه است. یکی از مهم‌ترین مشکلات، مسائل مربوط به امنیت و حفظ حریم خصوصی است. هر چه اطلاعات بیشتری درباره جزئیات داخلی یک سیستم هوش مصنوعی منتشر شود، هکرها راحت‌تر می‌توانند نقاط ضعف آن را پیدا کرده و سوءاستفاده کنند.

مثلاً شرکت OpenAI در گزارش فنی مدل GPT-4 اشاره به این کرد که به دلیل نگرانی‌های امنیتی و حفظ رقابت، اطلاعاتی مثل معماری مدل، اندازه، سخت‌افزار، روش آموزش و داده‌های استفاده شده را منتشر نکرده است.

این موضوع نشان می‌دهد که یکی از چالش‌های شفافیت، تعادل برقرار کردن بین شفاف بودن و محافظت از مالکیت فکری شرکت‌ها است. چالش‌های دیگر شامل این موارد هستند:

  • سخت بودن توضیح دادن برنامه‌ها و الگوریتم‌های پیچیده مانند شبکه‌های عصبی به افرادی که تخصص فنی ندارند
  • نبود استانداردهای جهانی برای شفافیت در هوش مصنوعی
چالش‌های شفافیت در هوش مصنوعی

جمع بندی

در نهایت، شفافیت در هوش مصنوعی یک ضرورت اساسی برای ایجاد اعتماد، پاسخگویی و استفاده مسئولانه از این فناوری است. با فراهم کردن دسترسی به اطلاعات دقیق درباره نحوه ساخت، آموزش و عملکرد مدل‌های هوش مصنوعی، می‌توانیم از بروز خطاها، سوگیری‌ها و تصمیم‌های ناعادلانه جلوگیری کنیم و اطمینان حاصل کنیم که هوش مصنوعی در خدمت منافع جامعه و ارزش‌های اخلاقی قرار دارد.

رعایت چارچوب‌های قانونی و استانداردهای شفافیت، همچنین استفاده از روش‌های توضیح‌پذیری و تفسیرپذیری، مسیر رسیدن به این هدف را هموار می‌سازد. در نهایت، افزایش شفافیت، نه تنها به بهبود کیفیت سیستم‌های هوش مصنوعی کمک می‌کند، بلکه زمینه‌ساز توسعه پایدار و مسئولانه این فناوری در آینده خواهد بود.