شرکت بازرسی کیفیت و استاندارد ایران

اعتماد به هوش مصنوعی

توسعه سیستم‌های هوش مصنوعی (AI) به سرعت در حال پیشرفت است و به همین دلیل شاهد حضور آن در بسیاری از صنایع، محصولات و خدمات هستیم. شکی نیست که هوش مصنوعی بر جوامع و زندگی ما تأثیر می‌گذارد. با توجه به این نفوذ و پیشرفت در توسعه و پذیرش سیستم‌های هوش مصنوعی، اعتماد، رفتار و نگرانی‌های اجتماعی باید مورد توجه قرار گیرد. سیستم‌های هوش مصنوعی باید قابل اعتماد و شفاف باشند که این بحث همچنان هم ادامه دارد. ما با استناد به خلاصه ای از استانداردهای موجود، استانداردهای توسعه یافته، گزارش‌ها، مقررات، ممیزی و پیشنهادات آزمایشی، دستورالعمل‌های صدور گواهینامه به خواننده کمک می‌کنیم تا با موضوع آشنا شود.

قابل اعتماد بودن هوش مصنوعی

در سال‌های اخیر، بسیاری از سازمان‌ها از دولت‌ها، صنعت و دانشگاه درباره قابلیت اعتماد سیستم‌های هوش مصنوعی بحث کرده‌اند. مقالات، پروپوزال ها و استانداردهای متعددی نیز منتشر شده است. این موضوع نشان می‌دهد که قابل اعتماد بودن سیستم‌های هوش مصنوعی در سراسر جهان جدی گرفته شده است. هوش مصنوعی اتحادیه اروپا (EU) ACT1 اولین پیشنهاد جامع برای مقررات مربوط به خطرات توسعه و کاربرد هوش مصنوعی را منتشر کرد. با این حال، این تنها سند مرتبط در خصوص اعتماد به هوش مصنوعی نیست. تقریباً تعداد بی‌شماری نشریه در سال‌های اخیر منتشر شده‌اند که این موضوع را از زوایای مختلف مورد بحث قرار داده‌اند.

قابل اعتماد بودن هوش مصنوعی

قانون هوش مصنوعی در نسخه پیش نویس خود، تعریفی را ارائه می‌دهدکه عبارت است از:

سیستم هوش مصنوعی به نرم‌افزاری اطلاق می‌شود که با یک یا چند تکنیک توسعه یافته است و می‌تواند برای یک مجموعه معین از اهداف تعریف شده توسط انسان، خروجی‌هایی مانند محتوا، پیش‌بینی‌ها، توصیه‌ها را ایجاد می‌کند.

در مرحله بعد، باید تعریف کنیم که یک سیستم هوش مصنوعی قابل اعتماد چیست؟ بنابراین، ما به تعاریف ارائه شده توسط گروه تخصصی سطح بالا در زمینه هوش مصنوعی (AI HLEG) استناد می‌کنیم. این گروه تخصصی مستقل توسط کمیسیون اروپا (EC) در ژوئن 2018 راه‌اندازی شد.

آن‌ها دستورالعمل‌های اخلاقی برای هوش‌مصنوعی قابل اعتماد را منتشر کردند که تعریف می‌کند که هوش‌مصنوعی قابل اعتماد باید دارای اجزای زیر باشد:

قانونی باشد و با تمام قوانین و مقررات قابل اجرا مطابقت داشته باشد

عاملیت و نظارت انسانی داشته باشد

استحکام فنی و ایمنی شامل انعطاف‌پذیری در برابر حمله و امنیت

حفظ حریم خصوصی، کیفیت و یکپارچگی داده‌ها

قابلیت ردیابی، توضیح پذیری و ارتباط

اجتناب از سوگیری ناعادلانه، دسترسی و طراحی جهانی

رفاه اجتماعی و زیست محیطی

هوش مصنوعی هم از منظر فنی و هم از منظر اجتماعی باید قوی باشد، زیرا حتی با نیت خوب، سیستم‌های هوش مصنوعی می‌توانند آسیب‌های غیرعمدی ایجاد کنند.

بنابراین، به عبارت دیگر، اعتماد به هوش مصنوعی را می‌توان با ارزش‌های انسان محور و عدالت که به اندازه کافی به این الزامات و ویژگی‌ها پرداخته است را ایجاد کرد. با این حال، هیچ‌گاه تعریف روشن و واضحی از الزامات کلیدی وجود ندارد.

با اتخاذ این اصول، توسعه دهندگان و سازمان ها می توانند اطمینان حاصل کنند که سیستم های هوش مصنوعی به شیوه ای مسئولانه، منصفانه و قابل اعتماد طراحی و مستقر شده اند که می‌تواند به ایجاد اعتماد و اطمینان در سیستم‌های هوش مصنوعی کمک کند و به مخاطبین این اطمینان را بدهد که مزایایی را که آن‌ها برایش طراحی شده‌اند را ارائه می‌کنند و خطرات و تأثیرات منفی را که ممکن است بر افراد و جامعه داشته باشند را به حداقل می‌رساند.

قانون هوش مصنوعی اتحادیه اروپا

برجسته ترین پیشنهاد قانونی، قانون AI Act24 است که توسط EC پیشنهاد شده است. چارچوب نظارتی پیشنهادی در مورد هوش مصنوعی شامل موارد زیر است:

  • حصول اطمینان از ایمنی و پایبندی به قوانین اتحادیه اروپا
  • حصول اطمینان از تسهیل سرمایه‌گذاری و نوآوری در هوش مصنوعی
  • تقویت حاکمیت و اجرای مؤثر قوانین موجود در خصوص اعمال سیستم‌های هوش مصنوعی
  • شناسایی و طبقه بندی بیومتریک اشخاص حقیقی
  • شناسایی اشخاص حقیقی

چگونه می‌توانیم به سیستم‌های هوش مصنوعی اعتماد کنیم؟

اطمینان از اینکه سیستم‌های هوش مصنوعی (AI) قابل اعتماد هستند، نیازمند رویکردی چند وجهی است که ذینفعان مختلفی از جمله توسعه‌دهندگان، کاربران، سیاست‌گذاران و تنظیم‌کننده‌های هوش مصنوعی را در بر می‌گیرد. چند استراتژی کلیدی که می‌تواند به ایجاد اعتماد در سیستم‌های هوش مصنوعی کمک کند عبارت است از:

طراحی اخلاق محور و مسئولانه:

سیستم‌های هوش مصنوعی باید طوری طراحی و توسعه داده شوند که اخلاقی و مسئولانه عمل کنند از به حداقل رسیدن خطرات و به حداکثر رساندن منافع حاصل از آن‌ها اطمینان شود.

قابلیت توضیح و شفافیت:

سیستم‌های هوش مصنوعی باید به گونه‌ای طراحی شوند که قابل توضیح و شفاف باشند، به طوری که کاربران بتوانند نحوه عملکرد سیستم و نحوه تصمیم‌گیری آن‌ها را درک کنند.

مسئولیت‌پذیری و نظارت:

باید خطوط مسئولیت روشنی برای توسعه، استقرار و بهره‌برداری از سیستم‌های هوش مصنوعی وجود داشته باشد که شامل حصول اطمینان از وجود مکانیسم‌های مناسب برای نظارت و ممیزی سیستم‌های هوش مصنوعی و وجود فرآیندهایی برای شناسایی و رسیدگی به هرگونه خطا یا سوگیری‌هایی است که ممکن است ایجاد شود.

استحکام و قابلیت اطمینان:

سیستم‌های هوش مصنوعی باید به گونه‌ای طراحی شوند که مستحکم و قابل اعتماد باشند که شامل حصول اطمینان از مقاوم بودن سیستم در برابر حملات سایبری، نقض داده ها و … است، و باید برنامه های اضطراری برای مقابله با هرگونه اختلال یا شکست وجود داشته باشد.

آموزش و آگاهی:

ایجاد اعتماد در سیستم های هوش مصنوعی مستلزم آموزش و آگاهی در بین کاربران و توسعه دهندگان است.

به طور خلاصه، ایجاد اعتماد در سیستم‌های هوش مصنوعی نیازمند رویکردی جامع است که شامل طراحی اخلاق محور و مسئولانه، توضیح‌پذیری و شفافیت، مسئولیت‌پذیری و نظارت، استحکام و قابلیت اطمینان، و آموزش و آگاهی می‌باشد. با اتخاذ این استراتژی‌ها، توسعه‌دهندگان و سازمان‌ها می‌توانند کمک کنند تا اطمینان حاصل شود که سیستم‌های هوش مصنوعی به شیوه‌ای مسئولانه و قابل اعتماد عمل می‌کنند و مزایایی را که برای ارائه طراحی شده‌اند ارائه می‌کنند و در عین حال خطرات و اثرات منفی را که ممکن است بر افراد و جامعه داشته باشند به حداقل برسانند.

جمع‌بندی

به طور کلی درخصوص اعتماد به هوش مصنوعی، نحوه آزمایش یا تأیید آن، موضوعی نوظهور است. تحقیقات و قوانین در این حوزه درحال تکامل است. ما در این مقاله سعی کردیم گزارشی اجمالی در دنیای نوظهور هوش مصنوعی برای شما منتشر کنیم. Isqi شرکت پیشرو در خدمات بازرسی و صدور انواع گواهینامه (TIC) در تلاش است تا خود را مطابق نیاز جهان بروز کند.

Previous slide
Next slide
مطالب بیشتر

ارسال پیام

"*" indicates required fields

نام و نام خانوادگی*
بنر وب سایت نمایشگاه نفت، گاز، پالایش و پتروشیمی
نمایشگاه توانمندی های صادراتی ایران و حضور isqi