به گزارش جوان آنلاین به نقل از آنا، در سطح جهانی، سیاست گذاران در حال بحث در مورد رویکردهای حکمرانی برای تنظیم سیستمهای خودکار، به ویژه در پاسخ به نگرانی فزاینده در مورد استفاده غیر اخلاقی از فناوریهای هوش مصنوعی مولد مانند چت جیپیتی و دال-ای هستند. قانونگذاران و تنظیمکنندهها به طور قابلتوجهی نگران ایجاد تعادل بین نیاز به محدود کردن جدیترین پیامدهای سیستمهای هوش مصنوعی بدون سرکوب نوآوری با مقررات سنگین دولتی هستند. خوشبختانه نیازی به شروع از صفر و اختراع مجدد چرخ نیست.
همانطور که در مقاله آیای با عنوان «چگونه باید هوش مصنوعی را تنظیم کنیم؟» توضیح داده شد، استاندارد «آیای IEEE ۱۰۱۲) «۱۰۱۲) برای تأیید و اعتبارسنجی سیستم، نرمافزار و سختافزار یک نقشه راه به منظور تمرکز مقررات و سایر اقدامات مدیریت ریسک ارائه میدهد.
استاندارد «آیای ۱۰۱۲» که در سال ۱۹۸۸ معرفی شد، سابقهای طولانی در استفاده عملی در محیطهای بحرانی دارد. این استاندارد برای تمام سیستمهای نرم افزاری و سخت افزاری از جمله سیستمهای مبتنی بر فناوریهای نوظهور هوش مصنوعی کاربرد دارد. «آیای ۱۰۱۲» برای تایید و اعتبارسنجی بسیاری از سیستمهای حیاتی از جمله ابزارهای پزشکی، سیستمهای تسلیحاتی وزارت دفاع آمریکا و وسایل نقلیه فضایی سرنشین دار ناسا استفاده میشود.
در بحث مدیریت ریسک و مقررات هوش مصنوعی، رویکردهای زیادی در نظر گرفته شده است. برخی بر اساس فناوریها یا حوزههای کاربردی خاص هستند، در حالی که برخی دیگر اندازه شرکت یا پایگاه کاربر آن را در نظر میگیرند. رویکردهایی وجود دارند که یا سیستمهای کم خطر را در همان دسته سیستمهای پر خطر قرار میدهند یا شکافهایی ایجاد میکنند که مقررات در آنها اعمال نمیشود. بنابراین، قابل درک است که چرا تعداد فزایندهای از پیشنهادها برای تنظیم دولتی سیستمهای هوش مصنوعی باعث سردرگمی میشود.