کد خبر: 1192269
تاریخ انتشار: ۲۵ مهر ۱۴۰۲ - ۱۳:۱۶
قانونگذاران و تنظیم‌کننده‌ها به طور قابل‌توجهی نگران ایجاد تعادل بین نیاز به محدود کردن جدی‌ترین پیامد‌های سیستم‌های هوش مصنوعی بدون سرکوب نوآوری با مقررات سنگین دولتی هستند.

به گزارش جوان آنلاین به نقل از آنا، در سطح جهانی، سیاست گذاران در حال بحث در مورد رویکرد‌های حکمرانی برای تنظیم سیستم‌های خودکار، به ویژه در پاسخ به نگرانی فزاینده در مورد استفاده غیر اخلاقی از فناوری‌های هوش مصنوعی مولد مانند چت جی‌پی‌تی و دال-ای هستند. قانونگذاران و تنظیم‌کننده‌ها به طور قابل‌توجهی نگران ایجاد تعادل بین نیاز به محدود کردن جدی‌ترین پیامد‌های سیستم‌های هوش مصنوعی بدون سرکوب نوآوری با مقررات سنگین دولتی هستند. خوشبختانه نیازی به شروع از صفر و اختراع مجدد چرخ نیست.

همانطور که در مقاله آی‌ای با عنوان «چگونه باید هوش مصنوعی را تنظیم کنیم؟» توضیح داده شد، استاندارد «آی‌ای IEEE ۱۰۱۲) «۱۰۱۲) برای تأیید و اعتبارسنجی سیستم، نرم‌افزار و سخت‌افزار یک نقشه راه به منظور تمرکز مقررات و سایر اقدامات مدیریت ریسک ارائه می‌دهد.

استاندارد «آی‌ای ۱۰۱۲» که در سال ۱۹۸۸ معرفی شد، سابقه‌ای طولانی در استفاده عملی در محیط‌های بحرانی دارد. این استاندارد برای تمام سیستم‌های نرم افزاری و سخت افزاری از جمله سیستم‌های مبتنی بر فناوری‌های نوظهور هوش مصنوعی کاربرد دارد. «آی‌ای ۱۰۱۲» برای تایید و اعتبارسنجی بسیاری از سیستم‌های حیاتی از جمله ابزار‌های پزشکی، سیستم‌های تسلیحاتی وزارت دفاع آمریکا و وسایل نقلیه فضایی سرنشین دار ناسا استفاده می‌شود.

در بحث مدیریت ریسک و مقررات هوش مصنوعی، رویکرد‌های زیادی در نظر گرفته شده است. برخی بر اساس فناوری‌ها یا حوزه‌های کاربردی خاص هستند، در حالی که برخی دیگر اندازه شرکت یا پایگاه کاربر آن را در نظر می‌گیرند. رویکرد‌هایی وجود دارند که یا سیستم‌های کم خطر را در همان دسته سیستم‌های پر خطر قرار می‌دهند یا شکاف‌هایی ایجاد می‌کنند که مقررات در آن‌ها اعمال نمی‌شود. بنابراین، قابل درک است که چرا تعداد فزاینده‌ای از پیشنهاد‌ها برای تنظیم دولتی سیستم‌های هوش مصنوعی باعث سردرگمی می‌شود.

نظر شما
جوان آنلاين از انتشار هر گونه پيام حاوي تهمت، افترا، اظهارات غير مرتبط ، فحش، ناسزا و... معذور است
تعداد کارکتر های مجاز ( 200 )
پربازدید ها
پیشنهاد سردبیر
آخرین اخبار