OpenAI (Jonathan Kemper/Unsplash)

چکیده

  • سناتور سینتیا لومیس قانون RISE 2025 را برای شفافیت و تعیین مسئولیت در استفاده از هوش مصنوعی توسط حرفه‌ای‌ها معرفی کرد.
  • این قانون توسعه‌دهندگان هوش مصنوعی را ملزم به انتشار مدل کارت‌هایی می‌کند که منابع داده، موارد استفاده و محدودیت‌های سیستم‌های هوش مصنوعی را توضیح می‌دهد.
  • قانون RISE نیازی به منبع‌باز بودن مدل‌های هوش مصنوعی ندارد، اما به‌روزرسانی‌ها و توجیهات برای اطلاعات محرمانه ضروری است.

سناتور سینتیا لومیس از وایومینگ قانون مسئولیت‌پذیری و نوآوری امن (RISE) 2025 را به منظور تعیین چارچوب‌های مسئولیت برای استفاده از هوش مصنوعی توسط حرفه‌ای‌ها معرفی کرده است.

این قانون می‌تواند شفافیت را از توسعه‌دهندگان هوش مصنوعی طلب کند، اما الزام به منبع‌باز بودن مدل‌ها را ندارد.

در بیانیه‌ای، لومیس اظهار داشت که قانون RISE موجب می‌شود که حرفه‌ای‌ها مانند پزشکان، وکلا، مهندسان و مشاوران مالی همچنان مسئولیت قانونی توصیه‌های خود را حتی زمانی که توسط سیستم‌های هوش مصنوعی حمایت می‌شود، بر عهده داشته باشند.

توسعه‌دهندگان هوش مصنوعی که این سیستم‌ها را ایجاد می‌کنند، تنها در صورتی می‌توانند از مسئولیت مدنی محافظت شوند که مدل کارت‌ها را عمومی کنند.

این لایحه پیشنهادی مدل کارت‌ها را به عنوان اسناد فنی دقیقی تعریف می‌کند که منابع داده‌های آموزشی، موارد استفاده، معیارهای عملکرد، محدودیت‌های شناخته‌شده و نحوه‌های احتمالی شکست سیستم‌های هوش مصنوعی را افشا می‌کنند. همه این‌ها برای کمک به حرفه‌ای‌ها در ارزیابی مناسب بودن ابزار برای کارشان است.

لومیس در بیانیه‌ای گفت: “وایومینگ هم به نوآوری و هم به پاسخگویی ارزش می‌دهد؛ قانون RISE استانداردهایی قابل‌پیش‌بینی ایجاد می‌کند که توسعه امن‌تر هوش مصنوعی را تشویق کرده و خودمختاری حرفه‌ای را حفظ می‌کند.”

این قانون هیچ مصونیت کلی برای هوش مصنوعی ایجاد نمی‌کند و حفاظت از توسعه‌دهندگان در موارد بی‌احتیاطی، سوء عملکرد عمدی، تقلب، ارائه اطلاعات نادرست آگاهانه، یا زمانی که اقدامات خارج از دامنه تعریف‌شده استفاده حرفه‌ای باشند، مستثنی می‌شود.

همچنین، توسعه‌دهندگان تحت قانون RISE مسئولیت مداوم پاسخگویی دارند. مستندات و مشخصات هوش مصنوعی باید تا ۳۰ روز پس از استقرار نسخه‌های جدید یا کشف نحوه‌های شکست مهم به‌روزرسانی شوند، که این امر تعهدات شفافیت مداوم را تقویت می‌کند.

محدودیت در منبع‌باز بودن کامل

قانون RISE، همانطور که اکنون نوشته شده است، از الزام به منبع‌باز بودن کامل مدل‌های هوش مصنوعی خودداری می‌کند.

توسعه‌دهندگان می‌توانند اطلاعات محرمانه را نزد خود نگه دارند، اما تنها در صورتی که مطالب حذف‌شده به ایمنی مربوط نباشد و هر حذف با توجیهی کتبی برای استثنا بودن از افشای اطلاعات محرمانه همراه باشد.

در مصاحبه‌ای قبلی، سایمون کیم، مدیر عامل Hashed، درباره خطرات هوش مصنوعی متمرکز و منبع بسته‌ای که به‌نوعی جعبه سیاه است، صحبت کرد.

کیم در آن زمان گفت: “OpenAI باز نیست و توسط افراد بسیار کمی کنترل می‌شود و به همین دلیل بسیار خطرناک است. ساخت این نوع مدل‌های پایه‌ای منبع بسته مشابه ساخت ‘خدا’ است، اما ما نمی‌دانیم چگونه کار می‌کند.”

نوشته‌های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *