چکیده
- سناتور سینتیا لومیس قانون RISE 2025 را برای شفافیت و تعیین مسئولیت در استفاده از هوش مصنوعی توسط حرفهایها معرفی کرد.
- این قانون توسعهدهندگان هوش مصنوعی را ملزم به انتشار مدل کارتهایی میکند که منابع داده، موارد استفاده و محدودیتهای سیستمهای هوش مصنوعی را توضیح میدهد.
- قانون RISE نیازی به منبعباز بودن مدلهای هوش مصنوعی ندارد، اما بهروزرسانیها و توجیهات برای اطلاعات محرمانه ضروری است.
سناتور سینتیا لومیس از وایومینگ قانون مسئولیتپذیری و نوآوری امن (RISE) 2025 را به منظور تعیین چارچوبهای مسئولیت برای استفاده از هوش مصنوعی توسط حرفهایها معرفی کرده است.
این قانون میتواند شفافیت را از توسعهدهندگان هوش مصنوعی طلب کند، اما الزام به منبعباز بودن مدلها را ندارد.
در بیانیهای، لومیس اظهار داشت که قانون RISE موجب میشود که حرفهایها مانند پزشکان، وکلا، مهندسان و مشاوران مالی همچنان مسئولیت قانونی توصیههای خود را حتی زمانی که توسط سیستمهای هوش مصنوعی حمایت میشود، بر عهده داشته باشند.
توسعهدهندگان هوش مصنوعی که این سیستمها را ایجاد میکنند، تنها در صورتی میتوانند از مسئولیت مدنی محافظت شوند که مدل کارتها را عمومی کنند.
این لایحه پیشنهادی مدل کارتها را به عنوان اسناد فنی دقیقی تعریف میکند که منابع دادههای آموزشی، موارد استفاده، معیارهای عملکرد، محدودیتهای شناختهشده و نحوههای احتمالی شکست سیستمهای هوش مصنوعی را افشا میکنند. همه اینها برای کمک به حرفهایها در ارزیابی مناسب بودن ابزار برای کارشان است.
لومیس در بیانیهای گفت: “وایومینگ هم به نوآوری و هم به پاسخگویی ارزش میدهد؛ قانون RISE استانداردهایی قابلپیشبینی ایجاد میکند که توسعه امنتر هوش مصنوعی را تشویق کرده و خودمختاری حرفهای را حفظ میکند.”
این قانون هیچ مصونیت کلی برای هوش مصنوعی ایجاد نمیکند و حفاظت از توسعهدهندگان در موارد بیاحتیاطی، سوء عملکرد عمدی، تقلب، ارائه اطلاعات نادرست آگاهانه، یا زمانی که اقدامات خارج از دامنه تعریفشده استفاده حرفهای باشند، مستثنی میشود.
همچنین، توسعهدهندگان تحت قانون RISE مسئولیت مداوم پاسخگویی دارند. مستندات و مشخصات هوش مصنوعی باید تا ۳۰ روز پس از استقرار نسخههای جدید یا کشف نحوههای شکست مهم بهروزرسانی شوند، که این امر تعهدات شفافیت مداوم را تقویت میکند.
محدودیت در منبعباز بودن کامل
قانون RISE، همانطور که اکنون نوشته شده است، از الزام به منبعباز بودن کامل مدلهای هوش مصنوعی خودداری میکند.
توسعهدهندگان میتوانند اطلاعات محرمانه را نزد خود نگه دارند، اما تنها در صورتی که مطالب حذفشده به ایمنی مربوط نباشد و هر حذف با توجیهی کتبی برای استثنا بودن از افشای اطلاعات محرمانه همراه باشد.
در مصاحبهای قبلی، سایمون کیم، مدیر عامل Hashed، درباره خطرات هوش مصنوعی متمرکز و منبع بستهای که بهنوعی جعبه سیاه است، صحبت کرد.
کیم در آن زمان گفت: “OpenAI باز نیست و توسط افراد بسیار کمی کنترل میشود و به همین دلیل بسیار خطرناک است. ساخت این نوع مدلهای پایهای منبع بسته مشابه ساخت ‘خدا’ است، اما ما نمیدانیم چگونه کار میکند.”