“پتانسیل تضعیف دموکراسی”: نهادهای تجاری ناشر اروپایی خواستار اقدام در مورد هوش مصنوعی مولد هستند | کتاب ها
سه نهاد بزرگ تجارت ناشر اروپایی از اتحادیه اروپا خواسته اند که به خاطر «زنجیره کتاب و دموکراسی» در مورد شفافیت هوش مصنوعی «هم اکنون» اقدام کند.
با شروع بزرگترین نمایشگاه کتاب جهان در فرانکفورت، یک نمایشگاه آنلاین بیانیه که در روز چهارشنبه منتشر شد، از قانونگذاران خواست تا «از فرصت» قانون هوش مصنوعی اتحادیه اروپا استفاده کنند – که سیستمهای هوش مصنوعی را بر اساس خطری که برای کاربران ایجاد میکند طبقهبندی میکند و بر این اساس مقررات را اعمال میکند – تا از شفافیت هوش مصنوعی مولد اطمینان حاصل کنند و آن را «تبدیل کنند». امن تر برای شهروندان اروپایی.
شورای نویسندگان اروپا، فدراسیون ناشران اروپایی و فدراسیون کتابفروشان اروپایی و بین المللی این بیانیه را امضا کردند. این امر پس از تجزیه و تحلیل آتلانتیک نشان داد که آثار غیرقانونی نویسندگانی مانند زادی اسمیت و استفان کینگ برای آموزش ابزارهای هوش مصنوعی که توسط شرکتهایی مانند متا و بلومبرگ اداره میشوند، استفاده شده است.
در این بیانیه آمده است: «مدلهای هوش مصنوعی مولد به شیوهای غیرشفاف و غیرمنصفانه توسعه داده شدهاند و بهطور غیرقانونی از میلیونها کتاب محافظتشده با حق چاپ بدون اجازه نویسندگان یا ناشران استفاده میکنند». «این رویه نه تنها بر صاحبان حقوق، بلکه بر خود دموکراسی نیز تأثیر منفی میگذارد، با تسهیل ایجاد انبوه محتوای گمراهکننده، جانبدارانه و حتی خطرناک که پتانسیل تضعیف دموکراسی اروپایی را دارد.»
این سه سازمان استدلال کردند که شفافیت برای توسعه یک “اکوسیستم هوش مصنوعی عادلانه و ایمن” ضروری است و گفتند که قانون هوش مصنوعی “فرصتی ایده آل” برای اتحادیه اروپا است تا “نقشی پیشرو در حفاظت از شهروندان خود” ایفا کند. در صورت تصویب، این قانون اولین چارچوب قانونی جامع برای مقررات هوش مصنوعی خواهد بود.
بر اساس این قانون که قرار است تا پایان سال نهایی شود، سیستمهای هوش مصنوعی بر اساس خطراتی که برای کاربران ایجاد میکنند به چهار گروه غیرقابل قبول، زیاد، محدود و حداقل یا بدون خطر طبقهبندی میشوند. برای مدلهای پایه – که زیربنای ابزارهای هوش مصنوعی مولد مانند ChatGPT هستند – شرکتها ملزم به افشای خلاصهای از منابع داده مورد استفاده برای آموزش هستند.
این سه نهاد تجاری گفتند که این الزام پیشنهادی “گام اول خوب” است و از کشورهای عضو و کمیسیون خواستند تا “پیشنهاد را بهبود بخشند و در نهایت به سوء استفاده از منابع غیرقانونی و دادهشویی توسعه دهندگان هوش مصنوعی مولد پایان دهند.” آنها افزودند که شفافیت “تنها راه برای تضمین کیفیت و مشروعیت خروجی ها” است.
در ادامه بیانیه آمده است: «تعهدات شفافیت معنیداری که به دارندگان حقوق اجازه میدهد ارزیابی کنند که آیا از کارشان استفاده شده است یا خیر، برای اپراتورهای خلاق هوش مصنوعی به راحتی رعایت میشود.» استفاده از آنها از نظر فنآوری ساده است و به دادههایی که توسعهدهندگان هوش مصنوعی قبلاً جمعآوری و سازماندهی کردهاند تکیه میکنند. و اکنون به آنها نیاز است، زیرا آسیبهایی وارد شده است زیرا مدلهای متن مولد موجود سالها از آثار بدون رضایت، اعتبار یا غرامت به نویسندگان و ناشران استفاده میکردند.»