“پتانسیل تضعیف دموکراسی”: نهادهای تجاری ناشر اروپایی خواستار اقدام در مورد هوش مصنوعی مولد هستند | کتاب ها

سه نهاد بزرگ تجارت ناشر اروپایی از اتحادیه اروپا خواسته اند که به خاطر «زنجیره کتاب و دموکراسی» در مورد شفافیت هوش مصنوعی «هم اکنون» اقدام کند.

با شروع بزرگترین نمایشگاه کتاب جهان در فرانکفورت، یک نمایشگاه آنلاین بیانیه که در روز چهارشنبه منتشر شد، از قانون‌گذاران خواست تا «از فرصت» قانون هوش مصنوعی اتحادیه اروپا استفاده کنند – که سیستم‌های هوش مصنوعی را بر اساس خطری که برای کاربران ایجاد می‌کند طبقه‌بندی می‌کند و بر این اساس مقررات را اعمال می‌کند – تا از شفافیت هوش مصنوعی مولد اطمینان حاصل کنند و آن را «تبدیل کنند». امن تر برای شهروندان اروپایی.

شورای نویسندگان اروپا، فدراسیون ناشران اروپایی و فدراسیون کتابفروشان اروپایی و بین المللی این بیانیه را امضا کردند. این امر پس از تجزیه و تحلیل آتلانتیک نشان داد که آثار غیرقانونی نویسندگانی مانند زادی اسمیت و استفان کینگ برای آموزش ابزارهای هوش مصنوعی که توسط شرکت‌هایی مانند متا و بلومبرگ اداره می‌شوند، استفاده شده است.

در این بیانیه آمده است: «مدل‌های هوش مصنوعی مولد به شیوه‌ای غیرشفاف و غیرمنصفانه توسعه داده شده‌اند و به‌طور غیرقانونی از میلیون‌ها کتاب محافظت‌شده با حق چاپ بدون اجازه نویسندگان یا ناشران استفاده می‌کنند». «این رویه نه تنها بر صاحبان حقوق، بلکه بر خود دموکراسی نیز تأثیر منفی می‌گذارد، با تسهیل ایجاد انبوه محتوای گمراه‌کننده، جانبدارانه و حتی خطرناک که پتانسیل تضعیف دموکراسی اروپایی را دارد.»

از تبلیغات قبلی خبرنامه رد شوید

این سه سازمان استدلال کردند که شفافیت برای توسعه یک “اکوسیستم هوش مصنوعی عادلانه و ایمن” ضروری است و گفتند که قانون هوش مصنوعی “فرصتی ایده آل” برای اتحادیه اروپا است تا “نقشی پیشرو در حفاظت از شهروندان خود” ایفا کند. در صورت تصویب، این قانون اولین چارچوب قانونی جامع برای مقررات هوش مصنوعی خواهد بود.

بر اساس این قانون که قرار است تا پایان سال نهایی شود، سیستم‌های هوش مصنوعی بر اساس خطراتی که برای کاربران ایجاد می‌کنند به چهار گروه غیرقابل قبول، زیاد، محدود و حداقل یا بدون خطر طبقه‌بندی می‌شوند. برای مدل‌های پایه – که زیربنای ابزارهای هوش مصنوعی مولد مانند ChatGPT هستند – شرکت‌ها ملزم به افشای خلاصه‌ای از منابع داده مورد استفاده برای آموزش هستند.

این سه نهاد تجاری گفتند که این الزام پیشنهادی “گام اول خوب” است و از کشورهای عضو و کمیسیون خواستند تا “پیشنهاد را بهبود بخشند و در نهایت به سوء استفاده از منابع غیرقانونی و داده‌شویی توسعه دهندگان هوش مصنوعی مولد پایان دهند.” آنها افزودند که شفافیت “تنها راه برای تضمین کیفیت و مشروعیت خروجی ها” است.

در ادامه بیانیه آمده است: «تعهدات شفافیت معنی‌داری که به دارندگان حقوق اجازه می‌دهد ارزیابی کنند که آیا از کارشان استفاده شده است یا خیر، برای اپراتورهای خلاق هوش مصنوعی به راحتی رعایت می‌شود.» استفاده از آن‌ها از نظر فن‌آوری ساده است و به داده‌هایی که توسعه‌دهندگان هوش مصنوعی قبلاً جمع‌آوری و سازماندهی کرده‌اند تکیه می‌کنند. و اکنون به آن‌ها نیاز است، زیرا آسیب‌هایی وارد شده است زیرا مدل‌های متن مولد موجود سال‌ها از آثار بدون رضایت، اعتبار یا غرامت به نویسندگان و ناشران استفاده می‌کردند.»

مطالب مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *