آیا قوانین جدید، خدمات هوش مصنوعی اوپن ای‌آی را در اروپا متوقف می‌کند؟

شنبه ۱۴۰۲/۰۳/۰۶

سم آلتمن، مدیرعامل «اوپن ای‌آی» (OpenAI) هشدار داد شرکت او ممکن است در واکنش به قوانین در حال تدوین اتحادیه اروپا درباره هوش مصنوعی، خدمات خود را در کشورهای اروپایی متوقف کند.

آلتمن پس از یک سخنرانی در جمع خبرنگاران در لندن گفت که «نگرانی‌های زیادی» در خصوص قانون هوش مصنوعی اتحادیه اروپا دارد؛ قانونی که به گفته مقامات اروپایی در حال طی کردن مراحل نهایی تدوین مقررات است.

طی ماه‌های گذشته شرایط دربرگیرنده این قانون با هدف شمول تعهدات تازه برای سازندگان «مدل‌های بنیادی» هوش مصنوعی گسترش یافته است.

این اصطلاح برای سیستم‌های هوش مصنوعی در مقیاس بزرگ که موجب ارائه خدماتی مانند چت جی‌پی‌تی (Chat-GPT) و «دالی» (DALL-E) می‌شود، به کار می‌رود.

به گزارش روزنامه فایننشال‌تایمز، آلتمن تاکید کرده است آنچه اهمیت دارد، جزییات این قانون است.

به گفته او، شرکتش تلاش می‌کند تا خود را با این قانون تطبیق دهد اما اگر نتواند، فعالیتش را در اروپا متوقف خواهد کرد.

یک روز پس از انتشار این نقل قول‌ها، آلتمن در توییتر خود تلاش کرد تا این بار با لحنی ملایم‌تر، از گفت‌وگوی سازنده خود با مقامات اروپایی خبر دهد.

او همچنین تاکید کرد اوپن ای‌آی برنامه‌ای برای خروج از این بازار ندارد.

با وجود این، مدیرعامل اوپن ای‌آی در گفت‌وگوی دیگری که یک روز پیش از آن با مجله تایم داشت گفت نگران این است که سیستم‌هایی مانند چت جی‌پی‌تی در قانون اتحادیه اروپا به عنوان سیستم‌هایی با «ریسک بالا» تعریف شوند؛ در این صورت این شرکت باید برخی ملاحظات ایمنی و شفافیت را برآورده کند.

آلتمن در این گفت‌وگو با طرح این مساله که «یا می‌توانیم این الزامات را حل کنیم یا نه»، تاکید کرده است برای برآورده کردن برخی انتظارات قانونی، محدودیت‌های فنی وجود دارد.

علاوه بر چالش‌های فنی، الزام اعلام منابع مورد استفاده که در قانون هوش مصنوعی اتحادیه اروپا به آن اشاره شده است نیز می‌تواند تهدیدات تجاری متعددی را برای اوپن ای‌آی به همراه بیاورد.

در پیش‌نویس فعلی این قانون، سازندگان مدل‌های بنیادی هوش مصنوعی موظف‌اند جزییات مرتبط با طراحی سیستم خود را افشا کنند.

این جزییات شامل مواردی مانند قدرت محاسباتی مورد نیاز، مدت زمان آموزش و اطلاعات مرتبط دیگری نظیر قدرت و اندازه مدل یاد شده می‌شود.

همچنین توسعه‌دهندگان این‌گونه مدل‌ها باید خلاصه‌ای از داده‌های دارای حق نشر را که برای آموزش هوش مصنوعی استفاده شده است، ارائه کنند.

شرکت اوپن ای‌آی در گذشته این جزییات را منتشر می‌کرد اما حالا چند ماهی است که این روال را متوقف کرده.

ایلیا ساتسکور، یکی از بنیانگذاران این مجموعه، انتشار این جزییات را اشتباه توصیف کرده و عقیده دارد مخفی نگه داشتن این اطلاعات برای جلوگیری از کپی‌برداری رقیبان از محصولات این شرکت ضروری است.

علاوه بر آن، وادار کردن اوپن ای‌آی به انتشار منابع مورد استفاده برای آموزش مدل هوش مصنوعی خود می‌تواند این شرکت را با خطر شکایت از سوی صاحبان محتوای دارای حق نشر مواجه کند.

هوش‌های مصنوعی مولد مانند چت جی‌پی‌تی و دالی به واسطه مقادیر بسیار زیادی از محتوا که بخش بزرگی از آن‌ها از وب‌سایت‌های دارای حق نشر گردآوری شده است، آموزش دیده‌اند.

انتشار جزییات این منابع، شرکت‌های یاد شده را با خطر شکایت از سوی صاحبان این محتوا روبه‌رو می‌کند.

در یک نمونه، «استبیلیتی ای‌آی» (Stability AI)، رقیب اوپن ای‌آی به دلیل استفاده از محتوایی دارای حق نشر به وسیله شرکت «گتی ایمجز» مورد شکایت قرار گرفته است.

آلتمن پیش از این به سیاستمداران آمریکایی گفته بود مقررات مربوط به هوش مصنوعی باید روی سیستم‌های آینده این حوزه که قدرت بیشتری دارند متمرکز شود.

این در حالی است که قانون هوش مصنوعی اتحادیه اروپا بیشتر روی قابلیت‌های فعلی این‌گونه سیستم‌ها متمرکز است.

خبرهای بیشتر

پربیننده‌ترین ویدیوها

سیاست با مراد ویسی
خبرها
گفت‌وگوی ویژه
خبرها

شنیداری

پادکست‌ها