توافق تاریخی اتحادیه اروپا در زمینه توسعه هوش مصنوعی
اتحادیه اروپا به توافقی تاریخی در زمینه توسعه هوش مصنوعی دست یافته است که اروپا را در خط مقدم تلاشهای مقررات فناوری قرار میدهد.
به گزارش واشنگتنپست، روز گذشته پس از یک مناظره ماراتنگونه ۷۲ ساعته، قانونگذاران اتحادیه اروپا به توافقی تاریخی در مورد لایحه توسعه ایمنی قانون هوش مصنوعی خود دست یافتند که گستردهترین و دوربردترین در نوع خود تا به امروز است. جزئیات این لایحه اکنون در دسترس قرار گرفته است.
دراگوش تودوراچه، قانونگذار رومانیایی که مذاکره قانون هوش مصنوعی را رهبری میکند، به واشنگتن پست گفت: این قانون یک استاندارد، یک مدل برای بسیاری از حوزههای قضایی دیگر را نشان میدهد. این بدان معناست که وقتی آن را تهیه میکنیم، باید مراقبت بیشتری داشته باشیم، زیرا برای بسیاری دیگر تأثیرگذار خواهد بود.
این مقررات پیشنهادی، راههایی را تعیین میکنند که در آن مدلهای یادگیری ماشینی آینده میتوانند در بلوک تجاری توسعه و توزیع شوند و بر استفاده از آنها در برنامههای مختلف از آموزش گرفته تا اشتغال و مراقبتهای بهداشتی تأثیر بگذارد.
توسعه هوش مصنوعی بسته به میزان خطر اجتماعی که به طور بالقوه ایجاد میکند، میان چهار دسته خطر حداقلی، خطر محدود، پرخطر و ممنوع تقسیم میشود.
استفادههای پرخطر شامل هر چیزی است که به عنوان مؤلفه ایمنی محصول مورد استفاده قرار میگیرد یا در برنامههای کاربردی تعریفشده مانند زیرساختهای حیاتی، آموزش، مسائل حقوقی/قضایی و استخدام کارمندان مورد استفاده قرار میگیرد.
همچنین چتباتهایی مانند ChatGPT، Bard و Bing تحت معیارهای «خطر محدود» قرار میگیرند.
دکتر برندی نونک مدیر آزمایشگاه سیاست CITRIS در دانشگاه برکلی میگوید: کمیسیون اروپا بار دیگر به شیوهای جسورانه برای رسیدگی به فناوریهای نوظهور قدم برداشته است، درست مانند کاری که با حفظ حریم خصوصی دادهها از طریق GDPR انجام داده است.
وی افزود: این مقررات پیشنهادی بسیار جالب است، زیرا مشابه با آنچه در چارچوب نظارتی پیشنهادی هوش مصنوعی کانادا پیشنهاد شده است، از یک رویکرد مبتنی بر خطر به موضوع رسیدگی میکند.
مذاکرات جاری بر سر قوانین پیشنهادی در هفتههای اخیر توسط فرانسه، آلمان و ایتالیا مختل شده بود. بحثها بر سر قوانینی بود که چگونه کشورهای عضو اتحادیه اروپا میتوانند مدلهای بنیادی، هوش مصنوعی تعمیمیافتهای را توسعه دهند که میتوان از آنها برنامههای تخصصیتر را تنظیم کرد.
مدل GPT-۴ توسعه یافته توسط شرکت OpenAI یکی از این مدلهای بنیادی است، زیرا چتبات ChatGPT، مدلهای GPT و سایر برنامههای شخص ثالث همگی از عملکرد پایه آن آموزش دیدهاند. این سه کشور نگران این بودند که مقررات سختگیرانه اتحادیه اروپا در مورد مدلهای هوش مصنوعی مولد میتواند تلاشهای کشورهای عضو برای توسعه رقابتی آنها را مختل کند.
اتحادیه اروپا قبلاً به چالشهای فزاینده مدیریت فناوریهای هوش مصنوعی نوظهور از طریق تلاشهای مختلف پرداخته بود و اولین استراتژی اروپایی در مورد هوش مصنوعی و برنامه هماهنگ شده در مورد هوش مصنوعی را در سال ۲۰۱۸ منتشر کرد و به دنبال آن دستورالعملهایی برای هوش مصنوعی قابل اعتماد در سال ۲۰۱۹ منتشر شد.
کمیسیون اروپا در پیشنویس جدید مقررات هوش مصنوعی خود آورده است: هوش مصنوعی نباید به خودی خود یک هدف باشد، بلکه ابزاری است که باید با هدف نهایی افزایش رفاه انسان به مردم خدمت کند. قوانین مربوط به هوش مصنوعی موجود در بازار اتحادیه بر شهروندان اروپایی تأثیر میگذارد، بنابراین باید مردم را در مرکز توجه قرار دهند(انسانمحور باشند) تا بتوان اعتماد کرد که این فناوری به گونهای استفاده میشود که ایمن و مطابق با قانون، از جمله احترام به حقوق اساسی باشد.
در ادامه آمده است: در عین حال، چنین قوانینی برای هوش مصنوعی باید متعادل و متناسب باشد و به شکل غیر ضروری، توسعه فناوری را محدود یا مانع نشوند. این موضوع از اهمیت ویژهای برخوردار است، زیرا اگرچه هوش مصنوعی در بسیاری از جنبههای زندگی روزمره مردم وجود دارد، نمیتوان تمام کاربردهای احتمالی آن را که ممکن است در آینده رخ دهد، پیشبینی کرد.
اخیراً کمیسیون اروپا همکاری داوطلبانهای را با اعضای صنعت برای ایجاد قوانین داخلی آغاز کرده است که به شرکتها و تنظیمکنندهها اجازه میدهد تا تحت همان قوانین اساسی مورد توافق عمل کنند.
تیری برتون رئیس بخش صنعت کمیسیون اروپا در بیانیهای در ماه مه گفت: ساندار پیچای مدیر عامل گوگل و من توافق کردیم که نمیتوانیم منتظر بمانیم تا مقررات هوش مصنوعی واقعاً قابل اجرا شود و با همه توسعهدهندگان هوش مصنوعی همکاری کنیم تا پیش از موعد قانونی، یک پیمان هوش مصنوعی به صورت داوطلبانه ایجاد کنیم.
کمیسیون اروپا همچنین وارد گفتگوهای مشابهی با شرکتهای مستقر در ایالات متحده شده است.
نظر شما