هوش مصنوعی و تهدیدات بالقوه
با پیشرفتهای روزافزون در زمینه هوش مصنوعی(AI)، نگرانیها درباره خطرات احتمالی این فناوری نیز بهسرعت در حال افزایش است. وبسایت «جامائیکاگلینر» اخیرا گزارشی منتشر کرده و به بررسی این مسئله پرداخته و توضیح میدهد چگونه قدرت محاسباتی بالای سیستمهای هوش مصنوعی میتواند منجر به ایجاد تهدیدات جدی شود.
درحال حاضر، قانونگذاران و تنظیمکنندگان در تلاشند تا با استفاده از معیارهای مختلف،این فناوری را تحت نظارت قرار دهند و از بروز خطرات بالقوه جلوگیری کنند. یکی ازجنبههای کلیدی که موجب نگرانی است، قدرت محاسباتی فوقالعاده بالا برای آموزش سیستمهای هوش مصنوعی است. این سیستمها نیاز به پردازش میلیاردها داده دارند که برای انجام این کار به حجم عظیمی از محاسبات نیاز است. بهعنوان مثال، یک سیستم هوش مصنوعی ممکن است برای پردازش وتحلیل دادههابه میلیاردها یا حتی تریلیونها عملیات ریاضی نیاز داشته باشد. این سطح از محاسبات میتواند به سیستمهای هوش مصنوعی قدرتی بدهد که قادر به ایجاد سلاحهای کشتار جمعی یا انجام حملات سایبری گسترده باشد.
درپاسخ به این نگرانیها، دولتها و سازمانهای نظارتی درحال توسعه قوانین و مقرراتی هستند که هدف آنها محدود کردن و نظارت بر تواناییهای هوش مصنوعی است. بهعنوان مثال، فرمان اجرایی که سال گذشته توسط جو بایدن، رئیسجمهور ایالات متحده، امضا شد، بر آستانههای محاسباتی تمرکز دارد و پیشنویسهایی را برای تعیین مدلهای هوش مصنوعی که نیاز به نظارت ویژه دارند، ارائه میدهد. قانون ایمنی هوش مصنوعی کالیفرنیا که قرار است تا پایان سپتامبر ۲۰۲۴ توسط فرماندار این ایالت امضا یا وتو شود، یک معیاردیگربه این معادله اضافه میکند:هزینه ساخت مدلهای هوش مصنوعی باید حداقل۱۰۰میلیون دلار باشد.در سطح بینالمللی، اتحادیه اروپا و چین نیز به استفاده از معیارهای محاسباتی برای نظارت بر سیستمهای هوش مصنوعی پرداختهاند. قانون جامع هوش مصنوعی اتحادیه اروپا، با استفاده از محاسبات ممیز شناور، آستانهای معادل۱۰به توان ۲۵ را برای سیستمهای هوش مصنوعی تعیین کرده است، درحالیکه چین نیز بهقدرت محاسباتی توجه ویژهای دارد. این معیارها بهمنظور جلوگیری از بروز خطرات جدی در سیستمهای هوش مصنوعی طراحی شدهاند.بااینحال، برخی از منتقدان این مقررات معتقدند که آستانههای محاسباتی تعیینشده ممکن است ناکافی و کوتهنگرانه باشند. آنها بر این باورند که این معیارها نمیتوانند بهطور موثر ریسکهای واقعی و پیچیدهای که ممکن است در آینده بروز کنند را شناسایی کنند. بهعنوان مثال، سارا هوکر،دانشمند علوم کامپیوتر و مدیر بخش تحقیقات شرکت Cohere، تاکید میکندکه استفاده ازمعیارهای ساده مانند تعدادعملیاتهای ریاضی(فلاپس) برای ارزیابی ریسکهای هوش مصنوعی ممکن است بهطور کامل نتواند خطرات واقعی را پیشبینی کند.
درنهایت، باتوجهبه سرعت بالای پیشرفت فناوری هوش مصنوعی، ضروری است نظارت و قوانین مرتبط با این حوزه بهطور مداوم بهروزرسانی شوند. این نظارت نهتنها باید بر اساس معیارهای محاسباتی بلکه براساس ارزیابیهای دقیقتر از تواناییها و ریسکهای بالقوه سیستمهای هوش مصنوعی باشد.
علیرضا نظری - پژوهشگر رسانهای