printlogo


هوش مصنوعی و تهدیدات بالقوه
با پیشرفت‌های روزافزون در زمینه هوش مصنوعی(AI)، نگرانی‌ها درباره خطرات احتمالی این فناوری نیز به‌سرعت در حال افزایش است. وبسایت «جامائیکاگلینر» اخیرا گزارشی منتشر کرده و به بررسی این مسئله پرداخته و توضیح می‌دهد چگونه قدرت محاسباتی بالای سیستم‌های هوش مصنوعی می‌تواند منجر به ایجاد تهدیدات جدی شود.

درحال حاضر، قانون‌گذاران و تنظیم‌کنندگان در تلاشند تا با استفاده از معیار‌های مختلف،این فناوری را تحت نظارت قرار دهند و از بروز خطرات بالقوه جلوگیری کنند.‌ یکی ازجنبه‌های کلیدی که موجب نگرانی است، قدرت محاسباتی فوق‌العاده بالا برای آموزش سیستم‌های هوش مصنوعی است. این سیستم‌ها نیاز به پردازش میلیارد‌ها داده دارند که برای انجام این کار به حجم عظیمی از محاسبات نیاز است. به‌عنوان مثال، یک سیستم هوش مصنوعی ممکن است برای پردازش وتحلیل داده‌هابه میلیارد‌ها یا حتی تریلیون‌ها عملیات ریاضی نیاز داشته باشد. این سطح از محاسبات می‌تواند به سیستم‌های هوش مصنوعی قدرتی بدهد که قادر به ایجاد سلاح‌های کشتار جمعی یا انجام حملات سایبری گسترده باشد.‌
درپاسخ به این نگرانی‌ها، دولت‌ها و سازمان‌های نظارتی درحال توسعه قوانین و مقرراتی هستند که هدف آنها محدود کردن و نظارت بر توانایی‌های هوش مصنوعی است. به‌عنوان مثال، فرمان اجرایی که سال گذشته توسط جو بایدن، رئیس‌جمهور ایالات متحده، امضا شد، بر آستانه‌های محاسباتی تمرکز دارد و پیش‌نویس‌هایی را برای تعیین مدل‌های هوش مصنوعی که نیاز به نظارت ویژه دارند، ارائه می‌دهد. قانون ایمنی هوش مصنوعی کالیفرنیا که قرار است تا پایان سپتامبر ۲۰۲۴ توسط فرماندار این ایالت امضا یا وتو شود، یک معیاردیگربه این معادله اضافه می‌کند:هزینه ساخت مدل‌های هوش مصنوعی باید حداقل۱۰۰میلیون دلار باشد.‌در سطح بین‌المللی، اتحادیه اروپا و چین نیز به استفاده از معیار‌های محاسباتی برای نظارت بر سیستم‌های هوش مصنوعی پرداخته‌اند. قانون جامع هوش مصنوعی اتحادیه اروپا، با استفاده از محاسبات ممیز شناور، آستانه‌ای معادل۱۰به توان ۲۵ را برای سیستم‌های هوش مصنوعی تعیین کرده است، در‌حالی‌که چین نیز به‌قدرت محاسباتی توجه ویژه‌ای دارد. این معیار‌ها به‌منظور جلوگیری از بروز خطرات جدی در سیستم‌های هوش مصنوعی طراحی شده‌اند.‌با‌این‌حال، برخی از منتقدان این مقررات معتقدند که آستانه‌های محاسباتی تعیین‌شده ممکن است ناکافی و کوته‌نگرانه باشند. آنها بر این باورند که این معیار‌ها نمی‌توانند به‌طور موثر ریسک‌های واقعی و پیچیده‌ای که ممکن است در آینده بروز کنند را شناسایی کنند. به‌عنوان مثال، سارا هوکر،دانشمند علوم کامپیوتر و مدیر بخش تحقیقات شرکت Cohere، تاکید می‌کندکه استفاده ازمعیار‌های ساده مانند تعدادعملیات‌های ریاضی(فلاپس) برای ارزیابی ریسک‌های هوش مصنوعی ممکن است به‌طور کامل نتواند خطرات واقعی را پیش‌بینی کند. ‌ 
در‌نهایت، با‌توجه‌به سرعت بالای پیشرفت فناوری هوش مصنوعی، ضروری است نظارت و قوانین مرتبط با این حوزه به‌طور مداوم به‌روزرسانی شوند. این نظارت نه‌تنها باید بر اساس معیار‌های محاسباتی بلکه براساس ارزیابی‌های دقیق‌تر از توانایی‌ها و ریسک‌های بالقوه سیستم‌های هوش مصنوعی باشد. 

علیرضا نظری - پژوهشگر رسانه‌ای