این لایحه که هاولی آن را هفته گذشته ارائه کرده است، قصد دارد افراد را در ایالاتمتحده از پیشبرد قابلیتهای هوشمصنوعی در جمهوری خلق چین و برای اهداف دیگر منع کند. تحلیلگران میگویند این قانون پیشنهادی در صورت تصویب میتواند بهطور موثر استفاده از «دیپسیک» را که رقیب نوظهور هوشمصنوعی آمریکایی برآمده از چین است، در ایالاتمتحده غیرقانونی کند.
مفاد کلیدی و پیامدهای دانلود «دیپسیک»
براساس قانون پیشنهادی هاولی، «فناوری یا مالکیت معنوی» توسعه یافته در چین از وارد شدن به ایالاتمتحده منع خواهد شد و هرکسی که این محدودیتها را نقض کند، ممکن است با ۲۰سال زندان و همچنین جریمههای مالی قابلتوجهی تا یکمیلیون دلار برای افراد و ۱۰۰میلیون دلار برای شرکتها روبهرو شود. به گفته بن بروکس، پژوهشگر هوشمصنوعی هاروارد، این اقدام به عنوان تهاجمیترین اقدام قانونی در مورد هوشمصنوعی تا به امروز شناخته میشود. اگرچه این لایحه چندان جدی گرفته نشده اما این واقعیت را نشان میدهد که احساس نگرانی در کنگره آمریکا پدید آمده است. قانونگذاران آمریکایی نگران سرعت و مقیاس رشد «دیپسیک» هستند که معرفی آن در هفته گذشته موجب سقوط یک تریلیون دلاری سهام بازار آمریکا شد. «دیپسیک» با ارائه عملکرد در سطح بالا با هزینه کم برای توسعه، توجهات بینالمللی را به خود جلب کرده است. «دیپسیک» از منابع بسیار کمتری نسبتبه دیگر چتباتها نظیر «چتجیپیتی» استفاده میکند و کارایی آن باعث ایجاد ترس در دولت آمریکا شده است چراکه نشان میدهد شرکتهای فناوری آمریکایی احتمالا در حال هدر دادن میلیاردها دلار پول هستند، به خصوص اگر این جایگزینهای کوچکتر به همان اندازه توانمند باشند. قانونگذاران همچنین نگران هستند که پیشرفتهای هوشمصنوعی در چین بتواند فناوریهای نظامی یا نظارتی چین را تسریع کند. هاولی و برخی همکارانش استدلال میکنند که ممنوعیت صادرات یا واردات هوشمصنوعی مرتبط با چین از امنیت ملی و همچنین منافع اقتصادی ایالاتمتحده محافظت میکند. به گزارش واشنگتن پست، هاولی و سناتور الیزابت وارن از سرعت کند اقدامات دولت بایدن قبل از اعمال محدودیتهای جدید بر صادرات تراشههای هوشمصنوعی با کارایی بالا به چین در سال۲۰۲۲ انتقاد کردند. هاولی و وارن در درخواستی به کنگره نوشتند: «چندین دولت به خاطر منافع شرکتها در بهروزرسانی و اجرای بهموقع کنترلهای صادراتی ما شکست خوردهاند و ما نمیتوانیم اجازه دهیم که این ادامه یابد.»
تاثیر بر فناوری ایالاتمتحده و نقش نامشخص «انویدیا»
از طرفی شرکت «انویدیا» یکی از پیشروترین تولیدکنندگان تراشه هوشمصنوعی در جهان به کانون این بحث تبدیل شده است. سهام آن در بزرگترین زیان یک روزه تاریخ سقوط کرده و این پرسش را مطرح کرد که آیا این غول تامینکننده هوشمصنوعی به تامین تراشهها برای شرکتهای چینی ادامه خواهد داد یا خیر. برخی قانونگذاران استدلال میکنند که اجازه فعالیت به یک ابزار هوشمصنوعی چینی در ایالاتمتحده میتواند همان مسائل مربوط به حریم خصوصی و امنیتی را در مورد برنامه «تیکتاک» ایجاد کند. اگرچه کنگره آمریکا سال گذشته ممنوعیت این برنامه را تصویب کرد اما این محدودیت همچنان در هالهای از ابهام قرار دارد، تا حدی به این دلیل که ترامپ از حمایت اولیه خود عقبنشینی کرد و تصمیم گرفت آن را اجرا نکند. با توجه به لوایح جدیدی مانند لایحه پیشنهادی «هاولی» که به نظر میرسد واردات و استفاده از هوشمصنوعی چینی را محدود یا حتی جرمانگاری میکند، امکان دستیابی به یک قانون جامع را به یک پرسش بیپاسخ تبدیل میکند. منتقدان استدلال میکنند که انگیزه قانونگذاران تا حدی برای حمایت از بازارهای ایالاتمتحده در برابر تهدیدات رقابتی به جای پرداختن به نگرانیهای امنیت ملی است. با این وجود، با توجه به اختلالات «دیپسیک» و وضعیت شکننده بازارهای مرتبط با هوشمصنوعی، احتمالا این فشارها ادامه خواهد داشت. صرفنظر از اینکه ممنوعیت رسمی «دیپسیک» تحقق یابد یا خیر، مقدمه این لایحه بر شدت نظارت بر هوشمصنوعی چینی تاکید میکند و میتواند سیاستهای فناوری آینده را در ایالاتمتحده شکل دهد.
شکست کامل مدل جنجالی
از سوی دیگر محققان دانشگاه «پنسیلوانیا» و شرکت سیسکو دریافتند مدل هوشمصنوعی «دیپسیک» در برابر حملات مرتبط با ایمنی بهشدت آسیبپذیر بوده و حتی یک تست ایمنی را هم با موفقیت پشت سر نگذاشته است. در گزارشی که نخستینبار «Wired» منتشر کرد، مشخص شد «دیپسیک» نتوانسته هیچیک از ۵۰پرسش مخرب را که از مجموعه داده «HarmBench» انتخاب شده بودند، مسدود کند. این مجموعه شامل درخواستهایی در زمینه جرائم سایبری، انتشار اطلاعات نادرست، فعالیتهای غیرقانونی و محتوای مضر است. در حالی که دیگر مدلهای برتر هوشمصنوعی حداقل تا حدی در برابر این حملات مقاومت نشان دادند، «دیپسیک» کامل شکست خورد. شرکت «دیپسیک» مدعی است مدل R1 آن میتواند با رقبای بزرگی مانندOpenAI رقابت کند، آن هم با هزینهای بسیار پایینتر. البته تردیدهایی در این زمینه وجود دارد و به نظر میرسد هزینه تولید پاسخهای این مدل اصلا پایین نیست. ظاهرا صرفهجویی در هزینه آموزش، بهای سنگینی در امنیت داشته است. بدون هیچ مانعی میتوان برای انتشار اطلاعات نادرست، آموزش ساخت مواد منفجره یا اجرای دیگر حملات سایبری از این مدل سوءاستفاده کرد. محققان همچنین پیشتر افشا کردند «دیپسیک» پایگاه داده بزرگ و غیرایمنی شامل دادههای داخلی رمزنگاری نشده، تاریخچه چتها و اطلاعات «بکاند» را روی سرورهای خود در دسترس قرار داده بود. الکس پولیاکوف، مدیرعامل شرکت «Adversa AI» در این زمینه گفت: «دیپسیک فقط نمونهای از این حقیقت است که هر مدل هوشمصنوعی قابل هک شدن است؛ فقط مساله زمان و تلاش است. اگر تیم شما مداوم مدل را از نظر ایمنی بررسی نکند، از قبل آسیبپذیر شدهاید.» باتوجه به اهمیت امنیت و ایمنی در هوشمصنوعی و تاثیرات آن بر کاربران، «دیپسیک» باید بهسرعت روی بهبود تدابیر محافظتی خود کار کند. در غیراین صورت، احتمال دارد مدلهای آن بهدلیل ضعف ایمنی از بازار کنار گذاشته شوند و اعتماد کاربران و سرمایهگذاران را از دست بدهند.