کلود میتوس چیست و چه خطراتی به همراه دارد؟

در هفته‌های اخیر، دنیای هوش مصنوعی پس از ادعاهای شرکت پیشرو Anthropic در مورد مدل جدید خود، Claude Mythos، با هیجان و بحث و جدل همراه بوده است.

این شرکت می‌گوید که ابزارش می‌تواند در برخی از وظایف هک و امنیت سایبری از انسان‌ها بهتر عمل کند، که این موضوع بحث‌هایی را در میان نهادهای نظارتی، قانون‌گذاران و مؤسسات مالی درباره خطراتی که می‌تواند برای خدمات دیجیتال ایجاد کند، برانگیخته است.

چندین غول فناوری از طریق ابتکاری به نام پروژه گلس‌وینگ (Project Glasswing) به میتوس دسترسی پیدا کرده‌اند که برای تقویت مقاومت در برابر خود میتوس طراحی شده است.

اما برخی دیگر اشاره می‌کنند که این به نفع Anthropic است که ابزار خود را دارای قابلیت‌های بی‌سابقه معرفی کند، به این معنی که – مانند همیشه در مورد هوش مصنوعی – تشخیص بین ادعاهای موجه و هیاهو می‌تواند دشوار باشد.

کلود میتوس چیست؟

میتوس یکی از جدیدترین مدل‌های Anthropic است که به عنوان بخشی از سیستم هوش مصنوعی گسترده‌تر این شرکت به نام کلود (Claude) توسعه یافته است. این سیستم شامل دستیار هوش مصنوعی و خانواده مدل‌های این شرکت می‌شود که رقیب ChatGPT از OpenAI و Gemini از گوگل است.

این مدل در اوایل آوریل توسط Anthropic با نام “Mythos Preview” رونمایی شد.

محققانی که نحوه عملکرد مدل‌های هوش مصنوعی را در درخواست‌ها یا وظایف خاص آزمایش می‌کنند، که به آنها “تیم‌های قرمز” گفته می‌شود، در گزارشی اعلام کردند که میتوس “به طرز چشمگیری در وظایف امنیت رایانه توانا است.”

آنها دریافتند که این ابزار می‌تواند باگ‌های خفته را که در کدهای ده‌ها ساله پنهان شده‌اند، پیدا کرده و به راحتی از آنها سوءاستفاده کند.

بنابراین، به جای اینکه آن را به طور گسترده در دسترس کاربران کلود قرار دهد، Anthropic از طریق پروژه گلس‌وینگ به ۱۲ شرکت فناوری دسترسی داد، که آن را “تلاشی برای ایمن‌سازی حیاتی‌ترین نرم‌افزارهای جهان” توصیف کرد.

این شرکت‌ها شامل غول رایانش ابری Amazon Web Services، تولیدکنندگان دستگاه مانند Apple، Microsoft و Google، و سازندگان تراشه Nvidia و Broadcom هستند.

Crowdstrike، که به‌روزرسانی نرم‌افزاری معیوب آن باعث یک قطعی بزرگ جهانی در ژوئیه ۲۰۲۴ شد، نیز در میان شرکای این پروژه است. Anthropic می‌گوید که به بیش از ۴۰ سازمان مسئول نرم‌افزارهای حیاتی نیز دسترسی به میتوس داده است.

در ویدیویی که همزمان با راه‌اندازی پروژه گلس‌وینگ منتشر شد، داریو آمودی، رئیس Anthropic، گفت که این شرکت پیشنهاد همکاری با مقامات دولتی ایالات متحده را برای “کمک به دفاع در برابر خطر این مدل‌ها” داده است.

چرا نگرانی‌هایی وجود دارد؟

Anthropic می‌گوید در طول آزمایش‌ها دریافت که این مدل در وظایف امنیت سایبری و هک بسیار ماهر است و از انسان‌ها بهتر عمل می‌کند.

Anthropic در ۷ آوریل ادعا کرد: “Mythos Preview تاکنون هزاران آسیب‌پذیری با شدت بالا، از جمله مواردی در هر سیستم عامل اصلی و مرورگر وب، پیدا کرده است.”

“با توجه به سرعت پیشرفت هوش مصنوعی، طولی نخواهد کشید که چنین قابلیت‌هایی گسترش یابد، احتمالاً فراتر از بازیگرانی که متعهد به استقرار ایمن آنها هستند.”

این شرکت گفت که می‌تواند – بدون نظارت زیاد – باگ‌های حیاتی نیازمند اقدام فوری را در سیستم‌های قدیمی پیدا کند، از جمله یک آسیب‌پذیری که به مدت ۲۷ سال در یک سیستم وجود داشته است، و راه‌هایی برای سوءاستفاده از آنها پیشنهاد دهد.

برخی از وزرای دارایی، بانکداران مرکزی و سرمایه‌گذاران از آن زمان تاکنون نگرانی‌های جدی خود را ابراز کرده‌اند و می‌ترسند که این مدل بتواند امنیت سیستم‌های مالی را تضعیف کند.

فرانسوا-فیلیپ شامپاین، وزیر دارایی کانادا، به بی‌بی‌سی گفت که میتوس این هفته در نشست صندوق بین‌المللی پول (IMF) در واشنگتن دی‌سی مورد بحث قرار گرفته است.

او گفت: “مطمئناً به اندازه کافی جدی است که توجه همه وزرای دارایی را به خود جلب کند” و این فناوری را “ناشناخته‌ای ناشناخته” توصیف کرد.

اندرو بیلی، رئیس بانک انگلستان، به بی‌بی‌سی گفت: “ما اکنون باید با دقت بسیار زیادی بررسی کنیم که این آخرین پیشرفت هوش مصنوعی چه معنایی برای خطر جرایم سایبری می‌تواند داشته باشد.”

در همین حال، اتحادیه اروپا نیز اعلام کرده است که در حال مذاکره با Anthropic در مورد نگرانی‌های خود پیرامون میتوس است.

کارشناسان سایبری چه گفته‌اند؟

سیاران مارتین، رئیس سابق مرکز ملی امنیت سایبری بریتانیا، اوایل این هفته به بی‌بی‌سی گفت که ادعای میتوس مبنی بر توانایی کشف آسیب‌پذیری‌های حیاتی بسیار سریع‌تر از سایر مدل‌های هوش مصنوعی، “واقعاً مردم را شوکه کرده است.”

او گفت: “نکته دوم این است که حتی با ضعف‌های موجودی که می‌دانیم، اما سازمان‌ها ممکن است آنها را وصله نکرده باشند یا به خوبی در برابر آنها دفاع نکرده باشند، این یک هکر واقعاً خوب است.”

بسیاری از تحلیلگران و کارشناسان مستقل امنیت سایبری هنوز نتوانسته‌اند آن را خودشان آزمایش کنند و برخی نسبت به عملکرد میتوس تردید دارند.

مؤسسه ایمنی هوش مصنوعی بریتانیا اخیراً نتیجه گرفت که اگرچه این یک مدل بسیار قدرتمند است، اما بزرگترین تهدید آن علیه سیستم‌های ضعیف و آسیب‌پذیر خواهد بود.

محققان آن گفتند: “ما نمی‌توانیم با اطمینان بگوییم که آیا Mythos Preview قادر به حمله به سیستم‌های با دفاع قوی خواهد بود یا خیر.”

بنابراین، در جایی که امنیت سایبری خوبی وجود دارد، این مدل، در تئوری، امیدواریم متوقف شود.

آیا باید نگران آن باشیم؟

ترس‌های مربوط به هوش مصنوعی چیز جدیدی نیستند.

مدل‌ها و ابزارهای جدید دائماً در حال ظهور هستند و اغلب با وعده‌هایی برای متحول کردن زندگی ما، چه برای بهتر و چه برای بدتر، همراه هستند.

سرمایه‌گذاری بر این ترکیب ترس و هیجان در مورد هوش مصنوعی و تأثیر آینده آن نیز در سال‌های اخیر به یکی از ویژگی‌های بارز این بخش و استراتژی‌های بازاریابی آن تبدیل شده است.

در مورد میتوس، ما هنوز اطلاعات کافی نداریم تا بدانیم آیا این امیدها یا ترس‌ها موجه هستند، یا بیشتر بازتابی از هیاهوی پیرامون این صنعت است.

در هر صورت، به گفته NSCS، مهمترین کاری که اکنون می‌توانیم انجام دهیم این است که وحشت نکنیم و در عوض بر نیاز به درست انجام دادن اصول اولیه امنیت سایبری تمرکز کنیم.

بالاخره، اکثر هکرها برای نفوذ به سیستم‌ها نیازی به ابزارهای هوش مصنوعی فوق‌العاده ندارند، در حالی که حملات بسیار ساده‌تر اغلب کافی هستند.

مارتین به بی‌بی‌سی گفت: “برای برخی این یک رویداد آخرالزمانی است، برای برخی دیگر به نظر می‌رسد که هیاهوی زیادی است.”

اما او گفت که چه این ابزار باشد و چه ابزارهای بعدی ساخته شده توسط Anthropic یا رقبای آن، در کنار خطر، فرصتی برای ساختن دنیای آنلاین امن‌تر نیز وجود دارد.

او گفت: “در میان‌مدت، فرصتی برای استفاده از این ابزارها برای رفع بسیاری از آسیب‌پذیری‌های اساسی در اینترنت وجود دارد.”

برای دنبال کردن برترین داستان‌ها و روندهای فناوری جهان، در خبرنامه Tech Decoded ما ثبت‌نام کنید. خارج از بریتانیا هستید؟ اینجا ثبت‌نام کنید.

#هوش_مصنوعی #امنیت_سایبری #کلود_میتوس #Anthropic #هک #فناوری #امنیت_دیجیتال #پروژه_گلس_وینگ #ریسک_سایبری #نوآوری_AI

Leave a Reply

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *