دانش وفناوری

Grok 3 خطرات جدی برای دنیای هوش مصنوعی و امنیت سایبری به همراه دارد

محققان شرکت امنیت سایبری Adversa AI به این نتیجه رسیده‌اند مدل هوش مصنوعی جدید Grok 3 که این هفته توسط استارتاپ xAI متعلق به «ایلان ماسک» منتشر شده، می‌تواند منجر به یک فاجعه امنیت سایبری شود. به گفته این تیم گراک 3 به شدت در برابر «جیلبریک‌های ساده» آسیب‌پذیر است و هکرها می‌توانند از این آسیب‌پذیری سوء استفاده کنند.

طبق گزارش‌های منتشر شده، «الکس پولیاکوف» مدیرعامل و هم‌بنیان‌گذار Adversa می‌گوید که هکرها از این آسیب‌پذیری ممکن است برای «افشای روش‌هایی برای فریب کودکان، دفم جسد، استخراج DMT و البته ساخت بمب» استفاده کنند. او در ایمیل خود به Futurism می‌گوید:

«موضوع فقط آسیب‌پذیری‌های سمت جیلبریک نیست، بلکه تیم امنیت هوش مصنوعی ما نقص دیگری را کشف کرده که باعث می‌شود دستورالعمل‌های سیستم Grok به‌طور فاش شود. این سطح متفاوتی از خطر است.»

او در ادامه توضیح می‌دهد که جیلبریک‌ها به هکرها اجازه می‌دهند تا محدودیت‌های محتوایی را دور بزنند، اما با نقص اشاره شده در بالا، آنها به نقشه نحوه فکرکردن مدل نیز دسترسی پیدا می‌کنند که این امر انجام سوءاستفاده‌های بیشتر در آینده را بسیار ساده‌تر می‌کند.

علاوه بر افشای روش‌های ساخت بمب به مهاجمان، پولیاکوف و تیمش هشدار می‌دهند که این آسیب‌پذیری‌ها ممکن است به هکرها اجازه دهند که کنترل عامل‌های هوش مصنوعی را به دست بگیرند. این امر آنها را قادر می‌سازند تا به نمایندگی از کاربران اقداماتی را انجام دهند و این موضوع به گفته پولیاکوف یک «بحران امنیت سایبری» رو به رشد است.

امنیت هوش مصنوعی Grok 3 با مدل‌های چینی برابری می‌کند

پولیاکوف در انتها به Futurism می‌گوید:

«نتیجه‌گیری نهایی؟ ایمنی Grok 3 ضعیف است و با LLM‌های چینی برابری می‌کند، نه با امنیت مدل‌های غربی. به نظر می‌رسد تمام این مدل‌های جدید در حال رقابت برای سرعت هستند نه امنیت، و این موضوع کاملاً مشهود است.»

Grok 3 که این هفته توسط xAI معرفی شد، با استقبال بسیار خوبی همراه بود. نتایج اولیه آزمایشات نشان داد که این مدل به سرعت در صدر جدول‌های مدل‌های زبان بزرگ (LLM) قرار گرفت و برخی از کارشناسان آن را در محدوده‌ای از مدل‌های قوی OpenAI قرار دادند. با این‌حال گزارش امروز نگرانی‌هایی را درباره آن مطرح می‌کند.


منبع:digiato.com

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا