هکرها می‌توانند با سوءاستفاده از هوش مصنوعی از کاربران جاسوسی کنند

[ad_1]

دستیارهای هوش مصنوعی تقریباً از زیاد تر از یک سال پیش به‌طور گسترده در دسترس می باشند و کاربران بسیاری اطلاعات موردنیاز روزانه خود را با پشتیبانی آن‌ها کسب می‌کنند. بااین‌حال، روال پیشرفت این فناوری چندان بدون نگرانی نبوده است و اکنون محققان دعوا‌ای را ابداع کرده‌اند که می‌تواند جواب‌های اراعه‌شده توسط همه چت‌بات‌ها به‌جز Gemini را با دقت قابل‌توجهی رمزگشایی کند.

بر پایه گزارش Ars Technica، در این تکنیک از یک کانال جانبی منفعت گیری می‌شود که در همه دستیارهای هوش مصنوعی، به‌استثنای گوگل جمینای (Gemini) حاضر است. سپس نتایج نسبتاً خام به‌دست‌آمده از این طریق، با پشتیبانی مدل‌های زبان بزرگی که مخصوصاً برای این کار آموزش داده شده‌اند، اصلاح خواهد شد.

«یسروئل میرسکی»، رئیس آزمایشگاه تحقیقات هوش مصنوعی Offensive AI Research Lab توضیح می‌دهد:

«اکنون همه می‌توانند چت‌های خصوصی ارسال‌شده از ChatGPT و دیگر سرویس‌ها را بخوانند. همه یعنی هرکسی که از Wi-Fi یا LAN شما منفعت گیری می‌کند یا حتی یک عامل خرابکار در اینترنت، یعنی همه افرادی که بتوانند ترافیک شما را مشاهده کنند.»

او در ادامه می‌گوید:

«این دعوا غیرفعال است و می‌تواند بدون خبر OpenAI یا مشتری آن‌ها اتفاق بیفتد. OpenAI برای جلوگیری از این نوع حملات، ترافیک خود را رمزگذاری می‌کند، اما تحقیقات ما مشخص می کند که روش OpenAI در منفعت گیری از رمزگذاری ناقص است و به این علت محتوای مطلب‌ها آشکار می‌شود.»

تشخیص مطلب‌های هوش مصنوعی با دقت ۵۵ درصدی

1710752599 918 هکرها می‌توانند با سوءاستفاده از هوش مصنوعی از کاربران جاسوسی

هرچند حملات کانال جانبی نسبت به دیگر هک‌ها کمتر تهاجمی می باشند، اما همان گونه که در این گزارش حرف های شده است، می‌توانند تقریباً یک مطلب چت‌بات را با دقت ۵۵ درصدی استنباط کنند. با این شرایط، هر سؤالی که از مدل‌های هوش مصنوعی نظیر ChatGPT می‌سوال کرد، امکان پذیر توسط هکرها تشخیص داده شود.

به حرف های محققان، این دعوا طبق معمولً به‌علت منفعت گیری چت‌بات‌ها از داده‌های رمزگذاری‌شده تحت گفتن «توکن» رخ می‌دهد که به مدل‌های زبان بزرگ پشتیبانی می‌کند تا ورودی‌های خود را ترجمه کنند و به آن‌ها جواب دهند.

بیانیه مایکروسافت در روبه رو Copilot

1710752599 863 هکرها می‌توانند با سوءاستفاده از هوش مصنوعی از کاربران جاسوسی

مایکروسافت در بیانیه‌ای به‌طور کلی وجود این نقص در هوش مصنوعی Copilot را قبول کرده است، اما می‌گوید این نقص خطری برای اطلاعات شخصی کاربران به‌همراه ندارد. سخنگوی مایکروسافت می‌گوید:

آخرین و جدیدترین اخبار سیاسی ، اقتصادی،اجتماعی و تکنولوژی، کارگری ، ورزشی، حوادث و سلامتی ایران وجهان را در وب سایت غروب شهر دنبال کنید.

«دور از انتظار است جزئیات خاصی همانند نام‌ها به این طریق تشخیص داده شود. ما متعهد هستیم که به محافظت از مشتریان خود در برابر این حملات احتمالی پشتیبانی کنیم و با به‌روزرسانی به آن‌ها رسیدگی می کنیم.»

[ad_2]

منبع