کارشناسان راهی پیدا کرده اند که بتوانند فیلترهای ChatGPT-4O را طی کنند و دوره های فعال سازی ویندوز را دریافت کنند.


محققان آسیب پذیری را در مدلهای اطلاعاتی مصنوعی Mini TATGPT-4O و GPT-4O فاش کرده اند ، که امکان شکستن فیلترهای ایمنی یکپارچه و دریافت قفل فعال سازی ویندوز فعلی را فراهم می کند. مشکل این است که با توجه به این واقعیت که مدل های آموزش داده شده در داده های عمومی می توانند دوره های موجود در منابع عمومی را نشان دهند.
بهره برداری به عنوان بخشی از موزیلا اودین (شبکه تحقیقات 0 روزه) برای شناسایی نقاط ضعف در سیستم های AI نشان داده شده است. یکی از متخصصان شرکت کننده در این برنامه ، مدل را فریب داد ، گفتگو را به عنوان یک بازی بی ضرر در حدس زدن طراحی کرد. هدف اصلی این است که ماهیت واقعی الزامات مکانیسم بازی و کریستال HTML را پنهان کند ، بنابراین فیلترهایی را که از افشای مخفی جلوگیری می کنند ، نادیده می گیرد.



برای تقویت آسیب پذیری ، محقق قوانین دیگری را بصورت آنلاین در کادر گفتگو ایجاد کرده است: ممنوعیت پاسخ های اشتباه و تعهدات مدل برای پیروی از تمام شرایط بازی. این دام منطقی هر کسی را وادار می کند تا فیلترهای استاندارد را پرش کند ، زیرا زمینه به نظر می رسد بی خطر است.
آخرین عبارت ، من تسلیم شدم ، به عنوان یک فعال سازی کار کردم ، مدل قفل محصول را ساخت ، آخرین بار بازی را در نظر گرفت و خط مشی رازداری را نقض نکرد.
قفل های دریافت کننده شامل کدهای دارای مجوز برای نسخه های مختلف ویندوز – از خانه تا تجارت است. اگرچه خود قفل منحصر به فرد نیست و قبلاً در ملاء عام اعلام شده است ، اما به طور خودکار انتشار هوش مصنوعی بر سوراخ های مهم در معماری فیلتر محتوا تأکید می کند.
کارشناسان امنیتی خاطرنشان می کنند که چنین تکنیک هایی ممکن است برای نادیده گرفتن سایر محدودیت ها اعمال شود – به عنوان مثال ، فیلترهای مربوط به محتوای بزرگسالان ، پیوندهای سمی یا داده های شخصی. آسیب پذیری ناتوانی مدل های هوش مصنوعی را برای توضیح دقیق زمینه نشان می دهد ، مبدل به عنوان بی ضرر یا فنی.