llmjacking

پیشنهاد کاربران

ربایش مدل زبانی یا سوءاستفاده از هوش مصنوعی مولد.
به حالتی گفته می شود که در آن هکرها یا افراد غیرمجاز، با دسترسی به کلید API، حساب ابری یا تنظیمات یک مدل هوش مصنوعی ( مثل ChatGPT یا Claude ) ، از آن برای مقاصد خود استفاده می کنند یا رفتار مدل را تغییر می دهند.
...
[مشاهده متن کامل]

🔹 مثال:
در یک حمله ی LLMjacking، مهاجم با دزدیدن کلید API شرکت، از مدل هوش مصنوعی آن برای تولید محتوا و کدهای مخرب استفاده کرد.
🔸 نکته:
LLMjacking با حمله هایی مثل prompt injection فرق دارد؛ در prompt injection فقط ورودی مدل دستکاری می شود، اما در LLMjacking خودِ دسترسی به مدل یا زیرساخت ابری آن ربوده می شود.