منظور از مسموم‌سازی هوش مصنوعی
مقالات تخصصی IT و هاستینگ

مسموم‌سازی هوش مصنوعی؛ بازگشت سئوی کلاه سیاه

تحقیقات تازه نشان می‌دهد که مدل‌های زبانی بزرگ (LLMs) برخلاف تصور رایج، در برابر دستکاری آسیب‌پذیر هستند و حتی با تعداد محدودی محتوای مخرب می‌توان آن‌ها را مسموم کرد. این مسئله یادآور دوران اولیه موتورهای جستجو است؛ زمانی که سئوی کلاه سیاه با سوءاستفاده از ضعف الگوریتم‌ها رواج داشت.

امروز، با گسترش هوش مصنوعی، میدان رقابت از رتبه‌بندی گوگل به دیده‌شدن در پاسخ‌های هوش مصنوعی منتقل شده است؛ فضایی که هنوز سازوکارهای دفاعی آن به بلوغ نرسیده‌اند. همان‌گونه که در نمونه‌هایی مانند سوءاستفاده از سیستم‌های غربالگری رزومه‌های مبتنی بر هوش مصنوعی دیده می‌شود، تکنیک‌های قدیمی دستکاری دوباره در قالبی جدید بازگشته‌اند. این شرایط، تهدیدی جدی برای برندها و اعتبار اطلاعات در اکوسیستم هوش مصنوعی ایجاد می‌کند و ضرورت اتخاذ راهبردهای پیشگیرانه و هوشمندانه را بیش از پیش برجسته می‌سازد.