به تازگی، مشخص شده است که ChatGPT Search، موتور جستجوی جدید OpenAI، به ویژه در برابر دستکاریها آسیب پذیر است.
بر اساس تحقیقی از The Guardian، این موتور جستجو میتواند از طریق تکنیکهایی مانند «تزریق دستورات» (prompt injection) تحت تأثیر قرار گیرد. در این روش، دستورالعملهای پنهانی در صفحات وب گنجانده میشوند که میتوانند پاسخهای ChatGPT را دستکاری کنند؛ این دستکاریها میتوانند از تبلیغات نادرست محصولات تا انتشار کدهای مخرب متغیر باشند.
این آسیب پذیری به نحوه خلاصه سازی صفحات وب توسط ChatGPT مرتبط است. دستورالعملهای پنهان در این صفحات میتوانند باعث شوند مدل هوش مصنوعی اطلاعات نادرست یا نامطلوبی ارائه دهد.
این خطرات برای کاربران ChatGPT Search جدی است. به عنوان مثال، در گذشته، یک کاربر از ChatGPT درخواست کمک برنامه نویسی کرده بود که کد ارائه شده منجر به سرقت اطلاعات ورود و از دست رفتن ۲۵۰۰ دلار ارز دیجیتال شد.
متخصصان امنیتی تأکید میکنند که خطرات مرتبط با استفاده از مدلهای زبانی بزرگ (LLM) از گذشته وجود داشته و در حال افزایش است. آنها به کاربران توصیه میکنند که پاسخهای تولیدشده را با احتیاط و نگاه انتقادی بررسی کنند.
با وجود این خطرات، کارشناسان ChatGPT Search را گامی مهم در توسعه موتورهای جستجوی مبتنی بر هوش مصنوعی میدانند. آنها انتظار دارند که امنیت این فناوری در آینده بهبود یابد. OpenAI هنوز به یافتههای The Guardian واکنشی نشان نداده است.