این برچسبها میتوانند هوش مصنوعی را در تشخیص اشیا فریب دهند!
دانشمندان حوزه کامپیوتر برای مدت زیادی مشغول توسعه تصاویر خاصی بودهاند که چشمهای هوش مصنوعی را فرپب میدهد. این تصاویر و طرحها که تحت عنوان «تصاویر محرمانه» شناخته میشوند از ضعفهای شیوهای که کامپیوترها به کمک آن دنیا را میبینند استفاده میکنند تا حضور چیزهایی که وجود ندارد را به آنها القا کنند. در واقع اگر در آینده خواستید سیستمهای دید هوش مصنوعی را گول بزنید، ممکن است استیکرهای اینچنین به شما کمک کنند.
از این تصاویر میتوانید به عنوان توهمات بصری یاد کنید که هوش مصنوعی را هدف گرفتهاند و به این ترتیب میتوان به طور مثال آنها را درون شیشه قرارداد تا سیستمهای شناسایی چهره را گول بزنند یا آنها را روی اشیاء فیزیکی چاپ کرد و حالا محققان گوگل از آنها استیکر ساختهاند.
ماه گذشته مقالهای در خصوص شیوه تولید آنها چاپ شد و با اینکه این کار یک پیشرفت انقلابی محسوب نمیشود، قدم درستی به سمت جلو است. همانطور که این تصاویر محرمانه را میتوان در خانه هم چاپ کرد (حتی خودتان هم میتوانید این کار را انجام دهید)، به طرز قابلتوجهی قابلانعطاف هم هستند.
برخلاف دیگر حملههای محرمانه، لازم نیست که نسبت به تصویری که میخواهند وجودش را نفی کنند تغییر داده شوند. همچنین اهمیتی ندارد که در کدام نقطه از دامنه دید هوش مصنوعی قرار بگیرند. ویدئوی طرز کار آن در عمل را میتوانید در پایین ببینید. در این مورد استفاده، استیکر باعث میشود که هوش مصنوعی فکر کند بهجای موز یک تستر را میبیند:
همانطور که محققان مینویسند، استیکر به حملهکنندگان اجازه میدهد که بدون داشتن هرگونه اطلاعی از شرایط نوردهی، زاویه دوربین، نوع موجودیتی که به آن حمله میکنند یا حتی دیگر اشیاء حاضر درصحنه به هوش مصنوعی حمله فیزیکی کنند. پس بعدازاینکه چنین تصویری ایجاد شد، میتوان آنها را در اینترنت پخش کرد تا حملهکنندگان از آنها پرینت گرفته و مورداستفاده قرارشان دهند.
به همین علت است که محققان هوش مصنوعی نگران چنین متدهایی هستند چراکه ممکن است برای حمله به سیستمهایی نظیر خودروهای بدون نیاز به راننده استفاده شوند. استیکر کوچکی را تصور کنید که با چسبانده شدن به گوشه راه باعث میشود که خودروی سدان هوشمند شما فکر کند یک علامت توقف را دیده است؛ یا استیکر دیگری که از شناسایی شما توسط سیستمهای نظارت و مراقبت جلوگیری میکند.
محققانمعتقدند حتی اگر انسانها بتوانند به این استیکرها توجه کنند، ممکن است هدف پشت آنها را ندانند و فکر کنند که نوعی از هنر و زیبایی محسوب میشود. البته فعلاً لازم نیست که نگران حملات اینچنین باشیم. بااینکه «تصاویر محرمانه» میتوانند به طرز نگرانکنندهای مؤثر واقع شوند، یک حقه جادویی نیستند که همیشه بر تمام سیستمهای هوش مصنوعی تأثیر داشته باشند.
پچهای شبیه به استیکر گوگل برای ساختهشدن به زمان و تلاش نیاز دارند و در بیشتر موقع سازنده باید به کد سیستمهای بینایی که آن را هدف میگیرد نیز دسترسی داشته باشد. مشکلی که تحقیقات اینچنین سعی در نشان دادنشان دارند، این است که این حملات بهمرورزمان انعطافپذیرتر و مؤثرتر میشوند. شاید این استیکرها تنها یک شروع باشند.