هشدار مهندس گوگل/ این اطلاعات را هرگز به هوش مصنوعی ندهید

در شرایطی که ابزارهای هوش مصنوعی با سرعتی چشمگیر در حال نفوذ به جنبه‌های مختلف زندگی روزمره، از برنامه‌نویسی گرفته تا یادداشت‌برداری و مدیریت کارها هستند، دغدغه حفظ حریم خصوصی کاربران بیش از گذشته اهمیت پیدا کرده است. یکی از مهندسان امنیت گوگل با هشدار نسبت به تهدیدهایی مانند نشت اطلاعات و سوءاستفاده مجرمان سایبری، چهار عادت کلیدی را برای صیانت از داده‌های شخصی هنگام استفاده از ابزارهای مبتنی بر هوش مصنوعی پیشنهاد کرده است.

این خبر حاوی محتوای صوتی یا تصویری است. برای جزییات بیشتر به منبع خبر مراجعه کنید
خلاصه خبر

تینا مزدکی_هرش وارشنی، مهندس شاغل در بخش امنیت هوش مصنوعی کروم در گوگل، تاکید می‌کند که ابزارهای هوش مصنوعی به سرعت به یک شریک خاموش در زندگی روزمره ما تبدیل شده‌اند و برای کارهایی چون تحقیق عمیق، کدنویسی و جستجوهای آنلاین بسیار مفید هستند. اما به دلیل ماهیت شغلی‌اش در تیم امنیت، او نسبت به نگرانی‌های حریم خصوصی مرتبط با استفاده از هوش مصنوعی کاملاً آگاه است.

او که پیش از این در تیم حفظ حریم خصوصی گوگل کار می‌کرده، هشدار می‌دهد که مدل‌های هوش مصنوعی برای تولید پاسخ‌های مفید از داده‌ها استفاده می‌کنند و کاربران باید از اطلاعات خصوصی خود محافظت کنند تا نهادهای مخرب مانند مجرمان سایبری و کارگزاران داده نتوانند به آن‌ها دسترسی پیدا کنند. در این راستا، این متخصص امنیت چهار عادت را معرفی می‌کند که برای محافظت از داده‌ها در حین استفاده از هوش مصنوعی ضروری هستند:

۱. با هوش مصنوعی مانند یک کارت پستال عمومی رفتار کنید

گاهی اوقات، یک حس نادرست از صمیمیت با هوش مصنوعی باعث می‌شود افراد اطلاعاتی را به صورت آنلاین به اشتراک بگذارند که هرگز در حالت عادی این کار را نمی‌کردند. اگرچه شرکت‌های هوش مصنوعی دارای کارمندانی هستند که برای بهبود جنبه‌های حریم خصوصی مدل‌هایشان تلاش می‌کنند، اما به هیچ وجه توصیه نمی‌شود جزئیاتی مانند اطلاعات کارت اعتباری، شماره‌های شناسایی، آدرس منزل، سوابق پزشکی شخصی یا سایر اطلاعات هویتی (Personally Identifiable Information - PII) را با چت‌بات‌های عمومی به اشتراک بگذارید.

بسته به نسخه‌ای که استفاده می‌شود، اطلاعاتی که با چت‌بات‌های عمومی به اشتراک گذاشته می‌شود، می‌تواند برای آموزش مدل‌های آتی و تولید پاسخ‌های مرتبط‌تر مورد استفاده قرار گیرد. این موضوع می‌تواند منجر به "نشت آموزشی" (Training Leakage) شود، جایی که مدل، اطلاعات شخصی یک کاربر را حفظ می‌کند و بعداً آن را در پاسخ به کاربر دیگری بازگو می‌کند. علاوه بر این، خطر نقض داده‌ها وجود دارد که می‌تواند اطلاعات به اشتراک گذاشته شده با چت‌بات را فاش کند.

به گفته وارشنی، کاربران باید با چت‌بات‌های هوش مصنوعی مانند یک کارت پستال عمومی رفتار کنند. اگر فردی حاضر نیست اطلاعاتی را روی یک کارت پستال بنویسد که ممکن است توسط هر کسی دیده شود، نباید آن را با یک ابزار عمومی هوش مصنوعی به اشتراک بگذارد.

۲. بدانید کجا هستید

تشخیص اینکه از یک ابزار هوش مصنوعی عمومی استفاده می‌کنید یا یک ابزار در سطح سازمانی (Enterprise-grade)، بسیار مهم است. در حالی که مشخص نیست مکالمات چگونه برای آموزش مدل‌های عمومی استفاده می‌شوند، شرکت‌ها می‌توانند برای مدل‌های «سازمانی» هزینه پرداخت کنند. در این مدل‌ها، معمولاً مکالمات کاربران برای آموزش استفاده نمی‌شود و بنابراین برای کارمندان امن‌تر است که در مورد کارهای خود و پروژه‌های شرکت صحبت کنند.

ادامه این مطلب را در «۴ قانون طلایی برای استفاده ایمن از هوش مصنوعی»، بخوانید.

۵۸۳۲۳

نظرات کاربران
ارسال به صورت ناشناس
اخبار داغ