6 اسفند 1402
تهران، خیابان آزادی، تقاطع قریب
هوش مصنوعی GPT
هوش مصنوعی یادگیری ماشین

فریب سیستم‌های تشخیص چهره آنلاین توسط حملات Deep Fake

فریب سیستم‌های تشخیص چهره آنلاین توسط حملات Deep Fake

به طور خلاصه و طبق یک گزارش جدید، مجرمان سایبری می‌توانند به راحتی با فریب دادن نرم افزارهای تشخیص چهره آنلاین، و با استفاده از Deep Fake، هویت شخص دیگری را بدزدند.

به علاوه، نسخه بعدی PyTorch از پردازنده‌های گرافیکی اپل پشتیبانی می‌کند تا توسعه‌دهندگان بتوانند شبکه‌های neural (عصبی) را بر روی لپ‌تاپ‌های خود آموزش دهند.

Sensity AI یک استارت آپ متمرکز بر مقابله با کلاهبرداری هویت، اقدام به شبیه‌سازی یک سری از حملات کرد. مهندسان، تصویرِ شخصی را از کارت شناسایی او اسکن کردند. و شباهت او را با یک شخص دیگر، بر روی تصویر چهره شخص دیگر ترسیم کردند. سپس Sensity آزمایش کرد که آیا آن‌ها می‌توانند سیستم‌های تشخیص چهره را با فریب دادن آن‌ها، به این باور که مهاجم شبیه‌سازی شده یک کاربر واقعی است، هک کنند یا خیر.

Liveness Tests

«liveness tests» با تکیه بر تصاویر یا استریم‌های ویدئویی دوربین‌ها، مثلاً مکانیزم تشخیص چهره برای باز کردن قفل تلفن همراه، سعی می‌کند هویت را به صورت بلادرنگ تأیید کند. از هر ده مورد آزمایشی، 9 نفر در حملات Deep Fake  آنلاین Sensity شکست خوردند.

Sensity از شرکت‌های که در معرض حملات Deep Fake هستند، هیچ نامی نبرد. فرانچسکو کاوالی، مدیر عملیاتی Sensity، به The Verge گفت: «ما به آن‌ها گفتیم: «ببینید، شما در برابر این نوع حمله آسیب‌پذیر هستید». و آن‌ها گفتند: «ما اهمیتی نمی‌دهیم». پس ما هم تصمیم گرفتیم آن‌را منتشر کنیم. زیرا فکر می‌کنیم چه در سطح کلی و چه در سطح سازمانی، مردم باید از این تهدیدات آگاه باشند.»

تست‌های Liveness دارای ریسک بالایی هستند، به خصوص اگر بانک‌ها یا مقامات مالیاتی آمریکا، مثلاً از آن‌ها برای احراز هویت بیومتریک خودکار استفاده کنند. با این حال، انجام این حملات همیشه آسان نیست. Sensity در گزارش خود به نیاز به تلفن همراه تخصصی برای هایجک دوربین‌های موبایل و تزریق مدل‌های از پیش ساخته شده Deep Fake اشاره کرده است.

آموزش مدل‌های هوش مصنوعی با استفاده از مزایای GPU سیلیکونی اپل

توسعه دهندگان PyTorch می‌توانند به زودی مدل‌های هوش مصنوعی را روی لپ‌تاپ‌های اپل خود آموزش دهند.

نسخه‌های جدیدتر کامپیوترهای اپل حاوی پردازنده‌های گرافیکی (GPU) سفارشی هستند. اما توسعه‌دهندگان PyTorch نتوانسته‌اند هنگام آموزش مدل‌های یادگیری ماشین، از قدرت سخت‌افزاری موجود استفاده کنند.

با این حال، با انتشار نسخه 1.12 PyTorch، آینده تغییر خواهد کرد. انجمن PyTorch در یکی از پست‌های وبلاگش در این هفته اعلام کرد: «بسیار هیجان‌زده هستیم که با همکاری تیم مهندسی متالورژی اپل، از آموزش PyTorch با شتاب‌دهنده گرافیکی در مک پشتیبانی می‌کنیم.»

«تا به حال، آموزش PyTorch در مک فقط از CPU استفاده می‌کرد. اما با نسخه جدید PyTorch v1.12، توسعه‌دهندگان و محققان می‌توانند مزایای پردازنده‌های گرافیکی سیلیکونی اپل برای آموزش مدل‌های بسیار سریع‌تر استفاده کنند». نسخه جدید به این معناست که کاربران مک می‌توانند شبکه‌های neural را بدون نیاز به رنت منابع محاسباتی (rent computational resources)، و از طریق خدمات cloud Computing آموزش دهند.

یکی از سخنگویان به ما گفت که انتظار می‌رود جدیدترین PyTorch، یعنی نسخه 1.12، در نیمه دوم ژوئن منتشر شود.

پردازنده‌های گرافیکی اپل برای آموزش مدل‌های یادگیری ماشین نسبت به پردازنده‌های آن بهینه‌تر هستند و آموزش مدل‌های بزرگ‌تر را با سرعت بیشتری آسان‌سازی می‌کنند.

داده‌های فیک برای مدل‌های پزشکی

Anthem، ارائه دهنده بیمه سلامت ایالات متحده، برای ایجاد خط لوله داده مصنوعی برای مدل‌های یادگیری ماشین، در حال کار با Google Cloud است.

نزدیک به دو پتابایت داده جعلی، با تقلید از سوابق پزشکی و پرونده‌های مراقبت‌های بهداشتی، توسط توسعه‌دهندگان هک که به اصلاح «مردم کارخانه شکلات سازی» نامیده می‌شوند. تولید می‌شود. این مجموعه داده‌های مصنوعی برای آموزش الگوریتم‌های هوش مصنوعی که می‌توانند موارد کلاهبرداری را بهتر تشخیص دهند. و خطرات امنیتی کمتری نسبت به جمع‌آوری داده‌های واقعی از بیماران داشته باشند، مورد استفاده قرار خواهند گرفت.

این مدل‌ها در نهایت داده‌های واقعی را تجزیه و تحلیل می‌کنند و می‌توانند برای مثال، با بررسی خودکار سوابق پزشکی افراد، پرونده‌های تقلبی بسازند. آنیل بات، مدیر ارشد اطلاعات Anthem، به وال استریت ژورنال گفت: «بیشتر و بیشتر در راه است… داده‌های مصنوعی قرار است از هوش مصنوعی پیشی بگیرند و در آینده، به روشی تبدیل شود که مردم عادی از هوش مصنوعی استفاده کنند.»

استفاده از داده‌های جعلی از درز مسائل مربوط به حریم خصوصی جلوگیری می‌کند و همچنین می‌تواند غرض‌ورزی را کاهش دهد. کارشناسان قبلاً به ما گفته‌اند که این نمونه‌های مصنوعی همیشه در هر برنامه یادگیری ماشینی کار نمی‌کنند.»

کریس ساکالوسکی، مدیر بخش مراقبت‌های بهداشتی و علوم زیستی ایالات متحده در Google Cloud می‌گوید: «به نظرِ ما مدل‌های داده مصنوعی در نهایت وعده داده‌های بزرگ را می‌دهند. ما فکر می‌کنیم که این در واقع همان چیزی است که صنعت را به جلو می‌برد.»

مدیر سابق هوش مصنوعی اپل به DeepMind می‌رود

مدیر سابق یادگیری ماشین در اپل، که بنا به گزارش‌ها به دلیل سیاست بازگشت به کار در این شرکت استعفا داده است، برای کار به DeepMind نقل مکان کرده است.

ایان گودفلو، «گروه پروژه‌های اسپشیال» و محرمانهiGiant را رهبری کرد و به توسعه نرم‌افزار خودروهای خودران آن کمک کرد. قبلاً گزارش شده بود که او پس از درخواست اپل از کارمندان خود برای کار حضوری به مدت سه روز در هفته از تاریخ 23 می، آن‌جا را ترک کرد. این سیاست اکنون به دلیل افزایش موارد ابتلا به کرونا به تعویق افتاده است.

به گفته بلومبرگ، او در ادامه به DeepMind خواهد پیوست. جالب این‌جاست که گودفلو طبق گزارشات، قرار است که به عنوان یک «دست اندر کار حقیقی» در آزمایشگاه تحقیقاتی مستقر در انگلستان مشغول به کار شود. او بیشتر از بابت اختراع شبکه‌های GAN (Generative Adversarial Networks)، که نوعی شبکه neural برای تولید تصاویر ساخته شده توسط هوش مصنوعی استفاده می‌شود، و از بابت کمک به نوشتن کتاب آموزشDeep Learning در سال 2015 شناخته شده است.

گودفلو بیش از سه سال مدیر اپل بود. و پیش از آن در گوگل و ® OpenAI به عنوان محقق هوش مصنوعی مشغول به کار بود.

منبع: TheRegister

Leave feedback about this

  • کیفیت
  • قیمت
  • خدمات

PROS

+
Add Field

CONS

+
Add Field
Choose Image
Choose Video
هوش مصنوعی GPT
X