به طور خلاصه و طبق یک گزارش جدید، مجرمان سایبری میتوانند به راحتی با فریب دادن نرم افزارهای تشخیص چهره آنلاین، و با استفاده از Deep Fake، هویت شخص دیگری را بدزدند.
به علاوه، نسخه بعدی PyTorch از پردازندههای گرافیکی اپل پشتیبانی میکند تا توسعهدهندگان بتوانند شبکههای neural (عصبی) را بر روی لپتاپهای خود آموزش دهند.
Sensity AI یک استارت آپ متمرکز بر مقابله با کلاهبرداری هویت، اقدام به شبیهسازی یک سری از حملات کرد. مهندسان، تصویرِ شخصی را از کارت شناسایی او اسکن کردند. و شباهت او را با یک شخص دیگر، بر روی تصویر چهره شخص دیگر ترسیم کردند. سپس Sensity آزمایش کرد که آیا آنها میتوانند سیستمهای تشخیص چهره را با فریب دادن آنها، به این باور که مهاجم شبیهسازی شده یک کاربر واقعی است، هک کنند یا خیر.
Liveness Tests
«liveness tests» با تکیه بر تصاویر یا استریمهای ویدئویی دوربینها، مثلاً مکانیزم تشخیص چهره برای باز کردن قفل تلفن همراه، سعی میکند هویت را به صورت بلادرنگ تأیید کند. از هر ده مورد آزمایشی، 9 نفر در حملات Deep Fake آنلاین Sensity شکست خوردند.
Sensity از شرکتهای که در معرض حملات Deep Fake هستند، هیچ نامی نبرد. فرانچسکو کاوالی، مدیر عملیاتی Sensity، به The Verge گفت: «ما به آنها گفتیم: «ببینید، شما در برابر این نوع حمله آسیبپذیر هستید». و آنها گفتند: «ما اهمیتی نمیدهیم». پس ما هم تصمیم گرفتیم آنرا منتشر کنیم. زیرا فکر میکنیم چه در سطح کلی و چه در سطح سازمانی، مردم باید از این تهدیدات آگاه باشند.»
تستهای Liveness دارای ریسک بالایی هستند، به خصوص اگر بانکها یا مقامات مالیاتی آمریکا، مثلاً از آنها برای احراز هویت بیومتریک خودکار استفاده کنند. با این حال، انجام این حملات همیشه آسان نیست. Sensity در گزارش خود به نیاز به تلفن همراه تخصصی برای هایجک دوربینهای موبایل و تزریق مدلهای از پیش ساخته شده Deep Fake اشاره کرده است.
آموزش مدلهای هوش مصنوعی با استفاده از مزایای GPU سیلیکونی اپل
توسعه دهندگان PyTorch میتوانند به زودی مدلهای هوش مصنوعی را روی لپتاپهای اپل خود آموزش دهند.
نسخههای جدیدتر کامپیوترهای اپل حاوی پردازندههای گرافیکی (GPU) سفارشی هستند. اما توسعهدهندگان PyTorch نتوانستهاند هنگام آموزش مدلهای یادگیری ماشین، از قدرت سختافزاری موجود استفاده کنند.
با این حال، با انتشار نسخه 1.12 PyTorch، آینده تغییر خواهد کرد. انجمن PyTorch در یکی از پستهای وبلاگش در این هفته اعلام کرد: «بسیار هیجانزده هستیم که با همکاری تیم مهندسی متالورژی اپل، از آموزش PyTorch با شتابدهنده گرافیکی در مک پشتیبانی میکنیم.»
«تا به حال، آموزش PyTorch در مک فقط از CPU استفاده میکرد. اما با نسخه جدید PyTorch v1.12، توسعهدهندگان و محققان میتوانند مزایای پردازندههای گرافیکی سیلیکونی اپل برای آموزش مدلهای بسیار سریعتر استفاده کنند». نسخه جدید به این معناست که کاربران مک میتوانند شبکههای neural را بدون نیاز به رنت منابع محاسباتی (rent computational resources)، و از طریق خدمات cloud Computing آموزش دهند.
یکی از سخنگویان به ما گفت که انتظار میرود جدیدترین PyTorch، یعنی نسخه 1.12، در نیمه دوم ژوئن منتشر شود.
پردازندههای گرافیکی اپل برای آموزش مدلهای یادگیری ماشین نسبت به پردازندههای آن بهینهتر هستند و آموزش مدلهای بزرگتر را با سرعت بیشتری آسانسازی میکنند.
دادههای فیک برای مدلهای پزشکی
Anthem، ارائه دهنده بیمه سلامت ایالات متحده، برای ایجاد خط لوله داده مصنوعی برای مدلهای یادگیری ماشین، در حال کار با Google Cloud است.
نزدیک به دو پتابایت داده جعلی، با تقلید از سوابق پزشکی و پروندههای مراقبتهای بهداشتی، توسط توسعهدهندگان هک که به اصلاح «مردم کارخانه شکلات سازی» نامیده میشوند. تولید میشود. این مجموعه دادههای مصنوعی برای آموزش الگوریتمهای هوش مصنوعی که میتوانند موارد کلاهبرداری را بهتر تشخیص دهند. و خطرات امنیتی کمتری نسبت به جمعآوری دادههای واقعی از بیماران داشته باشند، مورد استفاده قرار خواهند گرفت.
این مدلها در نهایت دادههای واقعی را تجزیه و تحلیل میکنند و میتوانند برای مثال، با بررسی خودکار سوابق پزشکی افراد، پروندههای تقلبی بسازند. آنیل بات، مدیر ارشد اطلاعات Anthem، به وال استریت ژورنال گفت: «بیشتر و بیشتر در راه است… دادههای مصنوعی قرار است از هوش مصنوعی پیشی بگیرند و در آینده، به روشی تبدیل شود که مردم عادی از هوش مصنوعی استفاده کنند.»
استفاده از دادههای جعلی از درز مسائل مربوط به حریم خصوصی جلوگیری میکند و همچنین میتواند غرضورزی را کاهش دهد. کارشناسان قبلاً به ما گفتهاند که این نمونههای مصنوعی همیشه در هر برنامه یادگیری ماشینی کار نمیکنند.»
کریس ساکالوسکی، مدیر بخش مراقبتهای بهداشتی و علوم زیستی ایالات متحده در Google Cloud میگوید: «به نظرِ ما مدلهای داده مصنوعی در نهایت وعده دادههای بزرگ را میدهند. ما فکر میکنیم که این در واقع همان چیزی است که صنعت را به جلو میبرد.»
مدیر سابق هوش مصنوعی اپل به DeepMind میرود
مدیر سابق یادگیری ماشین در اپل، که بنا به گزارشها به دلیل سیاست بازگشت به کار در این شرکت استعفا داده است، برای کار به DeepMind نقل مکان کرده است.
ایان گودفلو، «گروه پروژههای اسپشیال» و محرمانهiGiant را رهبری کرد و به توسعه نرمافزار خودروهای خودران آن کمک کرد. قبلاً گزارش شده بود که او پس از درخواست اپل از کارمندان خود برای کار حضوری به مدت سه روز در هفته از تاریخ 23 می، آنجا را ترک کرد. این سیاست اکنون به دلیل افزایش موارد ابتلا به کرونا به تعویق افتاده است.
به گفته بلومبرگ، او در ادامه به DeepMind خواهد پیوست. جالب اینجاست که گودفلو طبق گزارشات، قرار است که به عنوان یک «دست اندر کار حقیقی» در آزمایشگاه تحقیقاتی مستقر در انگلستان مشغول به کار شود. او بیشتر از بابت اختراع شبکههای GAN (Generative Adversarial Networks)، که نوعی شبکه neural برای تولید تصاویر ساخته شده توسط هوش مصنوعی استفاده میشود، و از بابت کمک به نوشتن کتاب آموزشDeep Learning در سال 2015 شناخته شده است.
گودفلو بیش از سه سال مدیر اپل بود. و پیش از آن در گوگل و ® OpenAI به عنوان محقق هوش مصنوعی مشغول به کار بود.
منبع: TheRegister
Leave feedback about this