باشگاه روی خوش زندگی
کد : 2732-2627      تاریخ انتشار : ۱۳۹۵ دوشنبه ۲۹ شهريور تعداد بازدید : 461
ابداع روشی جدید برای تشخیص تصاویر بلور یا تار شده
بسیاری از تصاویری که درفضای مجازی می‌بینم همچون پلاک خودرو یا تصاویر سانسور شده، بخاطر درز نکردن اطلاعات خصوصی یا سری، با استفاده از برنامه‌هایی به اصطلاح بلور یا تار شده‌اند و عملا تشخیص قسمت بلور شده غیرممکن می‌نماید. اما به نظر این روش دیگر امنیت بالایی ندارد. چونکه پژوهشگران دانشگاه‌های تگزاس و کورنل موفق به توسعه‌ی روشی شده‌اند که با دقت بالایی قادر به شناسایی تصاویر بلور یا تار شده، است.

 

بسیاری از تصاویری که درفضای مجازی می‌بینم همچون پلاک خودرو یا تصاویر سانسور شده، بخاطر درز نکردن اطلاعات خصوصی یا سری، با استفاده از برنامه‌هایی به اصطلاح بلور یا تار شده‌اند و عملا تشخیص قسمت بلور شده غیرممکن می‌نماید. اما به نظر این روش دیگر امنیت بالایی ندارد. چونکه پژوهشگران دانشگاه‌های تگزاس و کورنل موفق به توسعه‌ی روشی شده‌اند که با دقت بالایی قادر به شناسایی تصاویر بلور یا تار شده، است.

 

 

به گزارش ال‌جی و به نقل از زومیت، اعضای این تیم سه‌نفره با استفاده از ابزار‌های ساده‌ی یادگیری عمیق، با دقت بالایی، قادر به شناسایی چهره‌ها و اعداد نامشخص و مبهم شدند. در داخل یک مجموعه از داده‌های استاندارد که احتمال شناسایی یک چهره توسط انسان، در حدود ۰.۱۹ درصد است، این الگوریتم از دقت ۷۱ درصدی بهره می‌برد و چنانچه الگوریتم فرصت ۵ بار حدس زدن داشته باشد، دقت آن به ۸۳ درصد خواهد رسید. گفتنی است که الگوریتم، تصویر را از حالت بلور خارج نمی‌کند و صرفا براساس اطلاعاتی که دارد، آنچه را که از تصویر مبهم می‌بیند، شناسایی می‌کند. راهکار جدید ارائه شده توسط پژوهشگرها بر روی تصاویر بلور، پیکسلی شده و P3 که نوعی از رمزگذاری JPEG به عنوان روشی ایمن جهت پنهان‌سازی اطلاعات است، عمل می‌کند. 

 

در طی سال جاری ابزارهای مختلفی برای شناسایی تصاویر بلور و پیکسلی توسعه داده شده‌اند که یکی از آنها متدی است که توسط پژوهشگران موسسه‌ی مکس پلانک برای شناسایی تصویر بلور شده‌ی افراد در فیسبوک، ایجاد شده است. اما آنچه که راهکار جدید توسعه‌ داده شده توسط پژوهشگران دانشگاه‌های تگزاس و کورنل را از این متد متمایز می‌سازد، سادگی آن است. در راهکار جدید از کتابخانه‌ی منبع باز یادگیری عمیق Torch، الگوها و داده‌های استاندارد منبع باز آن استفاده می‌شود.

 

 

ویتالی اشماتیکوف، پروفسور دانشگاه کورنل می‌گوید:

ما از یک راهکار ضعیف استفاده کردیم، با این تفاوت که آن را با مجموعه‌ای از داده‌های آموزشی، شبکه‌ی عصبی و الگوریتم‌های استاندارد شناسایی تصویر ترکیب کردیم، اما با این راهکار قادر به ثبت نتایج خوبی بودیم.

 

اشماتیکوف اذعان دارد که راهکار توسعه داده شده توسط موسسه‌ی مکس پلانک متفاوت‌تر بوده و ظرافت بیشتری دارد، چرا که این راهکار سررشته‌ها و سرنخ‌های متنی موجود در خصوص هویت را نیز به حساب می‌آورد. اما وی می‌گوید راهکار ساده‌تر او، نشانگر این موضوع است که این متدهای امنیتی تا چه حد ضعیف و غیر قابل اتکا است، با این حال وی به این موضوع اشاره نداشته است که راهکار او در یک تست قیاسی، تا ۱۸ درصد دقت بیشتری داشته است.

 

برای توسعه‌ی راهکار جدید جهت شناسایی چهره‌ها در ویدئوهای یوتیوب، پژوهشگران تصاویری را که به صورت عمومی در دسترس بودند، توسط ابزار ویدئوی یوتیوب بلور می‌کردند. در نهایت هر دو نسخه از مجموعه‌ی تصاویر را وارد الگوریتم خود می‌کردند تا این الگوریتم مرتبط ساختن الگوهای بلور را با چهره‌های واضح، بیاموزد. الگوریتم پس از دریافت تصاویر مختلف یک شخص، با دقت ۵۷ درصد یا ۸۵ درصد، در صورتی که امکان پنج بار آزمون، فراهم می‌شد، هویت افراد را شناسایی می‌کرد.

 

ریچارد مک‌فرسون، یکی از دانشجویان دانشگاه کورنل می‌گوید:

عملکرد روشی که ما توسعه دادیم، بسیار ساده است، تنها محدودیت موجود، لزوم داشتن مجموعه‌ای از داده‌ها است که توسط آن امکان یادگیری ماشین فراهم شود که خوشبختانه این مجموعه هم در دسترس است.

 

مجموعه‌ی داده‌های آموزشی می‌تواند صرفا تصاویر فیسبوک یا دیرکتوری پرسنل یک وب‌سایت باشد. برای کاربرد اعداد و حروف (حتی در فرم دستی)، داده‌های آموزشی مورد نیاز، به صورت عمومی در دسترس است. کمپانی‌های مانند یوتیوب که بلور کردن تصاویر را توصیه می‌کنند، باید در بیانیه‌ی مرتبط با حریم خصوصی خود، این موضوع را به صورت واضح بیان کنند که استفاده از چنین متدی، اطلاعات را تنها در مقابل انسان در امان نگه می‌دارد، نه ماشین‌‌ها یا افرادی که با فرد مورد نظر خصومت دارند.

 

اشماتیکوف می‌گوید:

در زمینه‌ی امنیت و حریم خصوصی، هیچ‌کس به قدرت یادگیری ماشینی، توجهی ندارد و تا زمانی که شخصی این موضوع را نشان ندهد که چگونه می‌توان از فناوری‌های ساده و در دسترس، برای به مخاطره انداختن امنیت و حریم خصوصی کاربران، استفاده کرد، افراد فعال در این زمینه‌، به جدیت موضوع پی نخواهند برد.