view in publisher's site

Minimum Margin Loss for Deep Face Recognition. Pattern Recognition, 107012

Highlights•Training with unbalanced data leads to a performance drop on face recognition.•Penalising the overclose classes can alleviate the unbalancedness of data.•Setting a minimum margin for all the pairs of class centre improves the performance.•With the proposed loss function, we achieved the state-of-the-art performance.AbstractFace recognition has achieved great success owing to the fast development of deep neural networks in the past few years. Different loss functions can be used in a deep neural network resulting in different performance. Most recently some loss functions have been proposed, which have advanced the state of the art. However, they cannot solve the problem of margin bias which is present in class imbalanced datasets, having the so-called long-tailed distributions. In this paper, we propose to solve the margin bias problem by setting a minimum margin for all pairs of classes. We present a new loss function, Minimum Margin Loss (MML), which is aimed at enlarging the margin of those overclose class centre pairs so as to enhance the discriminative ability of the deep features. MML, together with Softmax Loss and Centre Loss, supervises the training process to balance the margins of all classes irrespective of their class distributions. We implemented MML in Inception-ResNet-v1 and conducted extensive experiments on seven face recognition benchmark datasets, MegaFace, FaceScrub, LFW, SLLFW, YTF, IJB-B and IJB-C. Experimental results show that the proposed MML loss function has led to new state of the art in face recognition, reducing the negative effect of margin bias.

حداقل فقدان حاشیه برای تشخیص چهره عمیق. شناسایی الگو، ۱۰۷۰۱۲

نکات مهم آموزش با داده‌های نامتعادل منجر به افت عملکرد در تشخیص چهره می‌شود. استفاده از طبقات overclose می‌تواند مانع از تجزیه و تحلیل داده‌ها شود. تعیین حداقل حاشیه برای همه زوج‌های مرکز کلاس عملکرد را بهبود می‌بخشد. با استفاده از تابع زیان پیشنهادی، به این نتیجه رسیدیم که بازشناسی در هنر به واسطه پیشرفت سریع شبکه‌های عصبی عمیق در چند سال گذشته به موفقیت بزرگی دست یافته‌است. توابع تلفات مختلف را می توان در یک شبکه عصبی عمیق به کار برد که منجر به عملکرد متفاوت می‌شود. اخیرا برخی از توابع تلفات ارائه شده‌اند که وضعیت هنر را ارتقا داده‌اند. با این حال، آن‌ها نمی‌توانند مشکل گرایش حاشیه‌ای را که در مجموعه داده‌های نامتعادل کلاس موجود است را حل کنند که توزیع به اصطلاح دامنه بلند نامیده می‌شود. در این مقاله، ما پیشنهاد می‌کنیم که مشکل انحراف حاشیه را با تعیین حداقل حاشیه برای همه جفت کلاس حل کنیم. ما یک تابع تلفات جدید، حداقل حاشیه حاشیه (mml)را ارایه می‌دهیم، که هدف آن گسترش حاشیه آن جفت‌های مرکز کلاس overclose به طوری که توانایی متمایز ساختن ویژگی‌های تصویر را افزایش دهد. mml، همراه با لرد لاس و لرد لاس، بر فرآیند آموزش نظارت دارند تا حاشیه‌های همه طبقات را بدون توجه به توزیع طبقه خود متعادل کنند. ما mml را در "Inception - ResNet" اجرا کردیم و آزمایش‌ها گسترده‌ای را در هفت مجموعه داده معیار بازشناسی چهره، MegaFace، FaceScrub، LFW، SLLFW، YTF، IJB - B و C - C انجام دادیم. نتایج تجربی نشان می‌دهد که تابع کاهش mml پیشنهادی منجر به حالت جدیدی از هنر در بازشناسی چهره، کاهش اثر منفی بایاس حاشیه می‌شود.

ترجمه شده با

Download PDF سفارش ترجمه این مقاله این مقاله را خودتان با کمک ترجمه کنید
سفارش ترجمه مقاله و کتاب - شروع کنید

95/12/18 - با استفاده از افزونه دانلود فایرفاکس و کروم٬ چکیده مقالات به صورت خودکار تشخیص داده شده و دکمه دانلود فری‌پیپر در صفحه چکیده نمایش داده می شود.