kinesisk teknik jätte Tencent har öppen källkod sin face detection algoritm DSFD (Dual Shot Face Detector). Den relaterade pappers Dsfd: Dual Shot Face Detector uppnår state-of-the-art prestanda på bredare ansikte och FDDB dataset riktmärken, och har accepterats av top computer vision conference CVPR 2019.
Dsfd
ansiktsigenkänning är ett grundläggande steg för ansiktsinriktning, parsning, igenkänning och verifiering. Forskare från Tencents AI-fokuserade Youtu Lab föreslår tre dsfd-ansiktsdetektortekniker:
- Feature Enhance Module (FEM): överföra de ursprungliga funktionskartor för att förlänga single shot detektor till en dual shot detektor och göra dem mer diskriminerande och robust.
- Progressive Anchor Loss (Pla): beräknas genom att använda två uppsättningar ankare och anpassas för att underlätta funktioner effektivt.
- förbättrad Ankarmatchning (iam): integrering av nya dataförstärkningstekniker och ankardesignstrategi i DSFD för att ge bättre initialisering för regressorn.

Experimentresultat
dsfd-ramverket visar enastående prestanda i experiment. Iakttagande av följande bilder visade DSFD hög effektivitet vid detektering av ansikten med variationer på skala, pose, ocklusion, suddighet, smink, belysning, modalitet och reflektion. Blå avgränsningsboxar indikerar detektorns förtroende är över 0,8.

forskargruppen genomförde också omfattande experiment och ablationsstudier med aktuella riktmärken för bredare ansikts-och FDDB-dataset.
med den bredare ANSIKTSUPPSÄTTNINGEN, som visas nedan, uppnådde DSFD toppmodern prestanda för genomsnittlig precision på tre delmängder: 96.6% (Easy), 95.7% (Medium) och 90.4% (Hard) på valideringsuppsättningen; och 96.0% (Easy), 95.3% (Medium) och 90.0% (Hard) på testuppsättningen.

med FDDB-dataset, som visas nedan, uppnådde DSFD toppmodern prestanda på både diskontinuerliga och kontinuerliga ROC-kurvor: 99.1% och 86.2% när antalet falska positiva är lika med 1000.

Re-genomförande av projektet
dsfd-projektet genomförs på PyTorch. Utan att använda några speciella bibliotek kan detta projekt köras med Torch 0.3.1, Python 3.6 och CuDNN. Forskargruppen har tillhandahållit allt nödvändigt material på deras GitHub-arkiv.
