Kinesisk teknologi giganten Tencent har åpen kildekode sin ansiktsgjenkjenning algoritme DSFD (Dual Shot Face Detector). Det relaterte papiret DSFD: Dual Shot Face Detector oppnår toppmoderne ytelse på BREDERE ANSIKT og FDDB datasett benchmarks, og har blitt akseptert av top computer vision conference CVPR 2019.
DSFD
Ansiktsgjenkjenning er et grunnleggende trinn for ansiktsjustering, parsing, gjenkjenning og verifisering. Forskere fra Tencent AI-fokuserte Youtu Lab foreslår tre dsfd ansiktsdetektor teknikker:
- Feature Enhance Module (FEM): Overføring av de opprinnelige funksjonskartene for å utvide single shot detektoren til en dual shot detektor og gjøre dem mer diskriminerbare og robuste.
- Progressivt Ankertap (PLA): Beregnet ved å bruke to sett med ankre og tilpasset for å lette funksjoner effektivt.
- Forbedret Ankermatching (IAM): Integrering av nye dataforstørrelsesteknikker og ankerdesignstrategi I DSFD for å gi bedre initialisering for regressoren.

Eksperimentresultater
DSFD framework viser fremragende ytelse i eksperimenter. Ved å observere følgende bilder viste DSFD høy effektivitet ved å oppdage ansikter med variasjoner på skala, pose, okklusjon, blurriness, sminke, belysning, modalitet og refleksjon. Blå markeringsbokser indikerer at detektorens tillit er over 0,8.

forskergruppen gjennomførte også omfattende eksperimenter og ablasjonsstudier med gjeldende benchmarks FOR BREDERE ANSIKT og FDDB datasett.
MED DET BREDERE ANSIKTSDATASETTET, som vist nedenfor, oppnådde DSFD toppmoderne ytelse for gjennomsnittlig presisjon på tre undergrupper: 96,6% (Lett), 95,7% (Middels) og 90,4% (Hardt) på valideringssettet; og 96,0% (Lett), 95,3% (Middels) og 90,0% (Hardt) på testsettet.

MED FDDB-datasettet, som vist nedenfor, oppnådde DSFD toppmoderne ytelse på både diskontinuerlige OG kontinuerlige ROC-kurver: 99,1% og 86.2% når antall falske positiver er lik 1000.

Re-implementere Prosjektet
DSFD-prosjektet er implementert På PyTorch. Uten å bruke noen spesielle biblioteker, kan dette prosjektet kjøre Med Torch 0.3.1, Python 3.6 og CuDNN. Forskerteamet har gitt alle nødvendige materialer på GitHub-depotet.
