얼굴 한 장이 시스템에 들어와 임베딩 벡터로 변환되기까지 — 우리의 파이프라인이 48ms 안에 처리하는 모든 단계를 공개합니다.
입력 이미지가 5단계의 모델을 거쳐 임베딩 벡터로 변환됩니다. 각 단계는 GPU/CPU 병렬 처리되며, 평균 48ms의 종단 간 레이턴시를 달성합니다.
이미지 디코딩 및 정규화. 입력 해상도 자동 보정.
SSD ResNet-10 기반 얼굴 영역 검출. Threshold 0.6.
68개 랜드마크 추출 후 양 눈 기준 수평 회전 보정.
InceptionResNet-v2로 128차원 임베딩 벡터 추출.
코사인 거리 또는 유클리드 거리로 유사도 계산.
경량 SSD 헤드를 ResNet-10 백본 위에 얹은 단일 단계 검출기. 300×300 입력에서 20+ FPS 처리 가능.
InceptionResNet-v2 백본에 ArcFace 손실로 학습된 임베딩 모델. 5.8M 얼굴로 학습되어 매우 견고한 특성 추출 능력 보유.
공인된 데이터셋과 비공개 인-하우스 테스트셋에서의 정확도 비교. 모든 결과는 동일 하드웨어(NVIDIA T4) 환경에서 측정.
| VENDOR | FAR @ 1e-6 | FAR @ 1e-5 | LATENCY | RANK |
|---|---|---|---|---|
| NTechLab | 96.8% | 98.9% | 52ms | #1 |
| SenseTime | 95.4% | 98.2% | 61ms | #2 |
| iFlytek | 94.1% | 97.8% | 49ms | #3 |
| Megvii | 93.3% | 97.4% | 58ms | #4 |
| FACETAG (v2.4) | 92.7% | 97.1% | 48ms | #5 |
| AnyVision | 90.2% | 96.3% | 67ms | #6 |
| Clearview AI | 88.9% | 95.6% | 72ms | #7 |
Python · Node.js · Go · Rust SDK 제공. 평균 5분 안에 첫 인식 호출이 가능합니다.
from facetag import FaceTag client = FaceTag(api_key="ft_live_...") # 두 얼굴 비교 result = client.compare( image_a="alice.jpg", image_b="bob.jpg", threshold=0.6 ) print(result.similarity) # 0.9472 print(result.is_match) # True print(result.face_a.bbox) # [120, 80, 340, 410]
# 인증된 사용자인지 확인 $ curl -X POST https://api.facetag.co.kr/v2/verify \ -H "Authorization: Bearer ft_live_..." \ -F "reference=@user_profile.jpg" \ -F "probe=@cctv_capture.jpg" # Response { "similarity": 0.9472, "is_match": true, "confidence": "VERY_HIGH", "latency_ms": 48 }