6ZA-06
ディープフェイク検出モデルにおける公平性の一検討
○張 冠男,水城彰拡,陳キュウ(工学院大)
近年、ディープフェイク技術の悪用による社会的リスクが高まる中、既存の検出モデルの多くは平均的な検出精度のみで評価され、属性間の公平性が十分に考慮されていないという課題がある。本研究では、AI-Faceベンチマークを用い、性別と肌の色を組み合わせた交差属性に着目し、公平性評価用サブセットを構築した。さらに、代表的な検出モデルに対して公平性指標による定量評価を行い、Grad-CAM等の可視化手法を用いてモデルの注目領域の差異を検討した。実験の結果、公平性強化モデルであるPG-FDDが最も優れた公平性指標を達成した。これにより、学習プロセスへの公平性制約の導入がバイアス軽減に有効であることが示された。