top of page

「社会的意義の大きいプロジェクトにワクワクする」進化する生成AIに立ち向かうフェイク検知開発の裏側

  • NABLAS
  • 7月1日
  • 読了時間: 7分

生成AI技術の急速な進化と普及により、画像、動画、音声、テキストなど様々なフェイクコンテンツが身近になってきました。SNSを中心にフェイク情報は拡散され、個人や企業、社会全体にも被害をもたらす危険性が高まってきています。

NABLASでは、生成AI技術やディープフェイク技術の社会的インパクトに早くから着目し、2021年から検出技術開発に取り組んできました。


今回はそのフェイク検知プロジェクトで開発している自社プロダクト「KeiganAI」の開発を担うリサーチエンジニア、Xueさんに、プロジェクトの難しさややりがいなどをお伺いしました!


簡単に自己紹介をお願いします。

私はR&Dチームに所属するリサーチエンジニアで、主にコンピュータビジョン領域の研究開発に取り組んでいます。NABLASには、1年間のインターン期間を含め、2年以上在籍しています。これまで、拡散モデルを使った料理動画のAI編集や、自動車メーカー向けのAIによる技術文書の分類プロジェクトなどを経験してきました。現在はフェイク検知プロジェクトに携わっており、AIによって生成されたフェイク動画を見抜く検出モデルの開発に取り組んでいます。


▶ NABLASのフェイク検知サービス「KeiganAI」はこちら


フェイク検知プロジェクトでどのような技術開発をしていますか?

私は主にフェイク動画の検出に取り組んでおり、本物の動画とフェイク動画の判別を目指しています。動画生成分野における生成モデルの急速な進化に伴って、生成や改ざんされたコンテンツを信頼性高く検出する技術がますます重要になっています。フェイクコンテンツの拡大は、メディアの信頼性や社会的信用に深刻なリスクをもたらすので、この仕事は技術的にチャレンジングであると同時に、社会的に大きな意味のある仕事だと思っています。


私たちは、フェイク動画の中に存在する不自然な特徴(アーティファクト)を検出するため、1つの視点ではなく、複数のアプローチを組み合わせることで高精度な分析を可能にするモデルを開発しています。例えば、映像のテクスチャや、動画の動き、流れの不自然さなどの様々な判定要素から総合的に結果を出力するようにしています。このように多面的な分析からフェイク判定を行うことで、モデルの汎用性を高めています。


生成技術は毎日のように進化しており、従来の検出手法では通用しない新しいフェイクも次々に登場してきています。だからこそ、特定の生成手法や生成スタイルに依存しない検出モデルの開発は、私たちの中でも重要なテーマになっているんです。

開発中に直面した(している)困難は何でしたか?

開発中に直面した課題の一つは、高精度なフェイク動画から、どうやって生成AI特有のわずかな不自然さをAIに検出させるかということでした。最近の生成AIは非常に性能が高く、一見すると自然且つとてもリアルで不自然さはほとんどなくなってきています。こうした高精度なフェイクコンテンツの悪用事例は世界各国で実際に発生しており、その影響力を考えると、いち早い対抗技術の開発が求められていると感じます。


生成AIのクオリティの高まりは動画生成においては特に顕著で、従来のアプローチではフェイクを見抜くことが難しくなってきています。不自然さの検出には、いろいろな検出アプローチを試すのですが、満足のいく結果が得られるまで何度もトライアンドエラーを重ねてアプローチを見直す必要がありました。


さらに、モデルの汎用性も大きな課題の一つでした。初期のモデルでは一定の検出成果が出ていたのですが、生成技術の進化に伴って、より高精度なフェイク動画の検出には苦戦するようになっていったんです。先ほどもお話したように、生成AIの技術進化のスピードは非常に速く、日々新しい技術が登場しています。それに対抗するということは、現在の検出精度だけでなく、次々と生まれてくる新しい生成技術にも対応できる汎用性が重要であり、幅広いパターンに対応できる汎化能力の高い検出モデルの開発が必要不可欠でした。


繰り返しになりますが、私たちの目標は、どんなモデルで生成されたフェイク動画に対しても信頼性高く検出できるモデルを開発することですので、生成AI技術の進化がある限り常にこれらの課題は存在することになると思っています。


上記の困難をどのように乗り越えましたか?

動く映像の中にある不自然さを捉えることは、とても繊細で難易度の高い課題でした。しかし、たとえ映像全体が自然に見える場合でも、生成AI特有のほんのわずかな動きのずれや違和感は含まれています。私たちは、従来の検出アプローチでは捉えきれていなかった動画特有の「微細な動きのずれ」に注目し、試行錯誤の末、より本質的に不自然さを検出できるアプローチにたどり着きました。このアプローチにより、それまで捉えづらかったアーティファクトを目立たせることができるようになり、検出モデルがより精度高くフェイクを検出できるようになりました。


また、検知モデルの汎用性を高めるため、学習に用いるトレーニングデータにも工夫を加えました。具体的には、よりリアルで高精度な最新生成技術で作られたフェイク動画をあえてトレーニングデータとして使い、検出難易度の高いケースにも対応できるようモデルを訓練しました。これにより、従来のフェイクだけでなく、多様なパターンのフェイク動画にも強い、汎化能力のあるモデルへと進化させることができました。

フェイク検知プロジェクトの中で、やりがいを感じるのはどんな点ですか?

私がフェイク検知プロジェクトで最もやりがいを感じているのは、実際に存在する、そして現在進行形で拡大し続けている社会の課題に取り組めていることです。生成AI、特に動画生成技術の急速な進歩により、本物と偽物(フェイク)の区別がますます困難になっています。情報が大きな意味を持つ現代において、フェイク情報は企業だけでなく政治や経済といった国家レベルの大きな負のインパクトを与えうる存在になっています。そんな社会の大きな混乱を招きうるフェイク情報への対抗技術を開発しているということに、自分の仕事の意義を感じます。


個人としては、このプロジェクトは大きな成長の場でもあると感じます。技術的に難易度が高く、常に進化し続け、常に考えることが求められます。新しいアイディアに挑戦し、失敗し、行き詰まりながらも、試行錯誤を通して日々学んでいます。決して順調に進むことばかりではありませんが、このプロセスを通じて自信を深め、問題解決能力とマインドセットの両方を向上させてきました。また、チームの雰囲気にも感謝しています。誰もが議論にオープンで、難しい問題に直面したときはお互いに支え合う環境があります。このように協力し合いながら一緒に成長できることが、このプロジェクトの経験をより意味深いものにしてくれていると思います。


プロジェクト開発における今後の展望と目標を教えてください

今後も、どんどん誕生してくる高精度な生成モデルによるフェイク動画を検出できるよう、モデルの能力をさらに高めたていきたいと考えています。生成技術の進化は非常に速いので、これらの変化に対応しながら、検出の戦略を継続的に洗練させていくことが重要だと思っています。

長期的には、より統合された汎用的な検出フレームワークの構築を目指しています。これは、テキストから動画への生成、画像から動画への生成にとどまらず、動画編集、インペインティング、オブジェクトの入れ替えなどを含む、様々なタイプの改ざんされた動画を識別できる「オールインワン」のシステムです。そうしたシステムを開発することで、より幅広いシナリオでの柔軟性と拡張性を持ったモデルを実現したいと考えています。


個人としても、フェイク動画検出分野の知識をさらに深め、より高度なアーキテクチャ設計で責任を担えるような存在になりたいと考えています。技術的にチャレンジングでありながら、社会的に意義のあるプロジェクトに今後も携わっていけることにワクワクしています。



Xueさん、インタビューありがとうございました!


NABLASでは、一緒に働くメンバーを募集中です!



bottom of page