Member-only story
Deepfake の傾向と対策 2023年版
Google I/O 2023はいわゆる生成系AIに相当フォーカスした発表が続いた。
その中の一つのトピックとして
Responsible AI
というキーワードがあった。
ジェネレーティング AI で作られた画像の中に メタデータとウォーターマークを埋め込む という技術 らしい。
AI の技術が上がりすぎて AI が作ったものとそうでないものの見分けがつきにくくなりそうな 昨今、とかウォーターマーク によって これは AI で作られたものですよ ということをわかるようにするという技術だと思う。
以前 ディープ フェイクについて ストーリーを1つ書いたんだけども、Google は 今回 発表したような技術が標準的になれば フェイク画像がフェイクであるということが誰の目にも明らかになるという未来も期待できるのではないだろうか。
例えば今のブラウザでセキュアではないサイトというか SSL TLS に対応してないサイトにアクセスしようとすると警告が出るようになってきている。
このおかげで it 技術に詳しくない人でも このサイト 危ないかもっていうことがわかるようになった。
同じように ジェネレーティング AI で作られたものには必ずこういった ウォーターマークがつくようなことが 標準になって、ブラウザとか画像を編集 ソフトに 標準として実装されるようになれば この画像 もしくは 映像がフェイクであるということが誰の目にも明らかになってディープ フェイクによる被害を減らすことができるんじゃないかなと 期待している
今のところは Google の generative AI でしか使えないとか色々 制限はあると思うけれども まずは Google のようなインターネットの情報 を一手に 握っているような大きなところがこういう技術を使いますよ と宣言するところに大きな意味があると思う。
もちろん 以前触れたように、例えば フェイクとして作った画像のスクリーンショットを撮るとかそういったことをされてしまうと元々 画像に埋め込まれたデータというのは反映されない。であるので AI で作られた画像と類似の画像を検出する AI みたいなものをさらに開発していく必要はあるんだと思う。
それでも今 簡単に AI によってディープ フェイクが作れるようになってしまって、それから人を守る方のセキュリティ技術者としては 後手後手に回っている状況が少しでも改善していい方法に向かうんじゃないかな という一筋の希望が見えた Google io であった。
もちろん ディープ フェイクが偽物だとわかるようになったとしてもそういう事実を確認しないで成功を信じてしまう人もたくさん出ると思う。
そこに対しての技術的な対策というのはなくて これはもう人々の認識を映像や写真は本当のものであるというこれまでの認識を変えて映像や画像には証拠能力はないというような攻殻機動隊みたいな世界に我々は生きているんだという認識に変えていく必要がある。
今回の Google io は AI のことばかりであまり面白くなかったとかそういう声も多いみたいだけれども セキュリティ屋としてはこの1点だけでもものすごい価値があるイベントだったな と思う。
もう少し詳細な技術的な話が Google io のプレゼンでないかどうか これからちょっと検索してみようかなと思っている
何か知見が得られれば追記します