ディープフェイクが企業のセキュリティにもたらす可能性がある問題
トピック: メール保護
2021年3月17日、Phil Muncaster
最近、トム・クルーズがゴルフをし、手品を披露し、ロリポップを食べるところをTikTokで撮影したビデオがウィルスのようにすぐに拡散しました。このビデオは、削除されるまで、ソーシャルメディアで1,100万回以上再生されました。しかし、鋭い視聴者は、このビデオが、「ミッション:インポッシブル」の俳優自身のものではなく、ベルギーの視覚効果アーティストであるChristopher Umeとクルーズの物真似をするマイルズ・フィッシャーのコラボレーションであることにすぐに気づきました。
では、このビデオは、単なる悪ふざけなのでしょうか。あるいは、インターネット上の情報をまったく信じることができないデジタル処理で改ざんされた将来に関する懸念の可能性なのでしょうか。Ume自身は現在のディープフェイクテクノロジがどれほど巧妙になっているかを知ってほしかったと述べています。CISO(最高情報セキュリティ責任者)は、今後数年間、攻撃者が、このテクノロジによって、優位に立つ可能性があることに気づく必要があります。
ディープフェイクの作成方法
ディープフェイクの作成者は、AI(人工知能)から派生したディープラーニングを使用して、本物と区別することがますます困難な偽装のビデオとオーディオを開発しています。このようなディープフェイクは、音声の合成、表情の操作、および顔全体の入れ替えに使用することもできます。
鍵になるものはオートエンコーダです。オートエンコーダは、ビデオ入力をエンコーダで圧縮し、デコーダで再構築するように、トレーニングできるディープニューラルネットワーク技術です。この技術を使用すると、画像の圧縮された「本質」から顔(ここでは「潜在的な顔」と表現)を再構築する方法をシステムに教えることができます。
ディープフェイクを作成するには、2つの顔(クルーズとフィッシャーなど)のエンコード方法とデコード方法を別々にシステムに教えます。フィッシャーの顔を再構築するために使用するデコーダにクルーズの「潜在的な顔」を通すと、再構築された顔によって、2つの顔が融合されます。この結果、クルーズの表情はフィッシャーの表情を真似ているように見えます。同じテクノロジを使用すると、対象の人物にまったく別の顔を重ねることもできます。
Umeが、どの技術、および他の最新のテクノロジのどの組み合わせを実際に使用したかは不明です。重要な点は、現在提供されているものを最大限に活用して、誰もが将来実現できることを示すことです。「現在、独創的な物真似をする人、高性能なコンピュータ、および熟練した技術者が何日もかけて行っていることが、2025年には、わかりやすいSnapchatフィルタで実現できます。」とUmeはガーディアンに語っています。
上記のとおり、さまざまな詐欺への参入障壁が非常に急速に低下する可能性を考えると、セキュリティに従事する誰もが上記のことを懸念する必要があります。
次に起こること
Umeなどのプロフェッショナルのものを除くと、ほとんどのディープフェイクは教室の悪ふざけで作成された非常に稚拙なものです。このようなディープフェイクは、矛盾、ピクセル化などの誤りがあるため、簡単に検出できます。しかし、巧妙なディープフェイクの可能性は、主に政治家が懸念しています。政治家は、ビデオが、いずれかの候補者に関する世論に影響を及ぼすために、開発される可能性があると警告しています。心理学者は、人間には、最初の経験に基づいて、他者に対する永続的な印象を形成する傾向があると考えています。つまり、後で偽装であると判明したビデオも候補者に関する世論に無意識に影響を及ぼす可能性があるということです。
攻撃者は、同様の手口を悪用して、CEO(最高経営責任者)の言葉を操作するか、違法行為または物議を醸すことをする人の体に自分の顔を貼り付けることもできます。また、個人を脅迫するか、企業の株価を操作することもできます。
理論的には、ディープフェイクは、BEC(ビジネスメール詐欺)型のインパーソネーション攻撃を正規のメールに偽装するために、悪用することもできます。実際、「ドイツ人の上司」が、あるCEOに24万ドル以上を電信送金させるために、偽装のオーディオをすでに悪用していることは有名です。このテクノロジが普及すると、攻撃者は、顔認識システムと音声認識システムをバイパスするなど、さらに多くの新しい悪用方法を見いだすでしょう。
課題への対処
では、どのような対処が最適でしょうか。当面、フィッシングとそのソーシャルメディア、電話、およびテキストのバリエーションは、このような詐欺の第一のベクタになるでしょう。しかし、競争は常に進化しています。双方が覇権を争うため、競争は、AIによって、加熱することになります。
ソーシャルメディアは、このようなコンテンツを自社のページから削除しようとしています。Twitterは、著しく改ざんまたは偽造されており、詐欺的に共有されているコンテンツにラベルを付けると表明し、損害を及ぼす可能性があるディープフェイクを削除すると述べました。昨年、Facebookも、YouTubeに続いて、ディープフェイクを全面的に禁止すると述べました。しかし、ソーシャルメディアは、物議を醸す素材と違法な素材の削除には依然として追いついておらず、いずれにせよ、個人的にメールで送信されたビデオという課題には対処できないでしょう。
現在、企業のセキュリティリーダーが行うことができる最適な対策はセキュリティ意識トレーニングポリシーの更新です。従業員が、ディープフェイクを検出し、ディープフェイクが自社にどのように悪用される可能性があるかを理解できると、CISOは効果的な最初のセキュリティレイヤを構築できます。次の課題は、このようなディープフェイクを検出および防止するツールの設計です。
バラクーダなどのセキュリティベンダは、悪意のあるメールをさらに適切に検出するために、高度なAIアルゴリズムをすでに使用しています。また、近い将来、ディープフェイクにも同じ処理を実行するテクノロジを開発するでしょう。懸念の原因になるニュースはありますが、業界は、これまでも、このような課題に対処してきました。今後も、そうするでしょう。
フィッシングとATO(アカウント乗っ取り)を防止するAIベースのソリューション
原文はこちら:
Keeping it real: How deepfakes could spell trouble for corporate cybersecurity
March 17, 2021 Phil Muncaster
https://blog.barracuda.com/2021/03/17/how-deepfakes-trouble-corporate-cybersecurity/