1. HOME
  2. Blog
  3. Blog
  4. 海外ブログ
  5. AIの安全性とセキュリティに関する懸念が浮上

Info.

お知らせ

海外ブログ

AIの安全性とセキュリティに関する懸念が浮上

AIの安全性とセキュリティに関する懸念が浮上 のページ写真 1

2025年2月10日、Mike Vizard

通常、技術が飛躍的に進歩した場合には、サイバーセキュリティへの影響が完全に理解されるまでにしばらく時間がかかるが、大規模言語モデル(LLM)の台頭により、人工知能(AI)のセキュリティを達成し維持できるかどうかが、サービス間の大きな差別化要因となりつつある。

例えば、Anthropic社は現在、同社のAIモデルの各インスタンスが従うべき一連の原則を提供するAI安全システム「Constitutional Classifiers」の解読を研究者に呼びかけています。同社は、この安全対策を回避できる研究者に2万ドルを提供しています。

このオファーは、中国で開発されたオープンソースのAIモデルであるDeepSeekのリリースを巡る論争の直後に発表された。DeepSeek AIモデルには、セキュリティ上の欠陥が多数存在しており、企業IT環境での適用には疑問が残る。

DeepSeekを巡る激しい議論は、サイバーセキュリティチームにとっては願ってもないことかもしれない。実際、企業が採用しているAIの安全性やサイバーセキュリティのプロトコルは、存在しないものから甘いものまでさまざまです。正式なポリシーが存在しないため、多くのエンドユーザーは、AIモデルのプロバイダーと機密データを共有していますが、そのデータが将来、正しいプロンプトを作成しようとする人なら誰にでもそのデータを吐き出す可能性のある次世代モデルのトレーニングに使用される可能性があることをほとんど、あるいはまったく認識していません。極端な例の反対側では、ポリシーを強制する能力を持たないAIモデルの使用を禁止している組織もあります。多くのエンドユーザーにとっては、AIモデルは、自分たちで勝手にこっそりと採用する、単にもう一つのシャドーITサービスに過ぎません。

願わくば、サイバーセキュリティチームと協議した上で、より多くの組織が、自らが定めるポリシーに実効性を持たせるために必要な管理策を導入するようになるでしょう。その一方で、サイバーセキュリティチームは、各AIサービスがアクセスしたデータをどのように使用しているかを正確に理解するために必要な時間を確保する必要があります。その際には、顧客データがAIモデルのトレーニングに使用されないことを保証するコミットメントから始めるべきでしょう。問題は、その誓約がエンドユーザーがチェックボックスにチェックを入れ、デフォルト設定から除外することを明確に指定したデータのみに適用される可能性があることです。

これは、ソフトウェアライセンス契約の数百ページにわたる条項のなかでも、エンドユーザーが目にする可能性が低いと思われるものです。すでに、ほとんどの既存のソフトウェアライセンス契約の条項を理解するには、かなり経験を積んだ弁護士の助けが必要ですが、AI時代にはさらに多くの注意事項が追加されるため、エンドユーザーが外部AIサービスとのデータ共有の意味を理解できない可能性は高まる一方です。

一方で、サイバー犯罪者たちは明らかにAIのジェイルブレイク(脱獄)スキルを磨いており、これはプロンプトエンジニアリングのスキルを使って、機密データを含む出力が生成されないようにするためのAIガードレールの制限を回避する方法です。

結局のところ、AIが関わる重大なサイバーセキュリティインシデントが発生するかどうかというよりも、いつ、どの程度の規模で発生するかということが問題です。ただし、これらの侵害が以前に経験されていないような場合に、組織がそれに対してどのように対応するかは、あまり確実ではありません。

Related posts