東京大学産学連携プロポーザル

人工知能のセキュリティ

カテゴリー

  • 機械
  • 情報・通信
  • 経済・経営・政策・法律

SDGs

研究内容

深層学習などの人工知能は、画像認識や音声認識、自然言語処理、確率過程に関する予測などを含む多様なタスクで高い精度を出すことがわかってきたため、注目を集めている。しかし一方で、入力データに微小な改変を加えることによって出力を大きく誤らせることが可能な敵対的入力の存在が報告され、さらに発展的な攻撃や、虚偽情報の悪影響も知られている。例えば、自動運転が騙されれば、甚大な事故につながりかねない。投資支援システムが微妙に騙され続ければ、その不正に誰も気づかないかもしれない。これらに関する脅威分析を十分に行い、対策を講じることは、人工知能を利用したシステムを提供する側の社会的責任である。松浦研は、人工知能に関する事前情報が不十分な状況での高度なブラックボックス攻撃技術、攻撃の検知技術、あるいは攻撃耐性を強化する技術に関する先駆的な研究成果を挙げている。

人工知能を騙す敵対的入力人も人工知能も正しく判定できる情報に巧妙な細工を加えると、「人は正しく判定できるが人工知能は間違う情報」になる。このように細工された情報を敵対的入力という(画像は説明用のイメージ図)。
© 松浦幹太

連携への希望

具体的な人工知能の利用方法を想定した状況で、主体的に研究する人材を供出してそのセキュリティを深く研究する意欲と責任感のある民間企業等との共同研究を検討したい。

公開日 / 更新日

  • 2021年11月20日

識別番号

  • No. 00029-01

カテゴリー

  • 機械
  • 情報・通信
  • 経済・経営・政策・法律

SDGs

公開日 / 更新日

  • 2021年11月20日

識別番号

  • No. 00029-01