新着情報 テーマカテゴリ 全カテゴリバイオテクノロジー医学・薬学農林水産・食品環境・エネルギー素材機械情報・通信エレクトロニクス航空・宇宙大気・海洋経済・経営・政策・法律土木・建築社会・文化・教育基礎科学 ごあいさつ ご利用にあたり 検索方法 プライバシーポリシー ご意見・ご質問 実例集 見つからない場合は? DUCRホームページへ トップページ geta_logo
print
印刷時に縮小されてしまう場合などにご利用ください。

整理番号 7538   (公開日 2018年12月10日) (カテゴリ 機械情報・通信経済・経営・政策・法律
人工知能のセキュリティ
●内容   深層学習などの人工知能は、画像認識や音声認識、自然言語処理、確率過程に関する予測などを含む多様なタスクで高い精度を出すことがわかってきたため、注目を集めている。しかし一方で、入力データに微小な改変を加えることによって出力を大きく誤らせることが可能な敵対的入力の存在が報告され、さらに発展的な攻撃や、虚偽情報の悪影響も知られている。例えば、自動運転が騙されれば、甚大な事故につながりかねない。投資支援システムが微妙に騙され続ければ、その不正に誰も気づかないかもしれない。これらに関する脅威分析を十分に行い、対策を講じることは、人工知能を利用したシステムを提供する側の社会的責任である。松浦研は、人工知能に関する事前情報が不十分な状況での高度なブラックボックス攻撃技術、攻撃の検知技術、あるいは攻撃耐性を強化する技術に関する先駆的な研究成果を挙げている。
  具体的な人工知能の利用方法を想定した状況で、そのセキュリティを深く研究する意欲と責任感のある民間企業等との共同研究を検討したい。
●研究者
教授 松浦 幹太
生産技術研究所 情報・エレクトロニクス系部門
●画像


クリックで拡大

人工知能を騙す敵対的入力

人も人工知能も正しく判定できる情報に巧妙な細工を加えると、「人は正しく判定できるが人工知能は間違う情報」になる。このように細工された情報を敵対的入力という(画像は説明用のイメージ図)。
(C) 松浦幹太
mail
上記内容は、各研究者へのインタビューをもとに東京大学 産学協創推進本部で骨子をまとめたものです。
本件に関する共同研究等のお問い合わせは、左のバナーをクリックしてください。スタッフがお問い合わせをお受けいたします。