貴社内で、PoCより先に進まず、断念してしまっているAIプロジェクトはございますでしょうか。
近年、AIへの注目度が高まる一方、機械学習のような不確かさを含むAIシステムのプロジェクトは、PoC(実証実験)より先に進んでいません。特に、AIの判断が、社会的・経営的危機に直結するミッションクリティカル領域においては、ほとんどの機械学習を含むAIシステムが本導入に至っていないのが現状です。
多くのAIシステムがPoCより先に進まない、もしくは試験導入から本導入に至らない技術的理由としては、
AIシステムの出力の判断根拠が理解できない(ブラックボックス問題)
AIシステムの品質検証が十分にできていない
AIの導入・運用・品質管理のプロセスがわからない
等が考えられます。AIの社会実装を真剣に考えた時、これらの課題を超えられない限り、機械学習のような不確かさを含むAIシステムのミッションクリティカル領域への本導入はほぼありえないと我々は考えています。そこで弊社は、「XAI(説明可能AI)/QAAI(AI向け品質保証)技術」を用いて、この問題の解決に取り組んでいます。