三浦 宗介

所属スタートアップ

Ohma

今までに培った経験・知識を用い、企業活動を通して身近な人から幸せにしていく事。

実績

AI研究開発実績
(守秘義務契約により公表出来ないものを省き、データ視点で代表的なもの)
※下記のプロジェクトはすべてフルスクラッチになります。

★「月次試算表を用いた企業倒産予測」
イ) 研究・開発の目的
統計モデルと深層学習でどちらが精度が良いかを比較するためのコンペティション。結果として深層学習がAR値において統計モデルを20%以上上回る結果となる。
ロ) 使用したAIアルゴリズム及びその選択理由
使用したアルゴリズムはニューラルネットワークの一つであるLSTM.その当時、時系列データに対するアルゴリズムとして実績があったアルゴリズムが自然言語系のLSTMだったためLSTMを選択。またデータは非常に疎なデータでありかつ個人情報が含まれていたため、不可逆計算である特異値分解を用いて次元圧縮による密なデータへの変換および個人情報の隠蔽を実施。
ハ) 研究・開発期間
2か月(すべて)
ニ) 製品化や販売実績など
実証実験で終了
ホ) 研究・開発規模
金融機関、大学、データ企業、ベンチャー2社
ヘ) 当時の役割
深層学習側ベンチャー2名のうち、私以外の1名はデータ企業から受領したデータを集約し、データベースへの投入を担当。その後のデータクレンジングから分析・変換、AI開発、チューニング、それらに使用するすべてのプログラムの開発、報告書の作成までを担当。

★プロジェクト「年次決算書および定性情報を用いた企業倒産予測」
イ) 研究・開発の目的
数値データおよび文字データの双方を用いることで、「人力を駆使して企業リスクを測定する」信用調査会社と比較し、どの程度の精度が出せるかを検証。結果として信用調査会社を少し上回る結果となる。
ロ) 使用したAIアルゴリズム及びその選択理由
使用したアルゴリズムは時系列データがメインだったことからLSTMを使用。その当時は自然言語分野より画像認識系分野の研究が盛んであり、現在主流になっているTransformerなどはなかったため、引き続きLSTMを選択。数値データに関しては引き続き特異値分解による次元圧縮、文字データに関しては文字情報を自然言語系の様にそのまま1HotVectorとして使用するとデータ項目数(ベクトルの長さ)が膨大になるため、ハッシュ関数を用いてベクトルの次元を減らす。また数値情報と文字情報を一つのLSTMで効率的に学習させるためにスパースモデリングの分野で使用されている勾配計算方法を応用。
ハ) 研究・開発期間
2年以上(顧客への営業から1回目実証実験、既存システムとの平行稼働まで)
ニ) 製品化や販売実績など
1回目の実証実験の好成績から、既存システムと並行稼働させ実際に使用に耐えうるかのモニタリングまでを実施(この後、私はフリーランスから自社経営に切り替えたため、プロジェクトから離脱しました)。
ホ) 研究・開発規模
金融機関、データベンダ、ベンチャー、AIに保険を掛ける保険会社
ヘ) 当時の役割
リレーションシップマネージャー(AIの説明から統計モデルや金融工学との違い、AI導入の利点の説明など)、データ購入のコンサルティング、データ分析・変換、AI開発、チューニング、それらにかかわるすべてのプログラムの開発、定例報告を担当。

★プロジェクト「金融市場データを用いた金融商品取引判断」
イ) 研究・開発の目的
金融商品取引判断においてAI取引の有効性を測ることを目的としたコンペティション。結果として、金融機関が納得する成績を収め、2億円を用いた運用を実施。
ロ) 使用したAIアルゴリズム及びその選択理由
使用したアルゴリズムはQ学習と方策勾配を融合させた強化学習。また近似器としてLSTMを使用。その当時、強化学習の分野で成果を上げていたAlphaZero(AlphaGoの改訂版)を参考にしつつ、AlphaZeroを開発した(DeepMind&Google)のようなコンピュータリソースはなく、計算量にものを言わせて方策勾配のみで強化学習を学習させることが困難であったため、方策勾配をメインとしつつQ学習を取り入れることで学習時間の短縮を狙った。また因果関係の説明が流行っていた時期でもあり、画像認識系で使用されていた(パラメータではなく)入力データに対して偏微分を計算する手法および、Attention(注意機構)に似たようなものを横(時間軸と直交する配置)に置くことで入力データのどこをAIが見ていたのかを出力。
データは関しては、よくある全体データを用いた正規化(特異値分解などの変換も含む)ではアメリカ市場のような右肩上がりのデータでは訓練データから計算した平均と分散を用いる一般的な正規化では「正規化」が意味をなさなくなるため、100日などの一定期間から計算した分散を求めその数値を用いて元データを時間軸に沿ってローリングしながら除算することで値を一定の範囲に収める計算方法を使用。これは実際にトレーダーが過去のデータから現時点(将来が分からない状態)の金融市場を感情的にどう認識しているかを模すことも狙った。
ハ) 研究・開発期間
1年(すべて)
ニ) 製品化や販売実績など
金融機関の担当者が、担当者のデスクトップPCで使用できるよう、AIを動作させるのに必要な環境を構築しAIをデスクトップPCにデプロイし、実際に2億円を金融市場で運用。
ホ) 研究・開発規模
金融機関およびベンチャー
ヘ) 当時の役割
コンペティションでのモデル説明から、データ購入コンサルティング、データ分析・変換、AI開発、チューニング、ユーザが使用するためのインターフェイス、それらに関わるすべてのプログラムの開発、ユーザ環境へのシステムデプロイ、運用モニタリングを担当。

★プロジェクト「口座入出金情報・為替明細を用いた企業倒産予測」
イ) 研究・開発の目的
年次決算書の時間粒度は1年、月次試算表は大半の中小企業が作成していないため、確実にデータを入手でき、かつ時間粒度の短いデータを用いることで企業の状態悪化を予測する事が出来るかを検証。開発期間3か月(実際のAIチューニングに使用した時間は1か月程度)で、金融機関が20年以上に渡って蓄積してきたノウハウをもとに開発したモデルと同等の精度のモデルを開発。
ロ) 使用したAIアルゴリズム及びその選択理由
TransfomerおよびResNet。対象としたデータは、時系列に膨大な量があり、かつ企業によって保有している情報が「疎」である企業もあれば「蜜」である企業もあったことから、その当時、自然言語系でブレークスルーを起こしたTransformerをメインとしつつ、情報量が「疎」および「蜜」であるデータに対応するため、データをヒートマップ画像へ変換しResNetも併せて使用。またAttentionのそもそもの目的である外部記憶メモリとしての性質を利用してTransfomerとResNetを並列に並べその橋渡し(時間軸の調整や相互情報参照)としてAttention(Transformer内部にあるSelf-Attentionではなく)を使用。
ハ) 研究・開発期間
3か月(すべて)
ニ) 製品化や販売実績など
実証実験で終了
ホ) 研究・開発規模
金融機関およびベンチャー
ヘ) 当時の役割
インターネットに接続されていない環境で、初見データからのAI開発であったため、サーバやデータベースなどの構築から、データクレンジング、データ分析・変換、AI開発、チューニング、それらに関わるすべてのプログラムの開発、部下の育成、定期報告(資料作成および発表)を担当。

★プロジェクト「AI人材育成」
イ) 研究・開発の目的
金融機関内にAI人材を配置することを目的として実施。
ロ) 使用したAIアルゴリズム及びその選択理由
ニューラルネットワークの世界でブレークスルーとなった、「Attention」「ResNet」「Transformer」「SimCLR」の中から、金融機関内で適用分野が多い可能性が高く、かつ応用利用が可能な「Transformer」を題材として、目的に合わせたデータの変換・入力方法決定、チューニングノウハウ、モデル評価などについて指導。Jupiter Notebookを用いた画像認識や自然言語など既存論文の模倣ではなく、コマンドプロンプトを用いてフルスクラッチで、論文をベースとしたアルゴリズムの応用など。
ハ) 研究・開発期間
6か月(すべて)
ニ) 製品化や販売実績など
育成サービスとして販売
ホ) 研究・開発規模
金融機関および弊社
ヘ) 当時の役割
開発環境の準備・構築、ソースコードの用意、データの用意、AIや情報科学に関する理論やクオンツ(金融分野における定量分析の専門家)の視点、金融市場の慣行などの指導、およびそれらを踏まえたアルゴリズムの改変・チューニングの方法、モデルの評価方法の指導を実施。

経歴

2018年
-
現在
YAMATO

2018年8月より代表取締役。2020年1月シード資金調達を実施。Plug and Play JapanおよびMicrosoft for Startupに採択される。
また「AIを用いた外国為替」を銀行と契約、その他「実践的AI人材育成」などのサービスも実施。AIに関する取得済み国内特許1、出願済み国内特許1、出願済み国際特許1。
チーム(社員2名、業務委託1名)管理、およびAI開発・運用、AIシステムの自動化(クーロンによるデータ取得・AI計算・計算結果送信)、運用サーバ相互監視、48時間以上の停電対応、並列分散計算、ファイナンシング、営業を担当中。

2016年
-
2019年
ココペリ

業務委託
幾つかの金融機関と行った「人工知能の活用に関する実証実験」において、AIエンジニアとして、使用データ項目の決定からデータ整備、データ分析、データ変換、人工知能を利用したアルゴリズムの開発、モデルチューニングまでを担当。
具体的には、地銀および保険会社との実証実験では深層学習を使用し、財務情報(数値情報)・非財務情報(文字情報)を用いて融資分野における信用リスクを推定するAIモデル、およびそのリスクを金利・融資額計算へと落とし込む仕組みを開発した。またネット銀行との実証実験では深層強化学習を使用し、マーケット情報(数値情報)を用いて、対象とする先物の売買タイミング、および価格動向とポジションから売買数量を計算するAIモデルを開発した。

2014年
-
2016年
フィデリティ投信

パフォーマンス分析チームにおいて、対外的なレポートに使用するデータや、社内におけるファンドの運用評価を行うために使用するデータの収集・作成・分析を担当。
 具体的には、社内システムや外部ベンダーシステムを用いて、株式ファンドを評価するアトリビューションデータやファンドの特徴を計る特性値などの作成および分析、債券ファンドのリスクを計る為のデュレーションデータなどの作成および分析などを行った。また社内におけるパフォーマンス測定システムの新規システムへの移行プロジェクトにおいて、ロンドンやチュニジアのチームと共にプロジェクトメンバーの一員として、移行前後におけるデータの突合および計算方法の検証などを担当した。

2013年
-
2014年
シンプレクス

金利デリバティブを対象としたCVA(Credit Valuation Adjustment)/IM(Initial Margin)計算システム導入プロジェクトにおいて、ファイナンシャルエンジニアとして参加。プロジェクト初期段階での、金利デリバティブ商品の要件定義、および外部ベンダーとの計算アルゴリズムの突合を担当。
 具体的には、メガバンクにおけるバーゼルⅢ「中央清算されないデリバティブ取引に関わる証拠金規制」に対応するためのシステム導入において、規制対象となる金融商品の調査、要件定義フェーズにおいては、銀行が対応すべき金融商品の範囲や、その商品性、計算方法の決定を行った。計算の一部は外部ベンダーへの委託であったが、その際、計算アルゴリズムが計算定義書通りの数字を計算しているかや、社内での計算結果と外部ベンダーによる計算結果が同じであるかなどの突合を行った。

2009年
-
2013年
クレディスイス証券

JGBトレーディングデスク担当のITとして、フロントオフィスおよびミドルオフィスの為のシステム開発および保守、新規システム移行プロジェクトでは開発チームの支援および管理を担当。
 具体的には、トレーディング時に使用するリスクシステム(現物や先物、オプションやバニラスワップを含むポジションの、ヘッジ比率や期待損益の計算、一般的なリスクの計算など)や、プライシングシステム(マルチファクターやその他のアルゴリズムを用いた割高・割安銘柄の判定や、トレードの組み合わせによる損益シミュレーションなど)の開発および保守を担当。外部ブローカーによる電子トレードシステムの新規システムへの移行プロジェクトでは、進捗管理およびAPIの開発、リリースまでの一連の作業を担当した。

メッセージを送る