RESEARCH

研究内容

Sato-Kawakami Lab, born in April, 2020, is a research unit for computer vision and machine learning.  We conduct various research topics to replace human visual sensing with machine.  Target applications include, but not limited to, sensing algorithms for autonomous driving and advanced driver assistance systems, anomaly detection, image processing, and multimedia signal processing.  We also work on more basic topics that aid broader applications.  Introduction slides:  Sato-Kawakami Lab

佐藤・川上研はコンピュータビジョン・機械学習の研究室として2020年4月に誕生しました。人間の視覚的認識を代替できる高精度な認識技術の開発を目的に研究を行っています。応用として、自動運転や先進運転支援システムにおけるセンサ情報を用いた認識をメインに、異常検知、画像処理一般、マルチメディア情報処理などを扱っています。また一方で、より多くの応用が可能となるような、基礎寄りの研究も行っています。研究室紹介スライド:Sato-Kawakami Lab

Generic Feature Extraction

汎用的な特徴の抽出

Generally speaking, human is amazingly good at recognizing the surroundings, often with full of objects, people, structure, etc. Say, if one wants to replace human by machine in driving, a number of recognition tasks such as pedestrian detection, vehicle detection, drivable area recognition roadway recognition, line marking detection, traffic sign recognition, traffic light recognition, etc. need to be processed in real time. The extraction of generic features from sensor input for various recognition tasks is regarded as one of core technologies for autonomous driving. With deep learning, which allows us to approximate a function that returns an ideal output from a sensor input, we study new optimization methods that allow us to separate the task-generic and task-specific feature extractors.

モビリティにおける省人化を実現するには、多種多様な外環境の認識問題を可解にする必要がある。例えば人が行う運転行動を機械で代替するには、歩行者認識・車両認識・走行路認識・白線認識・信号認識・標識認識を始めとした数多くの認識タスクの実時間処理が求められる。センサー入力から様々な認識タスクに汎用的な特徴量を抽出することは、これら複合的な外界認識器の中核的技術として重要な意味を持っている。センサー入力から理想的出力を返す関数の近似を可能にする深層学習において、タスクに汎用的な部分と特殊な部分の分離を可能にする新たな最適化手法を研究する。

Retrieval Based on Semantic Distance

意味的距離に基づく検索

Here is a pen. You see it, and immediately understand there is a pen. You never thought of possibilities that it might be a pickup truck or Indian Rhino. Well, current state-of-the-art image classifiers do think such possibilities and return the most likely one. Human measures a sort of distance between what is seen and some instance that was seen before. The development of a technique for estimating the semantic distance between data samples not just contributes to industry, but pushes AI to next stage. It will enable estimation of data rareness and data classification under class indeterminacy. We study way of mapping into semantic space in a computationally efficient fashion.

データ標本間の意味的距離の推定技術の開発は、データ標本のレアリティ評価・データセットの網羅性検証・クラス不定の下でのデータ標本の分類などの効果をもたらしうる技術として、モビリティへの貢献に留まらず、AI 技術における次のブレークスルーと呼ぶにふさわしい基礎的な意義を持つ。意味的距離空間への写像の方法や演算量の削減方法を研究する。

Inheritance of Generalization Capabilities between Machine Learning Models

機械学習モデル間の汎化能力の継承

Inference at the edge devices is required to achieve high generalization capability and real-time processing under limited power consumption. Large-scale deep neural network models consisting of many layers show high generalization capabilities, but the computational load is often too large to embed into an edge device. We study methods for model compactification, such as large-scale knowledge distillation.

エッジにおける環境認識には、高い汎化能力・実時間処理・限られた消費電力の制約を同時に満たすことが求められる。多数の処理層から成る大規模な深層ニューラルネットワークモデルは高い汎化能力を示すものの、処理負荷が多大であることが問題である。そこで、大規模モデルのコンパクト化を対象とした、大規模な知識蒸留や半教師あり学習などの発展的手法を研究する。

Analysis of Learning Processes in Deep Learning

深層学習における学習過程の解析

It is known that the performance of a deep neural network model is highly dependent on an initial set of values called hyperparameters. Selection of hyperparameters is done heuristically most of the time; the relation to the generalization ability is not fully elucidated yet.  In recent years, attempts have been made to describe the learning process in deep learning by thermodynamic motion, which has led to a better understanding of the mechanism of generalization. We conduct research to better understand this mechanism by collecting and analyzing various statistics in the learning process by large-scale computation.

深層ニューラルネットワークモデルの性能は、複数のハイパーパラメタと呼ばれる初期設定値に大きく依存することが知られている。モデルの開発においては、それらのいくつかの組み合わせを用いて実際に学習・評価することで、より良いモデルを生成することが一般的である。近年、深層学習における学習過程を熱力学的な運動によって記述する試みが成され、これにより汎化能力を獲得するメカニズムの理解が進みつつある。学習過程における種々の統計量を大規模計算によって収集・解析することで、このメカニズムをより深く理解するための研究を行う。

Theory of Model Mixture

混合モデルの理論

Studies of the learning process have shown that a certain inference bias is potentially present in a single deep neural network model. Model mixture is effective in correcting the bias and has been used in many situations, but the method remains in the heuristic phase. Research is focused on establishing a basic understanding and methodology of model mixture.

学習過程の研究によって、単体の深層ニューラルネットワークモデルにはある種の推論の偏りが潜在的に存在することが分かってきた。モデルの混合はこの偏りを是正する効果があり、多くの現場で用いられているが、その方法は発見的段階に留まっている。モデル混合の基礎的な理解と方法論の確立を主眼とした研究を行う。