という修士論文を読んでみた。()で囲まれた部分は私が思ったこと。
-
- -
- 「色情報を用いた類似画像検索」
- セグメンテーション手法は4種類
- 画像の分散により手法を使い分ける
- RGB→Lab(人間の視覚特性に基づいた表現)
- Webブラウザで使えるように実装
- NAIST
- 40枚ほど
- 内容検索
- 類似検索
- 今までは「キーワード検索」
- 「画像に付けるキーワードを自動生成」
- 「文字型」の画像検索に変わりない
- (「赤くて、棒が上から刺さっている植物」)
- (変換)
- (「りんご」で自動的に検索してくれる)
- (っていう「文字→文字→検索」という手もある)
- (デジカメにGPS機能が付けば、場所情報を使える)
- (植物園で撮ったものだから「花火」ではなく「菊」だな)
- 人手によるキーワード付け→主観的
- 画像は言語より曖昧(人間が作った物ではないから)
- 作ったのは、「文字ではなく画像を使った類似画像検索」
- <4つの領域分割>
- 横分割法(単純に横切り)(風景などは横長)
- 立て分割法(縦切り)(氷柱(つらら)は縦長)
- 円状分割法(同心円切り)(オレンジの中心=円の中心)
- 放射状分割法(中心から放射状に切る)(遠近感のある画像)
- <分割された領域ごとに「色彩特徴量」を求める>
- Lab値の平均
- 最頻度
- (どちらかを用いる)
- <類似度を求める(特徴量の比較)(2種類)>
- 1つ目:普通に3次元(Lab)のユークリッド距離
- (横切り10分割なら、対応する領域ごとに比較)
- 2つ目:「ユーザ指定の画像中心」をガウス分布で重みづけ
- (1つ目のように距離を求めた後で、物体中心でガウシアン)
- (意味)
- (左にミカン、右にリンゴがある画像で、)
- (ミカンの中心を指定すれば、)
- (ミカンのまわりだけ見て類似画像を検索する?)
- <実装したGUI>
- (シンプルだ。。。)
- <領域分割の自動選択>
- クエリー画像から、10分割なら10の平均(または最頻値)が求まる
- それの平均をAveとする
- 10の平均とAveで分散が最大になる分割を選択する
- (この決め方の意味は?)
- 例えば、横に同じ色がつながる画像なら、横分割が選択される
- (ex.白い砂浜と、青い空)
- (なるほど、横切りなら分散が大きくなり、縦切りなら小さくなる)
- <実際に動かしてみる(CGI)>
- テスト方法:クエリー画像と似ている画像(出力してほしい画像)
- (を、画像セットから数枚選んでおく
- (そして何枚目に現れるかで良さを測る
- 全探索より、もちろん早く見つかる(1/3の手間)
- 「物体中心に重み付け」の手法では背景の無視が可能
- <結論>
- 画像に対し、保持する特徴量データが少なく、蓄えやすい
- <参考文献>
- (日本語の論文ばかりなのが気になった)
- (外国賛美ではダメだけれども)
- <私の感想>
- シンプルな発想で、とてもわかりやすい
- CGIで実装したのはとても良い経験
- 私も実装を重視しようと思えた