色彩情報に基づく画像検索システム

f:id:peroon:20041229014633j:image

という修士論文を読んでみた。()で囲まれた部分は私が思ったこと。

    • -
  • 「色情報を用いた類似画像検索」
  • セグメンテーション手法は4種類
  • 画像の分散により手法を使い分ける
  • RGB→Lab(人間の視覚特性に基づいた表現)
  • Webブラウザで使えるように実装
  • NAIST
  • 40枚ほど
  • 内容検索
  • 類似検索
  • 今までは「キーワード検索」
  • 「画像に付けるキーワードを自動生成」
  • 「文字型」の画像検索に変わりない
  • (「赤くて、棒が上から刺さっている植物」)
  • (変換)
  • (「りんご」で自動的に検索してくれる)
  • (っていう「文字→文字→検索」という手もある)
  • (デジカメにGPS機能が付けば、場所情報を使える)
  • (植物園で撮ったものだから「花火」ではなく「菊」だな)
  • 人手によるキーワード付け→主観的
  • 画像は言語より曖昧(人間が作った物ではないから)
  • 作ったのは、「文字ではなく画像を使った類似画像検索」
  • <4つの領域分割>
  • 横分割法(単純に横切り)(風景などは横長)
  • 立て分割法(縦切り)(氷柱(つらら)は縦長)
  • 円状分割法(同心円切り)(オレンジの中心=円の中心)
  • 放射状分割法(中心から放射状に切る)(遠近感のある画像)
  • <分割された領域ごとに「色彩特徴量」を求める>
  • Lab値の平均
  • 最頻度
  • (どちらかを用いる)
  • <類似度を求める(特徴量の比較)(2種類)>
  • 1つ目:普通に3次元(Lab)のユークリッド距離
  • (横切り10分割なら、対応する領域ごとに比較)
  • 2つ目:「ユーザ指定の画像中心」をガウス分布で重みづけ
  • (1つ目のように距離を求めた後で、物体中心でガウシアン)
  • (意味)
  • (左にミカン、右にリンゴがある画像で、)
  • (ミカンの中心を指定すれば、)
  • (ミカンのまわりだけ見て類似画像を検索する?)
  • <実装したGUI>
  • (シンプルだ。。。)
  • <領域分割の自動選択>
  • クエリー画像から、10分割なら10の平均(または最頻値)が求まる
  • それの平均をAveとする
  • 10の平均とAveで分散が最大になる分割を選択する
  • (この決め方の意味は?)
  • 例えば、横に同じ色がつながる画像なら、横分割が選択される
  • (ex.白い砂浜と、青い空)
  • (なるほど、横切りなら分散が大きくなり、縦切りなら小さくなる)
  • <実際に動かしてみる(CGI)>
  • テスト方法:クエリー画像と似ている画像(出力してほしい画像)
  • (を、画像セットから数枚選んでおく
  • (そして何枚目に現れるかで良さを測る
  • 全探索より、もちろん早く見つかる(1/3の手間)
  • 「物体中心に重み付け」の手法では背景の無視が可能
  • <結論>
  • 画像に対し、保持する特徴量データが少なく、蓄えやすい
  • <参考文献>
  • (日本語の論文ばかりなのが気になった)
  • (外国賛美ではダメだけれども)
  • <私の感想>
  • シンプルな発想で、とてもわかりやすい
  • CGIで実装したのはとても良い経験
  • 私も実装を重視しようと思えた