+

JP2007193590A - Image processing method, image processing device, reception terminal, and image processing program - Google Patents

Image processing method, image processing device, reception terminal, and image processing program Download PDF

Info

Publication number
JP2007193590A
JP2007193590A JP2006011299A JP2006011299A JP2007193590A JP 2007193590 A JP2007193590 A JP 2007193590A JP 2006011299 A JP2006011299 A JP 2006011299A JP 2006011299 A JP2006011299 A JP 2006011299A JP 2007193590 A JP2007193590 A JP 2007193590A
Authority
JP
Japan
Prior art keywords
image
face
image group
group
light distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006011299A
Other languages
Japanese (ja)
Inventor
Chizuko Ikeda
千鶴子 池田
Shoichi Nomura
庄一 野村
Kimiharu Akaboshi
公治 赤星
Yoshiaki Yamanaka
義明 山中
Shin Nakane
伸 中根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Photo Imaging Inc
Original Assignee
Konica Minolta Photo Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Photo Imaging Inc filed Critical Konica Minolta Photo Imaging Inc
Priority to JP2006011299A priority Critical patent/JP2007193590A/en
Publication of JP2007193590A publication Critical patent/JP2007193590A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable proper selection of an image to be used as an indicator image (a representative image) indicating contents of an image group, from images in the image group. <P>SOLUTION: In a control part 11 of the reception terminal 1 for receiving print orders, at least one image group is extracted based on predetermined conditions, from a plurality of images recorded in a medium M recording images having date and time information as added information, and a representative image indicating contents of images included in the image group is selected per extracted image group. When selecting the representative image, the control part 11 calculates light distribution characteristics in regard to at least one image in the image group, it carries out face extracting processing of extracting a face area of a person, and it selects the representative image on the basis of a calculation result of the light distribution characteristics and/or face area information of the image from which the face area is extracted. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像処理方法、画像処理装置、受付端末及び画像処理プログラムに関する。   The present invention relates to an image processing method, an image processing apparatus, a reception terminal, and an image processing program.

近年、アナログカメラに代わってデジタルカメラの普及が進んでいる。ショット数の増加に加え、撮影画像を記録・保存しておくメモリ(メディア)についても、大容量化・低価格化が進んでおり、1つのメモリに膨大な数の画像が記録可能となっている。この記録画像の増加によって、画像管理の必要性が生じ、例えば、旅行など一連の撮影画像毎にグループ分けする技術が所望され、検討されるようになっている。更には、グループ数も複数にわたるため、グループ分けした各グループの中身が一目でわかるような工夫が求められるようになった。   In recent years, digital cameras have been widely used in place of analog cameras. In addition to the increase in the number of shots, the memory (media) for recording and storing captured images is also increasing in capacity and price, and a huge number of images can be recorded in one memory. Yes. Due to the increase in the number of recorded images, the necessity of image management arises, and for example, a technique of grouping for each series of captured images such as travel is desired and studied. Furthermore, since there are a plurality of groups, it has become necessary to devise a way to understand at a glance the contents of each group.

画像グループの中身が一目でわかるように、画像グループの中から代表画像を選択する技術が提案されている。このような技術として、特許文献1には、画像グループ内の先頭コマ(日付が一番若いコマ)や最後のコマを画像グループ内の代表画像(代表コマ)とする技術が開示されている。また、特許文献2には、画像グループ内の全画像の特徴量(色相、彩度、明度等)の平均値に最も近い特徴量を有する画像又は最も撮影日が早い画像を画像グループ内の代表画像とする技術が開示されている。
特開2004−297176号公報 特開2004−310436号公報
A technique for selecting a representative image from an image group has been proposed so that the contents of the image group can be understood at a glance. As such a technique, Patent Document 1 discloses a technique in which the first frame (the frame with the youngest date) or the last frame in the image group is used as a representative image (representative frame) in the image group. Further, in Patent Document 2, an image having a feature amount closest to an average value of feature amounts (hue, saturation, brightness, etc.) of all images in the image group or an image having the earliest shooting date is represented as a representative in the image group. A technique for making an image is disclosed.
JP 2004-297176 A JP 2004-310436 A

しかしながら、上述の従来の技術には以下のような問題があった。
特許文献1に記載の技術では、最初や最後のコマがどのような写りであっても代表画像としてしまうため、写りの悪い画像が代表画像となることがあり、代表画像として適切ではない場合があった。また、特許文献2に記載の技術では、画像グループ内の全画像の特徴量の平均値に最も近い特徴量を有する画像を代表画像としているが、例えば、画像グループ内の画像のほとんどが、撮影環境として暗い場所で撮影された画像である場合、平均値に最も近い特徴量を有する画像が必ずしも代表画像として見やすい画像となっていないという問題があった。
However, the above-described conventional technology has the following problems.
In the technique disclosed in Patent Document 1, a representative image is used as a representative image regardless of what the first or last frame is captured. Therefore, a poorly captured image may be a representative image and may not be appropriate as a representative image. there were. In the technique described in Patent Document 2, an image having a feature value closest to the average value of the feature values of all the images in the image group is used as a representative image. For example, most of the images in the image group are captured. In the case of an image taken in a dark place as an environment, there is a problem that an image having a feature amount closest to the average value is not necessarily an easy-to-view image as a representative image.

本発明の課題は、画像グループ内の画像の中から、画像グループの内容を示唆する標識画像(代表画像)として適切な画像を選択可能とすることである。   An object of the present invention is to make it possible to select an appropriate image as a sign image (representative image) suggesting the contents of an image group from images in the image group.

上記課題を解決するため、請求項1に記載の発明は、付加情報として日時情報を有する画像が記録された記録手段に記録されている複数の画像から、所定の条件に基づいて少なくとも一つの画像グループを抽出する抽出工程と、前記抽出された画像グループに属する画像の中から、当該画像グループ内に含まれる画像の内容を示唆する標識画像を選択する選択工程と、を含む画像処理方法であって、前記選択工程では、前記画像グループ内の少なくとも一つの画像について配光性を算出し、当該配光性の算出結果に基づいて前記標識画像を選択することを特徴としている。   In order to solve the above-mentioned problem, the invention according to claim 1 is characterized in that at least one image based on a predetermined condition is selected from a plurality of images recorded in a recording unit in which an image having date information as additional information is recorded. An image processing method comprising: an extraction step of extracting a group; and a selection step of selecting a sign image suggesting the content of an image included in the image group from images belonging to the extracted image group. In the selection step, light distribution is calculated for at least one image in the image group, and the marker image is selected based on a calculation result of the light distribution.

請求項2に記載の発明は、付加情報として日時情報を有する画像が記録された記録手段に記録されている複数の画像から、所定の条件に基づいて少なくとも一つの画像グループを抽出する抽出工程と、前記抽出された画像グループに属する画像の中から、当該画像グループ内に含まれる画像の内容を示唆する標識画像を選択する選択工程と、を含む画像処理方法であって、前記選択工程では、前記画像グループ内の少なくとも一つの画像について人物の顔領域を抽出する顔抽出処理を行い、当該顔領域が抽出された画像の顔領域情報に基づいて前記標識画像を選択することを特徴としている。   The invention according to claim 2 is an extraction step of extracting at least one image group based on a predetermined condition from a plurality of images recorded in a recording unit in which an image having date / time information is recorded as additional information. A selection step of selecting a sign image suggesting the content of the image included in the image group from the images belonging to the extracted image group, wherein the selection step includes: A face extraction process for extracting a human face area from at least one image in the image group is performed, and the marker image is selected based on face area information of the image from which the face area is extracted.

請求項3に記載の発明は、付加情報として日時情報を有する画像が記録された記録手段に記録されている複数の画像から、所定の条件に基づいて少なくとも一つの画像グループを抽出する抽出工程と、前記抽出された画像グループに属する画像の中から、当該画像グループ内に含まれる画像の内容を示唆する標識画像を選択する選択工程と、を含む画像処理方法であって、
前記選択工程では、前記画像グループ内の少なくとも一つの画像について配光性を算出するとともに、人物の顔領域を抽出する顔抽出処理を行い、前記配光性の算出結果及び前記顔領域が抽出された画像の顔領域情報に基づいて前記標識画像を選択することを特徴としている。
The invention according to claim 3 is an extraction step of extracting at least one image group based on a predetermined condition from a plurality of images recorded in a recording unit in which an image having date / time information is recorded as additional information. A selection step of selecting a sign image suggesting the content of the image included in the image group from the images belonging to the extracted image group, and an image processing method comprising:
In the selection step, light distribution is calculated for at least one image in the image group, and a face extraction process for extracting a human face area is performed, and the light distribution calculation result and the face area are extracted. The marker image is selected based on face area information of the captured image.

請求項4に記載の発明は、請求項1又は3に記載の画像処理方法において、前記選択工程では、前記配光性として、順光度、ストロボ度を算出することを特徴としている。   According to a fourth aspect of the present invention, in the image processing method according to the first or third aspect, in the selection step, the light intensity and the strobe degree are calculated as the light distribution.

請求項5に記載の発明は、請求項2又は3に記載の画像処理方法において、前記顔領域情報は、顔の大きさ、顔の位置の少なくとも一つを含むことを特徴としている。   A fifth aspect of the present invention is the image processing method according to the second or third aspect, wherein the face area information includes at least one of a face size and a face position.

請求項6に記載の発明は、請求項1〜5の何れか一項に記載の画像処理方法において、前記画像グループ内の画像データのうちプリント注文する画像データを選択する操作を受け付ける操作工程と、前記選択された画像データをプリント用画像データとして画像形成手段に送信する送信工程と、を含むことを特徴としている。   According to a sixth aspect of the present invention, in the image processing method according to any one of the first to fifth aspects, an operation step of accepting an operation of selecting image data to be printed out of the image data in the image group; And a transmission step of transmitting the selected image data as image data for printing to the image forming means.

請求項7に記載の発明は、付加情報として日時情報を有する画像が記録された記録手段に記録されている複数の画像から、所定の条件に基づいて少なくとも一つの画像グループを抽出する抽出手段と、前記抽出された画像グループに属する画像の中から、当該画像グループ内に含まれる画像の内容を示唆する標識画像を選択する選択手段と、を備える画像処理装置であって、前記選択手段は、前記画像グループ内の少なくとも一つの画像について配光性を算出し、当該配光性の算出結果に基づいて前記標識画像を選択することを特徴としている。   The invention according to claim 7 is an extraction means for extracting at least one image group based on a predetermined condition from a plurality of images recorded in a recording means in which an image having date / time information is recorded as additional information. A selection means for selecting a sign image suggesting the content of the image included in the image group from the images belonging to the extracted image group, wherein the selection means includes: Light distribution is calculated for at least one image in the image group, and the marker image is selected based on the calculation result of the light distribution.

請求項8に記載の発明は、付加情報として日時情報を有する画像が記録された記録手段に記録されている複数の画像から、所定の条件に基づいて少なくとも一つの画像グループを抽出する抽出手段と、前記抽出された画像グループに属する画像の中から、当該画像グループ内に含まれる画像の内容を示唆する標識画像を選択する選択手段と、を備える画像処理装置であって、前記選択手段は、前記画像グループ内の少なくとも一つの画像について人物の顔領域を抽出する顔抽出処理を行い、当該顔領域が抽出された画像の顔領域情報に基づいて前記標識画像を選択することを特徴としている。   According to an eighth aspect of the present invention, there is provided an extracting means for extracting at least one image group based on a predetermined condition from a plurality of images recorded in a recording means in which an image having date / time information is recorded as additional information. A selection means for selecting a sign image suggesting the content of the image included in the image group from the images belonging to the extracted image group, wherein the selection means includes: A face extraction process for extracting a human face area from at least one image in the image group is performed, and the marker image is selected based on face area information of the image from which the face area is extracted.

請求項9に記載の発明は、付加情報として日時情報を有する画像が記録された記録手段に記録されている複数の画像から、所定の条件に基づいて少なくとも一つの画像グループを抽出する抽出手段と、前記抽出された画像グループに属する画像の中から、当該画像グループ内に含まれる画像の内容を示唆する標識画像を選択する選択手段と、を備える画像処理装置であって、前記選択手段は、前記画像グループ内の少なくとも一つの画像について配光性を算出するとともに、人物の顔領域を抽出する顔抽出処理を行い、前記配光性の算出結果及び前記顔領域が抽出された画像の顔領域情報に基づいて前記標識画像を選択することを特徴としている。   The invention according to claim 9 is an extraction means for extracting at least one image group based on a predetermined condition from a plurality of images recorded in a recording means in which an image having date and time information is recorded as additional information. A selection means for selecting a sign image suggesting the content of the image included in the image group from the images belonging to the extracted image group, wherein the selection means includes: The light distribution is calculated for at least one image in the image group, and a face extraction process for extracting a human face area is performed, and the calculation result of the light distribution and the face area of the image from which the face area is extracted The marker image is selected based on information.

請求項10に記載の発明は、請求項7又は9に記載の画像処理装置において、前記選択手段は、前記配光性として、順光度、ストロボ度を算出することを特徴としている。   According to a tenth aspect of the present invention, in the image processing apparatus according to the seventh or ninth aspect, the selection means calculates a light intensity and a strobe degree as the light distribution.

請求項11に記載の発明は、請求項8又は9に記載の画像処理装置において、前記顔領域情報は、顔の大きさ、顔の位置の少なくとも一つを含むことを特徴としている。   According to an eleventh aspect of the present invention, in the image processing apparatus according to the eighth or ninth aspect, the face area information includes at least one of a face size and a face position.

請求項12に記載の発明は、顧客からのプリント注文を受け付けるための受付端末において、請求項7〜11の何れか一項に記載の画像処理装置と、前記画像グループ内の画像データのうちプリント注文する画像データを選択する操作を受け付ける操作手段と、前記選択された画像データをプリント用画像データとして画像形成手段に送信する送信手段と、を備えることを特徴としている。   According to a twelfth aspect of the present invention, in the reception terminal for receiving a print order from a customer, the image processing apparatus according to any one of the seventh to eleventh aspects and a print out of the image data in the image group. An operation unit that receives an operation of selecting image data to be ordered and a transmission unit that transmits the selected image data as image data for printing to an image forming unit.

請求項13に記載の発明は、画像処理を制御するコンピュータを、
付加情報として日時情報を有する画像が記録された記録手段に記録されている複数の画像から、所定の条件に基づいて少なくとも一つの画像グループを抽出する抽出手段、
前記抽出された画像グループ内の少なくとも一つの画像について配光性を算出し、当該配光性の算出結果に基づいて、当該画像グループに属する画像の中から、当該画像グループ内に含まれる画像の内容を示唆する標識画像を選択する選択手段、として機能させるための画像処理プログラムである。
According to a thirteenth aspect of the present invention, there is provided a computer that controls image processing.
Extraction means for extracting at least one image group based on a predetermined condition from a plurality of images recorded in a recording means in which an image having date and time information is recorded as additional information;
Light distribution is calculated for at least one image in the extracted image group, and based on the calculation result of the light distribution, an image included in the image group is selected from images belonging to the image group. It is an image processing program for functioning as a selection means for selecting a sign image suggesting the contents.

請求項14に記載の発明は、画像処理を制御するコンピュータを、
付加情報として日時情報を有する画像が記録された記録手段に記録されている複数の画像から、所定の条件に基づいて少なくとも一つの画像グループを抽出する抽出手段、
前記抽出された画像グループ内の少なくとも一つの画像について人物の顔領域を抽出する顔抽出処理を行い、当該顔領域が抽出された画像の顔領域情報に基づいて、当該画像グループに属する画像の中から、当該画像グループ内に含まれる画像の内容を示唆する標識画像を選択する選択手段、として機能させるための画像処理プログラムである。
The invention according to claim 14 is a computer for controlling image processing.
Extraction means for extracting at least one image group based on a predetermined condition from a plurality of images recorded in a recording means in which an image having date and time information is recorded as additional information;
A face extraction process is performed to extract a human face area for at least one image in the extracted image group, and based on the face area information of the image from which the face area is extracted, To an image processing program for functioning as selection means for selecting a sign image suggesting the content of an image included in the image group.

請求項15に記載の発明は、画像処理を制御するコンピュータを、
付加情報として日時情報を有する画像が記録された記録手段に記録されている複数の画像から、所定の条件に基づいて少なくとも一つの画像グループを抽出する抽出手段、
前記抽出された画像グループ内の少なくとも一つの画像について配光性を算出するとともに、人物の顔領域を抽出する顔抽出処理を行い、前記配光性の算出結果及び前記顔領域が抽出された画像の顔領域情報に基づいて、当該画像グループに属する画像の中から、当該画像グループ内に含まれる画像の内容を示唆する標識画像を選択する選択手段、として機能させるための画像処理プログラムである。
The invention according to claim 15 is a computer for controlling image processing.
Extraction means for extracting at least one image group based on a predetermined condition from a plurality of images recorded in a recording means in which an image having date and time information is recorded as additional information;
The light distribution is calculated for at least one image in the extracted image group, and a face extraction process for extracting a human face area is performed, and the calculation result of the light distribution and the image from which the face area is extracted This is an image processing program for functioning as selection means for selecting a sign image suggesting the content of an image included in the image group from images belonging to the image group based on the face area information.

請求項16に記載の発明は、請求項13又は15に記載の画像処理プログラムにおいて、前記選択手段は、前記配光性として、順光度、ストロボ度を算出することを特徴としている。   According to a sixteenth aspect of the present invention, in the image processing program according to the thirteenth or fifteenth aspect, the selection unit calculates a light intensity and a strobe degree as the light distribution.

請求項17に記載の発明は、請求項14又は15に記載の画像処理プログラムにおいて、前記顔領域情報は、顔の大きさ、顔の位置の少なくとも一つを含むことを特徴としている。   According to a seventeenth aspect of the present invention, in the image processing program according to the fourteenth or fifteenth aspect, the face area information includes at least one of a face size and a face position.

請求項18に記載の発明は、請求項13〜17の何れか一項に記載の画像処理プログラムにおいて、前記コンピュータを、前記画像グループ内の画像データのうちプリント注文する画像データを選択する操作を受け付ける操作手段、前記選択された画像データをプリント用画像データとして画像形成手段に送信する送信手段、として機能させることを特徴としている。   According to an eighteenth aspect of the present invention, in the image processing program according to any one of the thirteenth to seventeenth aspects, the computer performs an operation of selecting image data to be printed out of the image data in the image group. It is characterized by functioning as an operating means for receiving and a transmitting means for transmitting the selected image data as image data for printing to the image forming means.

本発明によれば、画像グループ内の画像の配光性、顔領域情報の少なくとも一方に基づいて標識画像を選択することにより、標識画像として適切な画像が選択可能となる。従って、画像グループの内容を想定することが容易となる。   According to the present invention, it is possible to select an appropriate image as a sign image by selecting the sign image based on at least one of the light distribution of the images in the image group and the face area information. Therefore, it is easy to assume the contents of the image group.

特に、画像グループ内の配光性に基づいて標識画像(具体的には、順光度の高い画像)を選択する場合、標識画像を表示部に表示した際に画像内容の視認性が高くなる。   In particular, when a sign image (specifically, an image with high light intensity) is selected based on the light distribution in the image group, the visibility of the image content is enhanced when the sign image is displayed on the display unit.

また、顔領域情報に基づいて標識画像を選択する場合、画像グループの内容を把握するのが容易になる。   Further, when a sign image is selected based on face area information, it becomes easy to grasp the contents of the image group.

更に、画像グループ内の配光性及び顔領域情報に基づいて標識画像を選択する場合、標識画像を表示部に表示した際に画像内容の視認性が高くなるとともに、画像グループの内容を把握するのが容易になる。また、顔抽出処理の抽出精度を向上させることが可能となる。   Furthermore, when a sign image is selected based on the light distribution and face area information in the image group, the visibility of the image content is enhanced when the sign image is displayed on the display unit, and the content of the image group is grasped. It becomes easy. In addition, the extraction accuracy of the face extraction process can be improved.

以下、図面を参照して、本発明の実施形態を説明する。
まず、本実施形態における構成について説明する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
First, the configuration in the present embodiment will be described.

図1に、本実施形態の画像処理システム100の構成を示す。画像処理システム100は、図1に示すように、顧客(ユーザ)からのプリント注文を受け付けるための受付端末1、各顧客のプリント注文に係る情報を管理するためのオーダー管理装置2、画像をプリントする画像形成手段としての画像プリンタ部4、メディアに画像情報を書き込む画像メディア書込部5により構成され、オーダー管理装置2には、受付端末1、画像プリンタ部4、画像メディア書込部5が接続される。なお、オーダー管理装置2に接続される受付端末1、画像プリンタ部4、画像メディア書込部5の台数は特に限定されない。   FIG. 1 shows a configuration of an image processing system 100 of the present embodiment. As shown in FIG. 1, the image processing system 100 includes a reception terminal 1 for receiving a print order from a customer (user), an order management apparatus 2 for managing information related to the print order of each customer, and printing an image. An image printer unit 4 serving as an image forming unit, and an image media writing unit 5 that writes image information to a medium. The order management device 2 includes a receiving terminal 1, an image printer unit 4, and an image media writing unit 5. Connected. Note that the numbers of the reception terminal 1, the image printer unit 4, and the image media writing unit 5 connected to the order management apparatus 2 are not particularly limited.

図2に、受付端末1の主要部構成を示す。受付端末1は、プリント注文を受け付けるための店舗に設置され、図2に示すように、制御部11、表示部12、操作入力部13、メディア読取部14、記憶部15、注文確認票発行部16、通信部17により構成され、各部はバス18を介して相互に接続される。   In FIG. 2, the principal part structure of the reception terminal 1 is shown. The reception terminal 1 is installed in a store for receiving print orders, and as shown in FIG. 2, a control unit 11, a display unit 12, an operation input unit 13, a media reading unit 14, a storage unit 15, and an order confirmation slip issuing unit. 16 and a communication unit 17, which are connected to each other via a bus 18.

制御部11は、CPU(Central Processing Unit)等により構成され、記憶部15に格納された各種処理プログラムに従って、受付端末1を構成する各部の動作を制御する。例えば、制御部11は、メディアMに記録されている複数の画像から、所定の条件(画像に付加された日時情報等。詳細は後述。)に基づいて少なくとも一つの画像グループを抽出するグルーピング処理と、抽出された画像グループの画像の中から、配光性、人物の顔領域情報の少なくとも一方に基づいて、当該画像グループ内に含まれる画像の内容を示唆する標識画像(代表画像)を選択する代表画像選択処理を実行する(図5参照)。なお、制御部11は、本発明の抽出手段、選択手段としての機能を有し、受付端末1は、本発明の画像処理装置を備えた構成となっている。   The control unit 11 is configured by a CPU (Central Processing Unit) or the like, and controls the operation of each unit constituting the reception terminal 1 according to various processing programs stored in the storage unit 15. For example, the control unit 11 extracts at least one image group from a plurality of images recorded on the medium M based on a predetermined condition (date and time information added to the image, details will be described later). And a sign image (representative image) that suggests the content of the image included in the image group based on at least one of light distribution and human face area information from the extracted image group images The representative image selection process is executed (see FIG. 5). The control unit 11 has functions as an extraction unit and a selection unit of the present invention, and the reception terminal 1 has a configuration including the image processing apparatus of the present invention.

表示部12は、LCD(Liquid Crystal Display)等の表示ディスプレイにより構成され、制御部11から入力される表示制御信号に従って、所要の表示処理を行う。   The display unit 12 is configured by a display such as an LCD (Liquid Crystal Display), and performs a required display process according to a display control signal input from the control unit 11.

操作入力部13は、テンキー、カーソルキー、各種ファンクションキー等を有し、キーの押下による操作信号を制御部11に出力する。また、操作入力部13は、表示部12の表示ディスプレイを覆うように設けられたタッチパネルを有し、電磁誘導式、磁気歪式、感圧式等の座標読み取り原理でタッチ指示された座標を検出し、検出した座標を位置信号として制御部11に出力する。   The operation input unit 13 includes a numeric keypad, cursor keys, various function keys, and the like, and outputs an operation signal generated by pressing the key to the control unit 11. Further, the operation input unit 13 has a touch panel provided so as to cover the display display of the display unit 12, and detects a coordinate instructed to be touched by a coordinate reading principle such as an electromagnetic induction type, a magnetostriction type, a pressure sensitive type or the like. The detected coordinates are output to the control unit 11 as a position signal.

メディア読取部14は、メモリスティック(登録商標)、スマートメディア(登録商標)、コンパクトフラッシュ(登録商標)、マルチメディアカード(登録商標)、SDメモリカード(登録商標)、PCカード等のメディア(記録手段)Mが装着可能な構成となっており、装着されたメディアMに記録されたデータを読み取る。なお、本実施形態では、ユーザが持参したこれらのメディアを、本発明の記録手段としているが、受付端末1に内蔵された或いは外付けされたハードディスク、受付端末1に接続された画像サーバ等を記録手段としてもよい。   The media reading unit 14 is a medium (recording device) such as a memory stick (registered trademark), smart media (registered trademark), compact flash (registered trademark), multimedia card (registered trademark), SD memory card (registered trademark), or PC card. Means) M is configured to be mountable, and reads data recorded on the mounted medium M. In the present embodiment, these media brought by the user are used as the recording means of the present invention. However, a hard disk built in the reception terminal 1 or an external hard disk, an image server connected to the reception terminal 1, and the like are used. Recording means may be used.

記憶部15は、制御部11により実行される各種処理プログラム及びこれらの処理プログラムの実行時に使用されるデータ等を格納している。   The storage unit 15 stores various processing programs executed by the control unit 11 and data used when these processing programs are executed.

注文確認票発行部16は、制御部11からの制御信号に従って、ユーザにプリント注文の内容を確認させるための注文確認票やレシートを印刷出力する。   The order confirmation form issuing unit 16 prints out an order confirmation form or a receipt for allowing the user to confirm the contents of the print order in accordance with a control signal from the control unit 11.

通信部17は、モデム、ターミナルアダプタ、LANアダプタ等によって構成され、電話回線、ISDN回線、或いは専用線等の通信ネットワークを介して、外部機器(オーダー管理装置2)との通信を行うための通信制御を行う。   The communication unit 17 includes a modem, a terminal adapter, a LAN adapter, and the like, and performs communication with an external device (order management device 2) via a communication network such as a telephone line, an ISDN line, or a dedicated line. Take control.

図3に、オーダー管理装置2の主要部構成を示す。オーダー管理装置2は、図3に示すように、制御部21、表示部22、操作入力部23、記憶部24、I/F(インターフェイス)部25、通信部26、DB参照部27により構成され、各部はバス28を介して相互に接続される。   FIG. 3 shows a main part configuration of the order management apparatus 2. As shown in FIG. 3, the order management apparatus 2 includes a control unit 21, a display unit 22, an operation input unit 23, a storage unit 24, an I / F (interface) unit 25, a communication unit 26, and a DB reference unit 27. These units are connected to each other via a bus 28.

制御部21は、CPU等により構成され、記憶部24に格納された各種処理プログラムに従って、オーダー管理装置2を構成する各部の動作を制御する。   The control unit 21 is configured by a CPU or the like, and controls the operation of each unit constituting the order management device 2 according to various processing programs stored in the storage unit 24.

表示部22は、LCD等の表示ディスプレイにより構成され、制御部21から入力される表示制御信号に従って、所要の表示処理を行う。   The display unit 22 is configured by a display such as an LCD, and performs a required display process according to a display control signal input from the control unit 21.

操作入力部23は、テンキー、カーソルキー、各種ファンクションキー等を有し、キーの押下による操作信号を制御部11に出力する。なお、操作入力部23に、表示部22の表示ディスプレイを覆うようにタッチパネルを設けようにしてもよい。   The operation input unit 23 includes a numeric keypad, cursor keys, various function keys, and the like, and outputs an operation signal generated by pressing the key to the control unit 11. The operation input unit 23 may be provided with a touch panel so as to cover the display display of the display unit 22.

記憶部24は、制御部21により実行される各種処理プログラム及びこれらの処理プログラムの実行時に使用されるデータ等を格納している。   The storage unit 24 stores various processing programs executed by the control unit 21 and data used when these processing programs are executed.

I/F部25は、外部機器とデータ通信可能な通信モジュールであり、制御部21からの制御信号に従って、画像プリンタ部4、画像メディア書込部5にデータ出力を行う。   The I / F unit 25 is a communication module capable of data communication with an external device, and outputs data to the image printer unit 4 and the image media writing unit 5 in accordance with a control signal from the control unit 21.

通信部26は、モデム、ターミナルアダプタ、LANアダプタ等によって構成され、電話回線、ISDN回線、或いは専用線等の通信ネットワークを介して、外部機器(受付端末1)との通信を行うための通信制御を行う。   The communication unit 26 includes a modem, a terminal adapter, a LAN adapter, and the like, and performs communication control for communicating with an external device (receiving terminal 1) via a communication network such as a telephone line, an ISDN line, or a dedicated line. I do.

DB参照部27は、制御部21からの指示により、DB(DataBase)部3に格納された情報の読み出しや、情報の書き込みを行う。   The DB reference unit 27 reads information stored in a DB (DataBase) unit 3 and writes information in accordance with an instruction from the control unit 21.

図1に戻る。DB部3は、顧客に対して実施した過去のプリント注文サービスの履歴を示すサービス履歴情報を格納している。   Returning to FIG. The DB unit 3 stores service history information indicating a history of past print order services performed for the customer.

画像プリンタ部4は、オーダー管理装置2からの指示により、所定のプリント方式(電子写真方式、インクジェット方式、熱昇華方式等)でプリント出力を行う。   The image printer unit 4 performs print output by a predetermined printing method (electrophotographic method, ink jet method, thermal sublimation method, etc.) according to an instruction from the order management device 2.

画像メディア書込部5は、CD−R等のメディアが装着可能な構成となっており、オーダー管理装置2からの指示により、装着されたメディアに画像情報を書き込む   The image media writing unit 5 is configured to be able to load a medium such as a CD-R, and writes image information to the loaded medium according to an instruction from the order management apparatus 2.

次に、本実施形態における動作について説明する。
まず、図4のフローチャートを参照して、プリント注文の受付時に受付端末1において実行される処理(a)と、オーダー管理装置2において実行される処理(b)について説明する。
Next, the operation in this embodiment will be described.
First, with reference to the flowchart of FIG. 4, the process (a) performed in the reception terminal 1 at the time of reception of a print order and the process (b) performed in the order management apparatus 2 are demonstrated.

受付端末1のメディア読取部14に、画像が記録されたメディアMが挿入されると、当該メディアMが読み込まれ、メディアMに記録された全画像をグルーピング対象画像として、当該グルーピング対象画像から画像グループを抽出するグルーピング処理が行われる(ステップS1)。次いで、抽出された画像グループ毎に、配光性、人物の顔領域情報の少なくとも一方に基づいて、当該画像グループ内に含まれる画像の内容を示唆する標識画像(代表画像)を選択する代表画像選択処理が行われる(ステップS2)。   When the medium M on which the image is recorded is inserted into the media reading unit 14 of the receiving terminal 1, the medium M is read, and all the images recorded on the medium M are set as grouping target images and images from the grouping target image are displayed. A grouping process for extracting groups is performed (step S1). Next, for each extracted image group, a representative image that selects a sign image (representative image) that suggests the contents of the image included in the image group based on at least one of light distribution and human face area information A selection process is performed (step S2).

ステップS1及びS2に示したグルーピング・代表画像選択処理について、図5のフローチャートを参照して詳細に説明する。   The grouping / representative image selection process shown in steps S1 and S2 will be described in detail with reference to the flowchart of FIG.

まず、メディアMから読み込まれたグルーピング対象画像の画像数が計数され(ステップS10)、画像数が所定数より多いか否かが判定される(ステップS11)。ステップS11において、グルーピング対象画像の画像数が所定数以下であると判定された場合(ステップS11;NO)、グルーピング処理はせずに、画像グループ数を1(N=1)として後述のステップS13に移行する。   First, the number of grouping target images read from the medium M is counted (step S10), and it is determined whether the number of images is greater than a predetermined number (step S11). If it is determined in step S11 that the number of grouping target images is equal to or less than the predetermined number (step S11; NO), the grouping process is not performed, and the number of image groups is set to 1 (N = 1), which will be described later. Migrate to

ステップS11において、グルーピング対象画像の画像数が所定数より多いと判定された場合(ステップS11;YES)、当該グルーピング対象画像から画像グループを抽出するグルーピング処理が行われる(ステップS12)。以下、ステップS12のグルーピング処理で得られる画像グループの数をNとする。   If it is determined in step S11 that the number of grouping target images is greater than the predetermined number (step S11; YES), a grouping process for extracting image groups from the grouping target images is performed (step S12). Hereinafter, the number of image groups obtained by the grouping process in step S12 is N.

グルーピング処理の手法としては、旅行や各種イベント等、ユーザにとって連続的に同一の意図をもって撮影された画像を同一の画像グループとしてグルーピングすることが好ましく、当業界で公知の手法を用いることができる。具体的には、画像に付加された日時情報を用いてグルーピングすることが好ましく、例えば、特開2005−174060号公報に記載されているように、GPS(Global Positioning System)情報等を利用して、撮影場所に応じてグルーピングする手法を併用してもよい。   As a grouping processing method, it is preferable to group images that are continuously photographed with the same intention for the user, such as trips and various events, into the same image group, and a method known in the art can be used. Specifically, it is preferable to perform grouping using date and time information added to the image. For example, as described in JP-A-2005-174060, GPS (Global Positioning System) information or the like is used. A method of grouping according to the shooting location may be used in combination.

日時情報は、画像の生成や更新の日時を示す情報であり、デジタルカメラ等の撮影機器による撮影によって生成された画像であれば、所定の画像が撮影によって生成された日時を示す情報である、いわゆる撮影日時情報が好ましい。CG(Computer Graphics)画像等、エディタを使用して生成された画像であれば、その画像ファイルの生成日時又は更新日時を日時情報として使用すればよい。   The date / time information is information indicating the date / time of image generation or update, and is information indicating the date / time when a predetermined image is generated by shooting if the image is generated by shooting by a shooting device such as a digital camera. So-called shooting date / time information is preferable. If the image is generated using an editor, such as a CG (Computer Graphics) image, the generation date / time or update date / time of the image file may be used as the date / time information.

日時情報としては、JPEG(Joint Photographic Coding Experts Group)、TIFF(Tagged Image File Format)、Exif(Exchangeable Image File Format)等に代表される各種の汎用画像フォーマットに規定されている既存のタグ情報を利用することができるが、これに限定されず、例えばメーカーノート等の自由に使用可能な領域に設定されている情報を利用してもよい。   As the date and time information, existing tag information defined in various general-purpose image formats represented by JPEG (Joint Photographic Coding Experts Group), TIFF (Tagged Image File Format), Exif (Exchangeable Image File Format), etc. is used. However, the present invention is not limited to this, and information set in a freely usable area such as a maker note may be used.

日時情報を用いてグルーピングする具体的な手法としては、例えば、特開2001−228528号公報等に記載されているように、日時情報の差分が閾値より小さければ同一の画像グループにする手法が挙げられる。より好ましくは、日時情報に対する撮影画像の出現頻度の推移において、一次微分やヒストグラム分割の手法を用いて谷部を検出し、これを画像グループの区切りとして用いる手法や、上記日時情報の差分を閾値と比較してグルーピングする手法において、閾値の値を日時情報に応じて変換させる(撮影日時が古いほど閾値を大きくする)手法が好ましい。   As a specific method of grouping using date and time information, for example, as described in Japanese Patent Application Laid-Open No. 2001-228528, a method of forming the same image group when the difference in date and time information is smaller than a threshold value can be given. It is done. More preferably, in the transition of the appearance frequency of the captured image with respect to the date / time information, a valley is detected using a technique of primary differentiation or histogram division, and this is used as an image group separator, or the difference between the date / time information is a threshold value. In the grouping method, the threshold value is preferably converted according to the date / time information (the older the shooting date and time, the larger the threshold value).

ステップS12のグルーピング処理の終了後、又はステップS11において、グルーピング対象画像の画像数が所定数以下であると判定された場合(ステップS11;NO)、画像グループをカウントするためのカウンタ値Iが1に設定され、I番目の画像グループ内の少なくとも一つの画像について、配光性(順光度、ストロボ度)が算出される(ステップS13)。   After completion of the grouping process in step S12 or when it is determined in step S11 that the number of grouping target images is equal to or smaller than a predetermined number (step S11; NO), the counter value I for counting the image groups is 1. And at least one image in the I-th image group is calculated with respect to light distribution (forward light intensity, strobe light degree) (step S13).

配光性の算出方法としては、Exif等のタグ情報(例えば、撮影時のストロボ発光の有無が記載されているExifのフラッシュタグ)を用いて撮影条件を抽出して配光性を算出してもよいし、画像解析処理を行って算出するなど、当業界で公知の手法を用いることができる。具体的には、撮影画像データを所定の明度と色相の組み合わせからなる領域に分割し、当該分割された領域毎に、撮影画像データ全体に占める割合を示す占有率を算出し、各領域の占有率に、撮影条件に応じて予め設定された係数を乗算する演算を行うことにより、撮影時の配光性を算出する方法を用いることが好ましい。この配光性の算出方法の具体例については、後に図8〜図18を参照して詳細に説明する。   The light distribution can be calculated by extracting shooting conditions using tag information such as Exif (for example, an Exif flash tag in which the presence or absence of flash emission at the time of shooting is described) and calculating the light distribution. It is also possible to use a method known in the art, such as calculation by performing image analysis processing. Specifically, the captured image data is divided into regions each having a predetermined combination of brightness and hue, and an occupation ratio indicating the proportion of the entire captured image data is calculated for each of the divided regions. It is preferable to use a method of calculating the light distribution at the time of photographing by performing an operation of multiplying the rate by a coefficient set in advance according to the photographing conditions. A specific example of this light distribution calculation method will be described later in detail with reference to FIGS.

次いで、I番目の画像グループの画像の中に、順光度が閾値以上の画像があるか否かが判定される(ステップS14)。ステップS14において、順光度が閾値以上の画像がないと判定された場合(ステップS14;NO)、I番目の画像グループの画像の中に、ストロボ度が閾値以上の画像があるか否かが判定される(ステップS15)。ステップS15において、ストロボ度が閾値以上の画像がないと判定された場合(ステップS15;NO)、I番目の画像グループの画像の中から、撮影日時の最も新しい画像が代表画像として選択される(ステップS21)。   Next, it is determined whether or not there is an image having a light intensity greater than or equal to a threshold value among the images of the I-th image group (step S14). If it is determined in step S14 that there is no image with a forward light intensity equal to or greater than the threshold (step S14; NO), it is determined whether or not there is an image with a strobe degree equal to or greater than the threshold in the images of the I-th image group. (Step S15). If it is determined in step S15 that there is no image with a strobe degree equal to or greater than the threshold value (step S15; NO), the image with the latest shooting date and time is selected as the representative image from the images of the I-th image group ( Step S21).

ステップS14において、順光度が閾値以上の画像があると判定された場合(ステップS14;YES)、その画像について、人物の顔領域を抽出する顔抽出処理が行われる(ステップS16)。ステップS15において、ストロボ度が閾値以上の画像があると判定された場合(ステップS15;YES)、その画像について、人物の顔領域を抽出する顔抽出処理が行われる(ステップS16)。   In step S14, when it is determined that there is an image having a light intensity equal to or greater than the threshold (step S14; YES), a face extraction process for extracting a person's face area is performed on the image (step S16). If it is determined in step S15 that there is an image with a strobe degree equal to or greater than the threshold value (step S15; YES), face extraction processing for extracting a human face area is performed on the image (step S16).

顔抽出処理の手法としては、例えば、特開平6−67320号公報に記載の色相と彩度の2次元ヒストグラムを用いる手法や、特開平8−122944号公報、特開平8−184925号公報、特開平9−138471号公報に記載のパターンマッチング処理を用いる手法や、特開平9−138471号公報に記載のパターン検索方法等を用いることができる。また、特開平5−282457号公報、特開平6−214970号公報等に記載のニューラルネットワークを用いて人物の顔候補領域を判定する方法等、種々の方法を用いることができる。ニューラルネットワークを用いた顔抽出処理の具体例については、後に図19〜図22を参照して詳細に説明する。   As a method of face extraction processing, for example, a method using a two-dimensional histogram of hue and saturation described in JP-A-6-67320, JP-A-8-122944, JP-A-8-184925, A method using the pattern matching process described in Kaihei 9-138471, a pattern search method described in Japanese Patent Laid-Open No. 9-138471, and the like can be used. In addition, various methods such as a method for determining a human face candidate region using a neural network described in Japanese Patent Laid-Open Nos. 5-282457 and 6-214970 can be used. A specific example of face extraction processing using a neural network will be described later in detail with reference to FIGS.

顔抽出処理が終了すると、当該顔抽出処理によって顔領域が抽出されたか否か(顔画像があるか否か)が判定される(ステップS17)。ステップS17において、顔領域が抽出されなかった場合(ステップS17;NO)、ステップS13で算出された配光性に基づいてI番目の画像グループの代表画像が選択される(ステップS20)。ステップS20では、I番目の画像グループの画像の中から、配光性が最も優れた画像、即ち、順光度が最も高い画像が代表画像として選択される。順光度が閾値以上の画像がない場合には、ストロボ度が最も高い画像が代表画像として選択される。   When the face extraction process ends, it is determined whether or not a face area has been extracted by the face extraction process (whether there is a face image) (step S17). In step S17, when the face area is not extracted (step S17; NO), the representative image of the I-th image group is selected based on the light distribution calculated in step S13 (step S20). In step S20, an image having the best light distribution, that is, an image having the highest luminous intensity is selected as a representative image from the images of the I-th image group. If there is no image having a light intensity equal to or greater than the threshold value, an image having the highest strobe light is selected as the representative image.

ステップS17において、顔領域が抽出された場合(ステップS17;YES)、当該顔領域が抽出された画像から顔領域情報が取得される(ステップS18)。顔が写っていても、その顔が主要被写体でない場合には代表画像として適切ではないため、適切な代表画像を選択するために、ステップS18では、顔領域情報として、画像領域に対する顔の大きさ、顔の位置の一方、より好ましくは双方が取得される。更に好ましい代表画像を選択するために、顔の大きさ、顔の位置に加えて、顔の明度、彩度、色相、顔の数を顔領域情報として取得してもよい。   If a face area is extracted in step S17 (step S17; YES), face area information is acquired from the image from which the face area is extracted (step S18). Even if a face is shown, if the face is not the main subject, it is not appropriate as a representative image. Therefore, in order to select an appropriate representative image, in step S18, the size of the face relative to the image area is used as face area information. One of the face positions, more preferably both, is acquired. In order to select a more preferable representative image, in addition to the face size and the face position, the brightness, saturation, hue, and number of faces of the face may be acquired as face area information.

顔領域情報が取得されると、その顔領域情報に基づいてI番目の画像グループの代表画像が選択される(ステップS19)。代表画像の選択条件は、顔の大きさに基づいて選択する場合、画像領域に対する顔(顔が複数写っている場合には、最も大きい顔)の大きさの占有率が2%以上50%以下であることが好ましい。顔の位置に基づいて選択する場合、顔領域(顔が複数写っている場合には、最も大きい顔)の80%以上が、画像領域の中央50%の位置に位置していることが好ましい。なお、代表画像の選択条件は、画像の配光性が順光であるかストロボであるかに応じて変更することが好ましい。   When the face area information is acquired, the representative image of the I-th image group is selected based on the face area information (step S19). When selecting based on the size of the face, the selection condition of the representative image is that the occupation ratio of the size of the face (the largest face when there are a plurality of faces) is 2% or more and 50% or less. It is preferable that When selecting based on the position of the face, it is preferable that 80% or more of the face area (the largest face when there are a plurality of faces) is located at the center 50% of the image area. The representative image selection condition is preferably changed according to whether the light distribution of the image is normal light or strobe light.

また、顔領域が抽出された代表画像が選択された場合、抽出された顔が適正な色値になるように当該代表画像に対し補正処理を施し、補正処理後の代表画像を後述のステップS3において表示部12に表示するようにしてもよい。例えば、抽出された顔の顔領域情報から顔領域の平均明度を取得し、この平均明度の値が所定値(例えば、L*=65)になるように階調変換処理を施すなど、より顧客が見やすい画像に補正してもよい。   When a representative image from which a face area is extracted is selected, correction processing is performed on the representative image so that the extracted face has an appropriate color value, and the representative image after correction processing is processed in step S3 described later. May be displayed on the display unit 12. For example, the average brightness of the face area is acquired from the extracted face area information of the face, and gradation conversion processing is performed so that the average brightness value becomes a predetermined value (for example, L * = 65). May be corrected to an image that is easy to see.

I番目の画像グループの代表画像が選択されると、カウンタ値IがN−1以下であるか否かが判定される(ステップS22)。ステップS22において、カウンタ値IがN−1以下であると判定された場合(ステップS22;YES)、カウンタ値Iがインクリメントされ(ステップS23)、新たなカウンタ値Iについて、ステップS13〜S22の処理が繰り返される。   When the representative image of the I-th image group is selected, it is determined whether or not the counter value I is equal to or less than N−1 (step S22). If it is determined in step S22 that the counter value I is equal to or less than N−1 (step S22; YES), the counter value I is incremented (step S23), and the process of steps S13 to S22 is performed for the new counter value I. Is repeated.

ステップS22において、カウンタ値IがN−1より大きいと判定された場合(ステップS22;NO)、本グルーピング・代表画像選択処理が終了し、図4のステップS3へ移行する。   If it is determined in step S22 that the counter value I is greater than N−1 (step S22; NO), the grouping / representative image selection process ends, and the process proceeds to step S3 in FIG.

図4に戻る。グルーピング・代表画像選択処理が終了すると、グルーピング結果と代表画像が表示部12に表示される(ステップS3)。グルーピング結果を表示部12に表示するにあたっては、種々の方法を用いることができる。例えば、グルーピングされた画像グループの数が所定数より多い場合などには、まず代表画像のみを表示画面上に配置して表示し、代表画像をクリック等によって選択することで、代表画像に対応する画像グループに属する画像を表示するようにしてもよい。   Returning to FIG. When the grouping / representative image selection process is completed, the grouping result and the representative image are displayed on the display unit 12 (step S3). Various methods can be used to display the grouping result on the display unit 12. For example, when the number of grouped image groups is larger than a predetermined number, first, only the representative image is arranged and displayed on the display screen, and the representative image is selected by clicking or the like, thereby corresponding to the representative image. Images belonging to an image group may be displayed.

また、表示画面上で一方方向に画像グループの先頭を配し、もう一方に画像グループに属する画像を配するように二次元的に表示してもよいし、画像に付加された日時情報に基づいて、図7に示すようなカレンダーを表示するようにしてもよい。カレンダー表示においては、カレンダー上に、グループ日時範囲(画像グループにおける日時情報の最新と最古の範囲)が視認できる指標を表示することが好ましい。具体的には、背景色、色付き枠、マーク等をカレンダー上に表示することにより視認し易くなる。また、複数の画像グループが得られた場合、画像グループ毎に背景色や色付き枠を変えるなど、画像グループ毎に異なる指標を割り当てることが好ましい。   Alternatively, the image group may be displayed two-dimensionally such that the top of the image group is arranged in one direction on the display screen and the image belonging to the image group is arranged on the other side, or based on date and time information added to the image. Then, a calendar as shown in FIG. 7 may be displayed. In the calendar display, it is preferable to display on the calendar an index that allows the group date and time range (the latest and oldest range of date and time information in the image group) to be visually recognized. Specifically, the background color, the colored frame, the mark, and the like are displayed on the calendar for easy visual recognition. Further, when a plurality of image groups are obtained, it is preferable to assign a different index for each image group, such as changing a background color or a colored frame for each image group.

更に、グループ日時範囲が複数月にまたがっている場合(例えば、7月31〜8月6日)、図7に示すように、月毎に区切らずに、複数月を連続して表示するように、カレンダー上の日付の配置を設定するのが好ましい。この場合、各月を区別するために、カレンダー上で境界線を表示したり、月毎に背景色を変えるのが好ましい。また、カレンダー上で、受付端末1が設置された店舗に顧客が来訪した日付にマーキングするようにしてもよい。   Furthermore, when the group date and time range extends over a plurality of months (for example, July 31 to August 6), as shown in FIG. 7, a plurality of months are displayed continuously without being divided into months. It is preferable to set the date arrangement on the calendar. In this case, in order to distinguish each month, it is preferable to display a boundary line on the calendar or change the background color for each month. Moreover, you may make it mark on the date on which the customer visited the store where the reception terminal 1 was installed on a calendar.

グルーピング結果の表示においては、画像グループに属する画像の内容が推測できるような標識を表示することが好ましい。このような標識として、代表画像以外に、画像グループの画像数(画像枚数)、撮影場所等を利用することができる。この標識は、1つの画像グループにつき、複数設定することが好ましい。例えば、代表画像を複数個選択し、スライドショー形式で順に表示させることができる。又は、例えば、代表画像と画像数など、異なる種類の標識を組み合わせて設定することも好ましい。更に、この標識は、画像グループ内の日付毎に設定されるのが好ましい。例えば、日付毎にその日が撮影日の画像数を表示したり、グループ日時範囲の日付毎に代表画像を選択し、図7に示すように、カレンダー上に各日付の代表画像のサムネイル画像を表示するようにしてもよい。日付毎に代表画像をカレンダーに表示する場合、カレンダー上の日付を指定することにより、対応する代表画像を拡大表示するようにしてもよい。   In the display of the grouping result, it is preferable to display a sign that allows the contents of the images belonging to the image group to be estimated. In addition to the representative image, the number of images in the image group (number of images), the shooting location, and the like can be used as such a sign. It is preferable to set a plurality of signs for one image group. For example, a plurality of representative images can be selected and displayed in order in a slide show format. Alternatively, for example, it is also preferable to set a combination of different types of signs such as a representative image and the number of images. Furthermore, this indicator is preferably set for each date in the image group. For example, for each date, the number of images taken on that day is displayed, or representative images are selected for each date in the group date and time range, and thumbnail images of representative images for each date are displayed on the calendar as shown in FIG. You may make it do. When a representative image is displayed on a calendar for each date, the corresponding representative image may be enlarged and displayed by designating a date on the calendar.

表示部12にグルーピング結果及び代表画像が表示されると、その表示内容に基づいてユーザによる注文操作が行われる(ステップS4)。表示部12に、図7に示すようなカレンダーが表示されている場合、ステップS4では、例えば、カレンダー上に表示された画像グループに含まれる画像全てを注文するためのボタンを画面(タッチパネル)上に配置し、そのボタンを指定することによって一括注文する方法や、カレンダー上のある一日を指定することによって、その日付を含む画像グループ内の画像を一括して選択し、画像グループ毎に注文する方法を用いることが可能である。また、カレンダー上を指定することによって画像グループを選択し、その画像グループのサムネイル画像を表示させ、画像グループ内の全ての画像を確認した後に一括注文したり、必要に応じて、注文対象の画像を取捨選択することも可能である。   When the grouping result and the representative image are displayed on the display unit 12, an ordering operation by the user is performed based on the display content (step S4). When the calendar as shown in FIG. 7 is displayed on the display unit 12, in step S4, for example, buttons for ordering all the images included in the image group displayed on the calendar are displayed on the screen (touch panel). You can place an order for each image group by selecting the images in the image group that include the date by specifying a button on the calendar or by specifying a button on the calendar, or by specifying a day on the calendar. It is possible to use the method to do. Also, you can select an image group by specifying on the calendar, display thumbnail images of that image group, confirm all the images in the image group, place a batch order, and if necessary, order images It is also possible to select.

注文操作が終了すると、プリントの実行を確認するための確認メッセージが表示部12に表示される(ステップS5)。ユーザによる操作入力部13の操作により、プリントの実行が確認されると(ステップS6;YES)、注文確認票発行部16から注文確認票が発行されるとともに(ステップS7)、仮オーダー情報(注文情報)がオーダー管理装置2に送信される(ステップS8)。   When the ordering operation is completed, a confirmation message for confirming the execution of printing is displayed on the display unit 12 (step S5). When execution of printing is confirmed by the operation of the operation input unit 13 by the user (step S6; YES), an order confirmation slip is issued from the order confirmation slip issuing unit 16 (step S7), and provisional order information (order) Information) is transmitted to the order management apparatus 2 (step S8).

仮オーダー情報を受信したオーダー管理装置2では、その受信情報に基づいて、画像プリンタ部4に対してプリント出力指示信号が出力され(ステップT1)画像プリンタ4ではプリント出力が行われる。プリント出力により、プリント注文の受付処理が終了する   The order management apparatus 2 that has received the provisional order information outputs a print output instruction signal to the image printer unit 4 based on the received information (step T1), and the image printer 4 performs print output. The print order acceptance process ends with the print output.

<変形例>
次に、付加情報として固体識別基礎情報を有する画像のプリント注文を行う場合について説明する。固体識別基礎情報とは、メディアの固有番号、ボリュームラベル、ファイル名等のデータである。DB部3に格納されたサービス履歴情報には、固体識別情報(ID番号)別に、プリント済みの画像のファイル名、サービスの利用状況(利用頻度等)等のデータが格納されている。
<Modification>
Next, a case where an image print order having solid identification basic information as additional information is placed will be described. The solid identification basic information is data such as a media unique number, a volume label, and a file name. In the service history information stored in the DB unit 3, data such as the file name of a printed image and the service usage status (usage frequency) are stored for each individual identification information (ID number).

本実施形態の変形例に係る動作について説明する。
図6のフローチャートを参照して、プリント注文の受付時に受付端末1において実行される処理(a)と、オーダー管理装置2において実行される処理(b)について説明する。
An operation according to a modification of the present embodiment will be described.
With reference to the flowchart of FIG. 6, the process (a) executed in the receiving terminal 1 when the print order is received and the process (b) executed in the order management apparatus 2 will be described.

受付端末1のメディア読取部14に、画像データが記録されたメディアMが挿入されると、メディアMの記録内容を検索することにより、固体識別基礎情報が取得され(ステップS30)、取得された個体識別基礎情報がオーダー管理装置2に送信される。   When the medium M on which the image data is recorded is inserted into the media reading unit 14 of the reception terminal 1, the solid identification basic information is acquired by searching the recorded content of the medium M (step S 30). Individual identification basic information is transmitted to the order management apparatus 2.

オーダー管理装置2では、受信した固体識別基礎情報が合致する固体識別情報をDB部3で検索することにより、この固体識別基礎情報に対応するサービス履歴情報が読み込まれ(ステップT10)、合致情報の有無(対応するサービス履歴情報があるか否か)を示す情報が受付端末1に送信される(ステップT11)。サービス履歴情報がある場合には、ステップT11では、合致情報の有無情報に加えてサービス履歴情報も送信される。   In the order management device 2, the DB unit 3 searches for the solid identification information that matches the received solid identification basic information, thereby reading the service history information corresponding to the solid identification basic information (step T10). Information indicating the presence or absence (whether there is corresponding service history information) is transmitted to the receiving terminal 1 (step T11). If there is service history information, in step T11, service history information is also transmitted in addition to the presence / absence information of matching information.

受付端末1では、オーダー管理装置2からの受信情報から、合致情報があるか否かが判定される(ステップS31)。ステップS31において、合致情報があると判定された場合(ステップS31;YES)、オーダー管理装置2から受信されたサービス履歴情報に基づいて、メディアMに記録された画像の中から未プリント画像が選択される(ステップS32)。ステップS31において、合致情報がないと判定された場合(ステップS31;NO)、メディアMに記録された全画像が選択される(ステップS33)。   In the reception terminal 1, it is determined from the received information from the order management device 2 whether there is matching information (step S31). If it is determined in step S31 that there is matching information (step S31; YES), an unprinted image is selected from the images recorded on the medium M based on the service history information received from the order management apparatus 2. (Step S32). If it is determined in step S31 that there is no match information (step S31; NO), all images recorded on the medium M are selected (step S33).

ステップS32又はS33で画像が選択されると、その選択された画像をグルーピング対象画像として、当該グルーピング対象画像から画像グループを抽出するグルーピング処理が行われ(ステップS34)、画像グループ毎に代表画像を選択する代表画像選択処理が行われる(ステップS35)。次いで、ステップS34におけるグルーピング結果と、ステップS35で選択された代表画像が表示部12に表示される(ステップS36)。ステップS34〜S36の処理は、それぞれ、図4のステップS1〜S3と同様であるので、ここでの説明は省略する。   When an image is selected in step S32 or S33, a grouping process for extracting an image group from the grouping target image is performed using the selected image as a grouping target image (step S34), and a representative image is selected for each image group. A representative image selection process to be selected is performed (step S35). Next, the grouping result in step S34 and the representative image selected in step S35 are displayed on the display unit 12 (step S36). Since the processes of steps S34 to S36 are the same as steps S1 to S3 of FIG. 4, description thereof is omitted here.

次いで、ステップS36において表示部12に表示された内容に基づいてユーザによる注文操作が行われる(ステップS37)。注文操作が終了すると、プリントの実行を確認するための確認メッセージが表示部12に表示される(ステップS38)。ユーザによる操作入力部13の操作により、プリントの実行が確認されると(ステップS39;YES)、注文確認票発行部16から注文確認票が発行されるとともに(ステップS40)、仮オーダー情報(注文情報)がオーダー管理装置2に送信される(ステップS41)。   Next, an ordering operation by the user is performed based on the content displayed on the display unit 12 in step S36 (step S37). When the ordering operation is completed, a confirmation message for confirming the execution of printing is displayed on the display unit 12 (step S38). When the execution of the printing is confirmed by the operation of the operation input unit 13 by the user (step S39; YES), the order confirmation slip is issued from the order confirmation slip issuing portion 16 (step S40), and the provisional order information (order) Information) is transmitted to the order management apparatus 2 (step S41).

仮オーダー情報を受信したオーダー管理装置2では、その受信情報に基づいて、画像プリンタ部4に対してプリント出力指示信号が出力され(ステップT12)、画像プリンタ4ではプリント出力が行われる。   The order management apparatus 2 that has received the provisional order information outputs a print output instruction signal to the image printer unit 4 based on the received information (step T12), and the image printer 4 performs print output.

次いで、オーダー管理装置2では、ステップT10における合致情報の有無に基づいて、今回のプリント注文の顧客が新規であるか否かが判定される(ステップT13)。ステップT10において、DB部3に、受付端末1から受信された固体識別基礎情報に合致する固体識別情報がなかった場合には、ステップT13において新規顧客と判定され(ステップT13;YES)、今回のプリント注文に対して新たに固体識別情報が発行され、その固体識別情報がDB部3に登録される(ステップT14)。   Next, the order management apparatus 2 determines whether or not the customer of the current print order is new based on the presence / absence of matching information in step T10 (step T13). In step T10, when there is no solid identification information that matches the solid identification basic information received from the reception terminal 1 in the DB unit 3, it is determined as a new customer in step T13 (step T13; YES). New solid identification information is issued for the print order, and the solid identification information is registered in the DB unit 3 (step T14).

ステップT13において、今回のプリント注文の顧客が新規ではないと判定された場合(ステップT13;NO)、又はステップT14で新たに固体識別情報が登録された場合、今回のプリント注文に基づいてDB部3のサービス履歴情報が更新され(ステップT15)、プリント注文の受付処理が終了する。   In step T13, if it is determined that the customer of the current print order is not new (step T13; NO), or if solid identification information is newly registered in step T14, the DB unit is based on the current print order. 3 is updated (step T15), and the print order acceptance process is terminated.

次に、図8のフローチャートを参照して、配光性算出処理(図5のステップS13)について詳細に説明する。   Next, the light distribution calculation process (step S13 in FIG. 5) will be described in detail with reference to the flowchart in FIG.

まず、撮影画像データ毎に、撮影画像データが所定の画像領域に分割され、各分割領域が撮影画像データ全体に占める割合を示す占有率を算出する占有率算出処理が行われる(ステップS45)。ステップS45の占有率算出処理については、後に図9及び図15を参照して詳細に説明する。   First, for each photographic image data, the photographic image data is divided into predetermined image areas, and an occupancy ratio calculation process is performed to calculate an occupancy ratio indicating the ratio of each divided area to the entire photographic image data (step S45). The occupation rate calculation process in step S45 will be described in detail later with reference to FIGS.

次いで、ステップS45において算出された占有率と、撮影条件に応じて予め設定された係数に基づいて、配光性(光源状態)を特定するための指標(指標1〜5)が算出され、その算出された指標に基づいて撮影時の配光性(順光度、逆光度、ストロボ度)が算出される(ステップS46)。ここで、配光性を特定するための指標とは、撮影時の配光性を定量的に表す数値である。ステップS46における指標算出処理及び配光性の算出処理については、後に詳細に説明する。   Next, based on the occupation ratio calculated in step S45 and a coefficient set in advance according to the shooting conditions, an index (index 1 to 5) for specifying the light distribution (light source state) is calculated, Based on the calculated index, the light distribution at the time of photographing (forward light intensity, backlight intensity, strobe intensity) is calculated (step S46). Here, the index for specifying the light distribution is a numerical value that quantitatively represents the light distribution at the time of photographing. The index calculation process and the light distribution calculation process in step S46 will be described in detail later.

〈占有率算出処理〉
次に、図9のフローチャートを参照して、図8のステップS45に示した占有率算出処理について詳細に説明する。
<Occupancy rate calculation process>
Next, the occupation rate calculation process shown in step S45 of FIG. 8 will be described in detail with reference to the flowchart of FIG.

まず、撮影画像データのRGB値がHSV表色系に変換される(ステップS50)。図10は、RGBからHSV表色系に変換することにより色相値、彩度値、明度値を得る変換プログラム(HSV変換プログラム)の一例を、プログラムコード(c言語)により示したものである。図10に示すHSV変換プログラムでは、入力画像データであるデジタル画像データの値を、InR、InG、InBと定義し、算出された色相値をOutHとし、スケールを0〜360と定義し、彩度値をOutS、明度値をOutVとし、単位を0〜255と定義している。   First, the RGB values of the photographed image data are converted into the HSV color system (step S50). FIG. 10 shows an example of a conversion program (HSV conversion program) that obtains a hue value, a saturation value, and a lightness value by converting from RGB to the HSV color system using program code (c language). In the HSV conversion program shown in FIG. 10, the values of the digital image data as the input image data are defined as InR, InG, InB, the calculated hue value is defined as OutH, the scale is defined as 0 to 360, and the saturation The value is OutS, the brightness value is OutV, and the unit is defined as 0 to 255.

次いで、撮影画像データが、所定の明度と色相の組み合わせからなる領域に分割され、分割領域毎に累積画素数を算出することにより2次元ヒストグラムが作成される(ステップS51)。以下、撮影画像データの領域分割について詳細に説明する。   Next, the photographed image data is divided into regions composed of combinations of predetermined brightness and hue, and a two-dimensional histogram is created by calculating the cumulative number of pixels for each divided region (step S51). Hereinafter, the area division of the captured image data will be described in detail.

明度(V)は、明度値が0〜25(v1)、26-50(v2)、51〜84(v3)、85〜169(v4)、170〜199(v5)、200〜224(v6)、225〜255(v7)の7つの領域に分割される。色相(H)は、色相値が0〜39、330〜359の肌色色相領域(H1及びH2)、色相値が40〜160の緑色色相領域(H3)、色相値が161〜250の青色色相領域(H4)、赤色色相領域(H5)の4つの領域に分割される。なお、赤色色相領域(H5)は、配光性算出への寄与が少ないとの知見から、以下の計算では用いていない。肌色色相領域は、更に、肌色領域(H1)と、それ以外の領域(H2)に分割される。以下、肌色色相領域(H=0〜39、330〜359)のうち、下記の式(1)を満たす色相'(H)を肌色領域(H1)とし、式(1)を満たさない領域を(H2)とする。
10 < 彩度(S) <175、
色相'(H) = 色相(H) + 60 (0 ≦ 色相(H) < 300のとき)、
色相'(H) = 色相(H) - 300 (300 ≦ 色相(H) < 360のとき)、
輝度Y = InR × 0.30 + InG × 0.59 + InB × 0.11
として、
色相'(H)/輝度(Y) < 3.0 ×(彩度(S)/255)+0.7 (1)
従って、撮影画像データの分割領域の数は4×7=28個となる。なお、式(1)において明度(V)を用いることも可能である。
The lightness value (V) is 0-25 (v1), 26-50 (v2), 51-84 (v3), 85-169 (v4), 170-199 (v5), 200-224 (v6) , 225 to 255 (v7). Hue (H) is a skin hue hue area (H1 and H2) with a hue value of 0 to 39, 330 to 359, a green hue area (H3) with a hue value of 40 to 160, and a blue hue area with a hue value of 161 to 250 It is divided into four areas (H4) and a red hue area (H5). Note that the red hue region (H5) is not used in the following calculation because it is known that the contribution to the light distribution calculation is small. The flesh-color hue area is further divided into a flesh-color area (H1) and other areas (H2). Hereinafter, among the flesh-colored hue regions (H = 0 to 39, 330 to 359), the hue '(H) that satisfies the following equation (1) is defined as the flesh-colored region (H1), and the region that does not satisfy the equation (1) is ( H2).
10 <Saturation (S) <175,
Hue '(H) = Hue (H) + 60 (when 0 ≤ Hue (H) <300),
Hue '(H) = Hue (H)-300 (when 300 ≤ Hue (H) <360),
Luminance Y = InR × 0.30 + InG × 0.59 + InB × 0.11
As
Hue '(H) / Luminance (Y) <3.0 × (Saturation (S) / 255) +0.7 (1)
Therefore, the number of divided areas of the captured image data is 4 × 7 = 28. In addition, it is also possible to use the brightness (V) in the formula (1).

2次元ヒストグラムが作成されると、分割領域毎に算出された累積画素数の全画素数(撮影画像全体)に占める割合を示す第1の占有率が算出され(ステップS52)、本占有率算出処理が終了する。明度領域vi、色相領域Hjの組み合わせからなる分割領域において算出された第1の占有率をRijとすると、各分割領域における第1の占有率は表1のように表される。

Figure 2007193590
When the two-dimensional histogram is created, a first occupancy ratio indicating the ratio of the cumulative number of pixels calculated for each divided region to the total number of pixels (the entire captured image) is calculated (step S52), and the main occupancy ratio calculation is performed. Processing ends. Assuming that the first occupancy ratio calculated in the divided area composed of the combination of the lightness area vi and the hue area Hj is Rij, the first occupancy ratio in each divided area is expressed as shown in Table 1.
Figure 2007193590

次に、指標1及び指標2の算出方法について説明する。
表2に、判別分析により得られた、ストロボ撮影としての確度、即ち、ストロボ撮影時の顔領域の明度状態を定量的に示す指標1を算出するために必要な第1の係数を分割領域別に示す。表2に示された各分割領域の係数は、表1に示した各分割領域の第1の占有率Rijに乗算する重み係数である。

Figure 2007193590
Next, a method for calculating the index 1 and the index 2 will be described.
Table 2 shows the first coefficient necessary for calculating the index 1 that quantitatively indicates the accuracy of strobe shooting obtained by discriminant analysis, that is, the lightness state of the face area at the time of strobe shooting. Show. The coefficient of each divided area shown in Table 2 is a weighting coefficient by which the first occupation ratio Rij of each divided area shown in Table 1 is multiplied.
Figure 2007193590

図11に、明度(v)−色相(H)平面を示す。表2によると、図11において高明度の肌色色相領域に分布する領域(r1)から算出される第1の占有率には、正(+)の係数が用いられ、それ以外の色相である青色色相領域(r2)から算出される第1の占有率には、負(-)の係数が用いられる。図13は、肌色領域(H1)における第1の係数と、その他の領域(緑色色相領域(H3))における第1の係数を、明度全体に渡って連続的に変化する曲線(係数曲線)として示したものである。表2及び図13によると、高明度(V=170〜224)の領域では、肌色領域(H1)における第1の係数の符号は正(+)であり、その他の領域(例えば、緑色色相領域(H3))における第1の係数の符号は負(-)であり、両者の符号が異なっていることがわかる。   FIG. 11 shows a lightness (v) -hue (H) plane. According to Table 2, a positive (+) coefficient is used for the first occupancy calculated from the region (r1) distributed in the skin color hue region of high brightness in FIG. 11, and blue other than that is blue. A negative (−) coefficient is used for the first occupancy calculated from the hue region (r2). FIG. 13 shows a curve (coefficient curve) in which the first coefficient in the skin color area (H1) and the first coefficient in the other areas (green hue area (H3)) continuously change over the entire brightness. It is shown. According to Table 2 and FIG. 13, in the region of high brightness (V = 170 to 224), the sign of the first coefficient in the skin color region (H1) is positive (+), and other regions (for example, the green hue region) The sign of the first coefficient in (H3)) is negative (-), and it can be seen that the signs of the two are different.

明度領域vi、色相領域Hjにおける第1の係数をCijとすると、指標1を算出するためのHk領域の和は、式(2)のように定義される。

Figure 2007193590
従って、H1〜H4領域の和は、下記の式(2-1)〜式(2-4)のように表される。
H1領域の和=R11×(-44.0)+R21×(-16.0)+(中略)...+R71×(-11.3) (2-1)
H2領域の和=R12×0.0+R22×8.6+(中略)... +R72×(-11.1) (2-2)
H3領域の和=R13×0.0+R23×(-6.3)+(中略)...+R73×(-10.0) (2-3)
H4領域の和=R14×0.0+R24×(-1.8)+(中略)...+R74×(-14.6) (2-4) When the first coefficient in the lightness region vi and the hue region Hj is Cij, the sum of the Hk regions for calculating the index 1 is defined as in Expression (2).
Figure 2007193590
Accordingly, the sum of the H1 to H4 regions is expressed by the following formulas (2-1) to (2-4).
H1 area sum = R11 x (-44.0) + R21 x (-16.0) + (omitted) ... + R71 x (-11.3) (2-1)
Sum of H2 area = R12 x 0.0 + R22 x 8.6 + (omitted) ... + R72 x (-11.1) (2-2)
Sum of H3 area = R13 x 0.0 + R23 x (-6.3) + (omitted) ... + R73 x (-10.0) (2-3)
Sum of H4 area = R14 x 0.0 + R24 x (-1.8) + (omitted) ... + R74 x (-14.6) (2-4)

指標1は、式(2-1)〜(2-4)で示されたH1〜H4領域の和を用いて、式(3)のように定義される。
指標1=H1領域の和+H2領域の和+H3領域の和+H4領域の和+4.424 (3)
The index 1 is defined as Expression (3) using the sum of the H1 to H4 regions shown in Expressions (2-1) to (2-4).
Index 1 = sum of H1 area + sum of H2 area + sum of H3 area + sum of H4 area + 4.424 (3)

表3に、判別分析により得られた、逆光撮影としての確度、即ち、逆光撮影時の顔領域の明度状態を定量的に示す指標2を算出するために必要な第2の係数を分割領域別に示す。表3に示された各分割領域の係数は、表1に示した各分割領域の第1の占有率Rijに乗算する重み係数である。

Figure 2007193590
Table 3 shows, for each divided region, the second coefficient necessary for calculating the index 2 that quantitatively indicates the accuracy of backlight photographing obtained by discriminant analysis, that is, the brightness state of the face region at the time of backlight photographing. Show. The coefficient of each divided area shown in Table 3 is a weighting coefficient that is multiplied by the first occupation ratio Rij of each divided area shown in Table 1.
Figure 2007193590

図12に、明度(v)−色相(H)平面を示す。表3によると、図12において肌色色相領域の中間明度に分布する領域(r4)から算出される占有率には負(-)の係数が用いられ、肌色色相領域の低明度(シャドー)領域(r3)から算出される占有率には正(+)の係数が用いられる。図14は、肌色領域(H1)における第2の係数を、明度全体に渡って連続的に変化する曲線(係数曲線)として示したものである。表3及び図14によると、肌色色相領域の、明度値が85〜169(v4)の中間明度領域の第2の係数の符号は負(-)であり、明度値が26〜84(v2,v3)の低明度(シャドー)領域の第2の係数の符号は正(+)であり、両領域での係数の符号が異なっていることがわかる。   FIG. 12 shows a lightness (v) -hue (H) plane. According to Table 3, a negative (-) coefficient is used for the occupancy calculated from the area (r4) distributed in the intermediate lightness of the flesh color hue area in FIG. 12, and the low lightness (shadow) area ( A positive (+) coefficient is used for the occupation ratio calculated from r3). FIG. 14 shows the second coefficient in the skin color region (H1) as a curve (coefficient curve) that continuously changes over the entire brightness. According to Table 3 and FIG. 14, the sign of the second coefficient of the intermediate lightness region of the flesh color hue region having the lightness value of 85 to 169 (v4) is negative (−), and the lightness value is 26 to 84 (v2, It can be seen that the sign of the second coefficient in the low brightness (shadow) region of v3) is positive (+), and the sign of the coefficient in both regions is different.

明度領域vi、色相領域Hjにおける第2の係数をDijとすると、指標2を算出するためのHk領域の和は、式(4)のように定義される。

Figure 2007193590
従って、H1〜H4領域の和は、下記の式(4-1)〜式(4-4)のように表される。
H1領域の和=R11×(-27.0)+R21×4.5+(中略)...+R71×(-24.0) (4-1)
H2領域の和=R12×0.0+R22×4.7+(中略)... +R72×(-8.5) (4-2)
H3領域の和=R13×0.0+R23×0.0+(中略)...+R73×0.0 (4-3)
H4領域の和=R14×0.0+R24×(-5.1)+(中略)...+R74×7.2 (4-4) When the second coefficient in the lightness area vi and the hue area Hj is Dij, the sum of the Hk areas for calculating the index 2 is defined as in Expression (4).
Figure 2007193590
Therefore, the sum of the H1 to H4 regions is expressed by the following formulas (4-1) to (4-4).
H1 area sum = R11 x (-27.0) + R21 x 4.5 + (omitted) ... + R71 x (-24.0) (4-1)
Sum of H2 area = R12 x 0.0 + R22 x 4.7 + (omitted) ... + R72 x (-8.5) (4-2)
Sum of H3 area = R13 x 0.0 + R23 x 0.0 + (omitted) ... + R73 x 0.0 (4-3)
H4 area sum = R14 x 0.0 + R24 x (-5.1) + (omitted) ... + R74 x 7.2 (4-4)

指標2は、式(4-1)〜(4-4)で示されたH1〜H4領域の和を用いて、式(5)のように定義される。
指標2=H1領域の和+H2領域の和+H3領域の和+H4領域の和+1.554 (5)
指標1及び指標2は、撮影画像データの明度と色相の分布量に基づいて算出されるため、撮影画像データがカラー画像である場合の配光性の算出に有効である。
The index 2 is defined as in Expression (5) using the sum of the H1 to H4 regions shown in Expressions (4-1) to (4-4).
Index 2 = sum of H1 area + sum of H2 area + sum of H3 area + sum of H4 area + 1.554 (5)
Since the index 1 and the index 2 are calculated based on the brightness of the captured image data and the distribution amount of the hue, they are effective in calculating the light distribution when the captured image data is a color image.

次に、図15のフローチャートを参照して、指標3を算出するための占有率算出処理(図8のステップS45)について詳細に説明する。   Next, the occupation rate calculation process (step S45 in FIG. 8) for calculating the index 3 will be described in detail with reference to the flowchart in FIG.

まず、撮影画像データのRGB値がHSV表色系に変換される(ステップS60)。次いで、撮影画像データが、撮影画像画面の外縁からの距離と明度の組み合わせからなる領域に分割され、分割領域毎に累積画素数を算出することにより2次元ヒストグラムが作成される(ステップS61)。以下、撮影画像データの領域分割について詳細に説明する。   First, the RGB values of the captured image data are converted into the HSV color system (step S60). Next, the photographed image data is divided into regions each composed of a combination of the distance from the outer edge of the photographed image screen and brightness, and a two-dimensional histogram is created by calculating the cumulative number of pixels for each divided region (step S61). Hereinafter, the area division of the captured image data will be described in detail.

図16(a)〜(d)に、撮影画像データの画面の外縁からの距離に応じて分割された4つの領域n1〜n4を示す。図16(a)に示す領域n1が外枠であり、図16(b)に示す領域n2が、外枠の内側の領域であり、図16(c)に示す領域n3が、領域n2の更に内側の領域であり、図16(d)に示す領域n4が、撮影画像画面の中心部の領域である。また、明度は、上述のようにv1〜v7の7つの領域に分割するものとする。従って、撮影画像データを、撮影画像画面の外縁からの距離と明度の組み合わせからなる領域に分割した場合の分割領域の数は4×7=28個となる。   FIGS. 16A to 16D show four regions n1 to n4 divided according to the distance from the outer edge of the screen of the captured image data. A region n1 shown in FIG. 16A is an outer frame, a region n2 shown in FIG. 16B is a region inside the outer frame, and a region n3 shown in FIG. A region n4 shown in FIG. 16D is an inner region and is a central region of the captured image screen. Further, the lightness is divided into seven regions v1 to v7 as described above. Therefore, when the captured image data is divided into regions composed of combinations of the distance from the outer edge of the captured image screen and the brightness, the number of divided regions is 4 × 7 = 28.

2次元ヒストグラムが作成されると、分割領域毎に算出された累積画素数の全画素数(撮影画像全体)に占める割合を示す第2の占有率が算出され(ステップS62)、本占有率算出処理が終了する。明度領域vi、画面領域njの組み合わせからなる分割領域において算出された第2の占有率をQijとすると、各分割領域における第2の占有率は表4のように表される。

Figure 2007193590
When the two-dimensional histogram is created, a second occupancy ratio indicating the ratio of the cumulative number of pixels calculated for each divided region to the total number of pixels (the entire captured image) is calculated (step S62), and the main occupancy ratio calculation is performed. The process ends. If the second occupancy calculated in the divided area composed of the combination of the brightness area vi and the screen area nj is Qij, the second occupancy in each divided area is expressed as shown in Table 4.
Figure 2007193590

次に、指標3の算出方法について説明する。
表5に、指標3を算出するために必要な第3の係数を分割領域別に示す。表5に示された各分割領域の係数は、表4に示した各分割領域の第2の占有率Qijに乗算する重み係数であり、判別分析により得られる。

Figure 2007193590
図17は、画面領域n1〜n4における第3の係数を、明度全体に渡って連続的に変化する曲線(係数曲線)として示したものである。 Next, a method for calculating the index 3 will be described.
Table 5 shows the third coefficient necessary for calculating the index 3 for each divided region. The coefficient of each divided area shown in Table 5 is a weighting coefficient by which the second occupancy Qij of each divided area shown in Table 4 is multiplied, and is obtained by discriminant analysis.
Figure 2007193590
FIG. 17 shows the third coefficient in the screen areas n1 to n4 as a curve (coefficient curve) that continuously changes over the entire brightness.

明度領域vi、画面領域njにおける第3の係数をEijとすると、指標3を算出するためのnk領域(画面領域nk)の和は、式(6)のように定義される。

Figure 2007193590
従って、n1〜n4領域の和は、下記の式(6-1)〜式(6-4)のように表される。
n1領域の和=Q11×40.1+Q21×37.0+(中略)...+Q71×22.0 (6-1)
n2領域の和=Q12×(-14.8)+Q22×(-10.5)+(中略)...+Q72×0.0 (6-2)
n3領域の和=Q13×24.6+Q23×12.1+(中略)...+Q73×10.1 (6-3)
n4領域の和=Q14×1.5+Q24×(-32.9)+(中略)...+Q74×(-52.2) (6-4) If the third coefficient in the brightness area vi and the screen area nj is Eij, the sum of the nk area (screen area nk) for calculating the index 3 is defined as in Expression (6).
Figure 2007193590
Accordingly, the sum of the n1 to n4 regions is expressed as the following formulas (6-1) to (6-4).
n1 area sum = Q11 x 40.1 + Q21 x 37.0 + (omitted) ... + Q71 x 22.0 (6-1)
Sum of n2 area = Q12 x (-14.8) + Q22 x (-10.5) + (omitted) ... + Q72 x 0.0 (6-2)
n3 area sum = Q13 x 24.6 + Q23 x 12.1 + (omitted) ... + Q73 x 10.1 (6-3)
n4 area sum = Q14 x 1.5 + Q24 x (-32.9) + (omitted) ... + Q74 x (-52.2) (6-4)

指標3は、式(6-1)〜(6-4)で示されたN1〜H4領域の和を用いて、式(7)のように定義される。
指標3=n1領域の和+n2領域の和+n3領域の和+n4領域の和−12.6201 (7)
指標3は、撮影画像データの明度の分布位置による構図的な特徴(撮影画像データの画面の外縁からの距離)に基づいて算出されるため、カラー画像だけでなくモノクロ画像の配光性を算出するのにも有効である。
The index 3 is defined as in Expression (7) using the sum of the N1 to H4 regions shown in Expressions (6-1) to (6-4).
Index 3 = sum of n1 regions + sum of n2 regions + sum of n3 regions + sum of n4 regions−12.6201 (7)
Since the index 3 is calculated based on the compositional feature (distance from the outer edge of the screen of the captured image data) according to the distribution position of the brightness of the captured image data, the light distribution of not only the color image but also the monochrome image is calculated. It is also effective to do.

指標4は、指標1及び指標3を用いて式(8)のように定義され、指標5は、指標1〜3を用いて式(9)のように定義される。
指標4=0.565×指標1+0.565×指標3+0.457 (8)
指標5=(-0.121)×指標1+0.91×指標2+0.113×指標3−0.072 (9)
ここで、式(8)及び式(9)において各指標に乗算される重み係数は、撮影条件に応じて予め設定されている。
The index 4 is defined as Expression (8) using the indices 1 and 3, and the index 5 is defined as Expression (9) using the indices 1 to 3.
Index 4 = 0.565 x Index 1 + 0.565 x Index 3 + 0.457 (8)
Indicator 5 = (-0.121) x Indicator 1 + 0.91 x Indicator 2 + 0.113 x Indicator 3-0.072 (9)
Here, the weighting coefficient by which each index is multiplied in Expression (8) and Expression (9) is set in advance according to the shooting conditions.

〈配光性の算出方法〉
次に、配光性の算出方法(図8のステップS46)について説明する。
図18は、順光、逆光、ストロボの各条件で60枚ずつ撮影し、合計180枚のデジタル画像データについて、指標4、5を算出し、各条件での指標4、5の値をプロットしたものである。図18によれば、指標4の値が0.5より大きい場合、ストロボシーンが多く、指標4の値が0.5以下で、指標5の値が−0.5より大きい場合、逆光シーンが多いことがわかる。表6に、指標4、5の値による配光性の算出内容を示す。

Figure 2007193590
このように指標4、5の値により、配光性を定量的に算出することができる。 <Calculation method of light distribution>
Next, the light distribution calculation method (step S46 in FIG. 8) will be described.
In FIG. 18, 60 images were taken under each condition of forward light, backlight, and strobe, and indexes 4 and 5 were calculated for a total of 180 digital image data, and the values of indexes 4 and 5 under each condition were plotted. Is. According to FIG. 18, when the value of index 4 is greater than 0.5, there are many strobe scenes, and when the value of index 4 is 0.5 or less and the value of index 5 is greater than −0.5, the backlight scene is I understand that there are many. Table 6 shows the calculation contents of the light distribution by the values of the indexes 4 and 5.
Figure 2007193590
Thus, the light distribution can be calculated quantitatively based on the values of the indexes 4 and 5.

〈顔抽出処理の処理条件〉
次に、顔抽出処理(図5のステップS16)の処理条件の決定方法について詳細に説明する。
<Face extraction processing conditions>
Next, a method for determining processing conditions for the face extraction process (step S16 in FIG. 5) will be described in detail.

撮影時の配光性に応じて実行される顔抽出処理の処理条件の決定は、顔抽出処理の抽出精度を向上させるために行われるものである。顔抽出処理の処理方法としては、撮影画像データから顔候補領域を抽出し、抽出された顔候補領域が人物の顔であるか否かを判定する方法、顔候補領域内に人物の顔が含まれているか否かを判定する方法等がある。このような方法を用いる場合、顔抽出処理の抽出精度には、顔候補領域の抽出精度と、顔候補領域が人物の顔であるか否か(若しくは顔候補領域内に顔が含まれているか否か)を判定する判定精度の双方が寄与するため、顔抽出処理の処理条件を決定する際には、顔候補領域の抽出条件、顔候補領域から人物の顔を判定する処理の処理条件の何れか一方又は双方を、配光性の算出結果に応じて決定することが好ましい。   The determination of the processing conditions for the face extraction process executed according to the light distribution at the time of shooting is performed in order to improve the extraction accuracy of the face extraction process. As a processing method of the face extraction processing, a face candidate area is extracted from captured image data, and it is determined whether or not the extracted face candidate area is a person's face. A human face is included in the face candidate area. For example, there is a method for determining whether or not it is. When such a method is used, the extraction accuracy of the face extraction process includes the extraction accuracy of the face candidate region and whether the face candidate region is a human face (or whether a face is included in the face candidate region). Both of the determination accuracy contribute to determining whether or not the face extraction processing conditions are determined. When the processing conditions for the face extraction process are determined, the processing conditions for the process of determining the face of the person from the face candidate area Either one or both are preferably determined according to the light distribution calculation result.

以下では、撮影画像データから顔候補領域を抽出する処理と、抽出された顔候補領域が人物の顔であるか否かを判定する処理を併せて「顔抽出処理」と呼び、顔抽出処理のうち、顔候補領域が人物の顔であるか否かを判定する処理の部分を「顔判定処理」と呼ぶことにする。   Hereinafter, the process of extracting a face candidate area from captured image data and the process of determining whether or not the extracted face candidate area is a person's face are referred to as a “face extraction process”. Of these, the part of the process for determining whether or not the face candidate area is a person's face is referred to as “face determination process”.

まず、顔候補領域の抽出条件の決定方法について説明する。
顔候補領域の抽出方法として、撮影画像データから肌色に相当する初期点を探索し、単純領域拡張法を用いて肌色領域を顔候補領域として抽出する手法を用いることができる。単純領域拡張法とは、画素間のデータ差が閾値以下の互いに隣接する画素を同一画像領域に属するものとして当該領域を拡張していくことにより特定の画像領域の抽出を行う画像処理方法である。即ち、単純領域拡張法は、指定された特定条件に合致する初期画素から出発し、当該初期画素に対して隣接する画素(4連結、8連結の何れでも可)のデータ差が閾値以下である場合に当該隣接画素と初期画素とを同一画像領域に属するものとし、更に、当該同一画素に属するとした画素に対し隣接する画素についても同様の判定を行う。このようにして、初期画素から出発して、同一の画像領域を除々に拡張させることによって特定の画像領域の抽出が行われる。本実施形態では、更に、画像中のエッジ成分を抽出し、画像エッジに達した場合に単純領域拡張を終了することで、顔候補領域を確定する処理を用いることが好ましい。
First, a method for determining the extraction condition of the face candidate area will be described.
As a method for extracting a face candidate area, a method can be used in which an initial point corresponding to a skin color is searched from captured image data, and a skin color area is extracted as a face candidate area using a simple area expansion method. The simple area expansion method is an image processing method for extracting a specific image area by expanding adjacent areas with pixels adjacent to each other whose data difference between pixels is equal to or less than a threshold value belonging to the same image area. . In other words, the simple area expansion method starts from an initial pixel that matches a specified condition, and a data difference between adjacent pixels (either 4-connected or 8-connected) is equal to or less than a threshold value. In this case, it is assumed that the adjacent pixel and the initial pixel belong to the same image area, and the same determination is performed for a pixel adjacent to the pixel that belongs to the same pixel. In this manner, starting from the initial pixel, a specific image region is extracted by gradually expanding the same image region. In the present embodiment, it is preferable to further use a process for extracting a face component region by extracting an edge component in an image and ending simple region expansion when the image edge is reached.

顔候補領域として肌色領域を抽出する場合、被写体が同一人物であっても、撮影時の配光性に応じて、肌色領域の色味は著しく異なる。例えば、順光で撮影された画像の肌色を基準とすると、ストロボ撮影では、肌色の色味が(特に、近接であればあるほど)白くとび気味になり、逆光下での撮影であれば、肌色の色味が暗くなる。このような状況を踏まえ、初期画素の探索条件を、配光性の算出結果に応じて切り替える及び/又は(段階的若しくは連続的に)調整することが好ましい。   When a skin color area is extracted as the face candidate area, even if the subject is the same person, the color of the skin color area varies significantly depending on the light distribution at the time of shooting. For example, based on the skin color of an image taken in front light, the skin tone becomes whiter (especially the closer it is) in strobe shooting, and if it is shooting in backlight, Skin tone becomes darker. In consideration of such a situation, it is preferable to switch and / or adjust (stepwise or continuously) the search condition for the initial pixel in accordance with the light distribution calculation result.

例えば、初期画素を探索するための所定の基本探索条件に対し、配光性が「順光」であればその基本探索条件を用い、配光性が「ストロボ」であれば、基本探索条件から輝度を高く(明るく)補正した探索条件を用い、配光性が「逆光」であれば、基本探索条件から輝度を低く(暗く)補正した探索条件を用いればよい。このように、単純領域拡張法を用いて顔候補領域を抽出する際、撮影時の配光性に応じて、初期画素の探索条件を切り替えればよい。また、配光性によって単純領域拡張を終了させるエッジ強度は異なるため、単純領域拡張を終了させるためのエッジ抽出条件も配光性に応じて調整することが好ましい。   For example, for a predetermined basic search condition for searching for an initial pixel, if the light distribution is “forward light”, the basic search condition is used. If the light distribution is “strobe”, the basic search condition is used. If the search condition with the brightness corrected (brighter) is used and the light distribution is “backlight”, the search condition with the brightness reduced (darker) from the basic search condition may be used. As described above, when extracting a face candidate region using the simple region expansion method, the search condition for the initial pixel may be switched according to the light distribution at the time of photographing. Moreover, since the edge intensity | strength which complete | finishes simple area expansion differs with light distribution, it is preferable to adjust the edge extraction conditions for ending simple area expansion according to light distribution.

配光性の算出結果が、順光度、ストロボ度、逆光度等のように、配光性を段階的又は連続的に示す指標(指標4、5)として得られる場合、得られた指標の値に応じて、輝度を高くする度合い(ストロボの場合)、輝度を低くする度合い(逆光の場合)を調整することにより、初期画素の探索条件を決定すればよい。従って、このような初期画素の探索条件を用いた単純領域拡張法を、顔候補領域の抽出条件として決定することができる。   When the calculation result of the light distribution is obtained as an index (indicator 4, 5) indicating the light distribution stepwise or continuously, such as forward light intensity, strobe light intensity, backlight intensity, etc., the value of the obtained index Accordingly, the search condition for the initial pixel may be determined by adjusting the degree of increasing the brightness (in the case of a strobe) and the degree of decreasing in the brightness (in the case of backlight). Therefore, the simple region expansion method using the initial pixel search condition can be determined as the extraction condition for the face candidate region.

なお、上述では、配光性に応じて肌色領域に輝度差が生じることを利用して、初期画素の探索条件を補正する例を示したが、輝度に限らず、彩度を利用するなどして、探索条件の補正要件を増やすようにしてもよい。例えば、ストロボ、フラッシュ撮影であれば、順光の場合より低彩度になる。また、初期画素の探索条件だけでなく、領域拡張条件を補正するようにしてもよい。更に、顔候補領域を抽出するための様々な処理条件について、配光性毎に得られる肌色領域の特性の違いを反映して、初期画素の探索条件、領域拡張条件を補正するのが好ましい。   In the above description, the example in which the search condition for the initial pixel is corrected using the fact that the brightness difference is generated in the skin color area according to the light distribution is shown. However, not only the brightness but also saturation is used. Thus, the search condition correction requirement may be increased. For example, with flash and flash photography, the saturation is lower than with direct light. Further, not only the initial pixel search condition but also the area expansion condition may be corrected. Furthermore, it is preferable to correct the initial pixel search condition and the region expansion condition for various processing conditions for extracting the face candidate region, reflecting the difference in the characteristics of the skin color region obtained for each light distribution.

次に、顔候補領域から顔を判定するための顔判定処理条件の決定方法について説明する。以下では、顔候補領域から特徴量を抽出し、その抽出された特徴量に基づいてニューラルネットワークを用いて顔判定処理を行う場合の顔判定処理条件の決定方法について説明する。   Next, a method for determining a face determination processing condition for determining a face from a face candidate area will be described. In the following, a method for determining a face determination processing condition when a feature amount is extracted from a face candidate region and face determination processing is performed using a neural network based on the extracted feature amount will be described.

まず、顔判定処理条件の決定方法の具体的な説明に先立って、顔判定処理で用いられるニューラルネットワークについて簡単に説明する。このニューラルネットワークは、図19に示すように、入力層、中間層及び出力層を有する階層型のニューラルネットワーク(以下、単にニューラルネットワークという。)である。ニューラルネットワークは、デジタルニューラルネットワークチップを利用することが望ましいが、汎用のDSP(Digital Signal Processor)と専用のエミュレートプログラムを用いても実現することができるし、通常のCPUとエミュレートプログラムを用いても構わない。   First, prior to a specific description of a method for determining face determination processing conditions, a neural network used in face determination processing will be briefly described. As shown in FIG. 19, this neural network is a hierarchical neural network having an input layer, an intermediate layer, and an output layer (hereinafter simply referred to as a neural network). The neural network preferably uses a digital neural network chip, but can also be realized by using a general-purpose DSP (Digital Signal Processor) and a dedicated emulation program, or using a normal CPU and an emulation program. It doesn't matter.

ニューラルネットワークの各層は、ニューロンと呼ばれる構成単位からなっている。入力層を除けば、任意のニューロンは、図20に示すように、シナプスと呼ばれる入力を多数受け取り、各々の入力値xiに対して結合強度と呼ばれる所定の重みwiを掛けてその総和を求め、それを所定の出力関数fで評価した結果を出力yとして与える機能素子として機能する。出力関数fは、式(10)のように表される。

Figure 2007193590
ここで、f(x)は一般に式(11)に示すような非線形のシグモイド関数が用いられるが、必ずしもこれに限定されるわけではない。
Figure 2007193590
Each layer of the neural network is composed of structural units called neurons. Except for the input layer, an arbitrary neuron receives a large number of inputs called synapses as shown in FIG. 20, and multiplies each input value x i by a predetermined weight w i called connection strength to sum the sum. It functions as a functional element that obtains and evaluates a result obtained by evaluating it with a predetermined output function f as an output y. The output function f is expressed as in Expression (10).
Figure 2007193590
Here, f (x) is generally a non-linear sigmoid function as shown in Equation (11), but is not necessarily limited thereto.
Figure 2007193590

ここで、各ニューロンの入力の重みwiはニューラルネットワークの入力・出力の関係、言い替えればニューラルネットワークの動作を決定する重要な情報であり、ニューラルネットワークに対して学習作業を行うことによって決定する。なお、図19では中間層は1層のみ記してあるが、これは1以上の任意の階層の構成とすることができる。階層型ネットワークでは、中間層は1層あれば、合成可能な任意の関数を実現できることが知られているが、中間層を多くした方が学習効率や、ニューロンの個数の点から有利であることが知られている。 Here, the input weight w i of each neuron is important information for determining the relationship between the input and output of the neural network, in other words, the operation of the neural network, and is determined by performing a learning operation on the neural network. In FIG. 19, only one intermediate layer is shown, but this may have a configuration of one or more arbitrary hierarchies. Hierarchical networks are known to be able to achieve any function that can be synthesized if there is only one intermediate layer, but increasing the number of intermediate layers is advantageous in terms of learning efficiency and the number of neurons. It has been known.

ニューラルネットワークの特徴として、系としての汎化能力が挙げられる。これは学習によって、必ずしも教師データ(入力パターンとその入力パターンに対する望ましい出力パターンの対。通常、複数個用意する。特定の入力パターンに対して望ましい出力パターンを決定する作業は、一般に熟練者の主観的な判断に頼って決定する。)として与えていない未学習の入力パターンに対しても、概ね正しい出力を与える能力である。   A characteristic of the neural network is a generalization ability as a system. This is not necessarily achieved by learning by using teacher data (a pair of an input pattern and a desired output pattern for the input pattern. Usually, a plurality of pairs are prepared. This is the ability to give an almost correct output even for an unlearned input pattern that is not given.

ニューラルネットワークに対する教師データを用いた学習方法は種々の方法が知られており、例えば、広く用いられている誤差逆伝播学習法(Back Propagation 学習法)を用いて十分な回数学習作業を施すことにより、教師データに対して近似した出力を得ることが可能となる。   Various learning methods using teacher data for neural networks are known. For example, by performing a sufficient number of learning operations using the widely used back propagation learning method (Back Propagation learning method). Thus, an output approximate to the teacher data can be obtained.

次に、顔判定処理条件の決定方法について具体的に説明する。配光性が異なるのに同一の顔判定処理条件を用いると、顔の判定精度に差異が生じる。これは、配光性毎に、顔の判定処理に寄与する特徴量が異なっていたり、特徴量を最適に抽出する抽出条件が異なっていることによる。従って、配光性に応じて顔判定処理条件を決定するのが好ましい。   Next, a method for determining the face determination processing condition will be specifically described. If the same face determination processing conditions are used even though the light distribution is different, a difference in face determination accuracy occurs. This is because the feature amount contributing to the face determination process is different for each light distribution and the extraction condition for optimally extracting the feature amount is different. Therefore, it is preferable to determine the face determination processing condition according to the light distribution.

具体的には、配光性に応じて、ニューラルネットワークの設計、顔判定処理に用いるニューラルネットワークの学習結果を決定することが好ましい。ここで、ニューラルネットワークの設計とは、例えば、ニューラルネットワークの入力パラメータの種類や数、中間層の数等を設計することを示す。入力パラメータには、顔候補領域から抽出される特徴量が含まれる。また、ニューラルネットワークの学習結果とは、ニューラルネットワークを構成する各ニューロンに割り振られる重み(結合強度)、シグモイド関数の傾き値等を表す。   Specifically, it is preferable to determine the learning result of the neural network used for the design of the neural network and the face determination process according to the light distribution. Here, the design of the neural network indicates, for example, designing the type and number of input parameters of the neural network, the number of intermediate layers, and the like. The input parameter includes a feature amount extracted from the face candidate region. The learning result of the neural network represents a weight (connection strength) assigned to each neuron constituting the neural network, a slope value of the sigmoid function, and the like.

ニューラルネットワークの入力パラメータとして使用する特徴量の性質及び配光性に関わらず、同一の抽出条件で顔候補領域から特徴量を抽出すると、抽出精度に差異が生じる。また、特徴量の性質によっては、人物の顔と顔以外の部分の分別性に、配光性に応じて差異が生じる。このようなことから、配光性に応じて、顔候補領域から抽出する特徴量、特徴量の抽出条件を変えるのが好ましい。   Regardless of the nature of the feature quantity used as the input parameter of the neural network and the light distribution, if the feature quantity is extracted from the face candidate region under the same extraction condition, the extraction accuracy differs. Further, depending on the nature of the feature quantity, a difference occurs in the separability between a person's face and a part other than the face according to the light distribution. For this reason, it is preferable to change the feature amount extracted from the face candidate region and the feature amount extraction condition in accordance with the light distribution.

例えば、特徴量として、目や口等の顔を構成する部位を用い、特徴量の抽出条件として、肌と目や口の色味の違い(肌色と略黒色、肌色と赤み)や部位の輪郭のエッジを利用した抽出条件を用いた場合、順光と逆光では、逆光の方が、特徴量の抽出精度が低くなる傾向がある。即ち、逆光では、人物の顔全体が、順光に比べて暗く撮影されるために、肌と部位の色値の差が小さいとともに、順光に比べて輪郭のエッジの抽出が困難になる。   For example, using features that make up the face such as eyes and mouth as feature values, and extraction conditions for feature values, differences in skin and eyes or mouth color (skin color and almost black, skin color and redness) and contours of parts In the case of using the extraction condition using the edge of the backlight, there is a tendency for the backlight to be backlit and the backlight to be less accurate in extracting feature quantities. That is, in the backlight, the entire face of the person is photographed darker than the normal light, so that the difference between the color values of the skin and the part is small, and the edge of the contour is difficult to extract compared to the normal light.

このように、配光性に応じて、特徴量の抽出条件を切り替えたり、ニューラルネットワークの入力パラメータの種類や数を変更したりすればよい。また、算出された指標の値(順光度、ストロボ度、逆光度等)に応じて、特徴量の抽出条件を段階的又は連続的に調整するようにしてもよい。また、入力パラメータの数に応じて、ニューラルネットワークの中間層の数、ニューロン数も変更することが好ましい。   In this way, the feature quantity extraction conditions may be switched or the type and number of input parameters of the neural network may be changed according to the light distribution. Further, the feature amount extraction condition may be adjusted stepwise or continuously in accordance with the calculated index values (forward light intensity, strobe light intensity, backlight intensity, etc.). It is also preferable to change the number of intermediate layers and the number of neurons in the neural network according to the number of input parameters.

また、顔判定処理条件を決定する際、順光、ストロボ、逆光の各々の画像群で予め学習されたニューラルネットワークを、配光性に応じて切り替えることが好ましい。また、配光性の算出結果が、順光度、ストロボ度、逆光度等のように、配光性が段階的又は連続的に示す指標として得られるシステムであれば、ニューラルネットワークを、強度のストロボ用、弱度のストロボ用、強度の逆光用、弱度の逆光用等のように、配光性の程度に合わせて段階的に用意しておくと、顔判定処理の判定精度を向上させることができる。また、自己学習型ニューラルネットワークのバージョンアップ法を使用し適宜更新してシステム運営することが好ましい。   Further, when determining the face determination processing conditions, it is preferable to switch the neural network previously learned in each of the forward light, strobe, and backlight images according to the light distribution. In addition, if the light distribution calculation result is a system in which the light distribution is obtained as a stepwise or continuous index such as forward light intensity, strobe light intensity, and reverse light intensity, a neural network can be connected to an intensity strobe light. If you prepare it step by step according to the degree of light distribution, such as for light, weak strobe, strong backlight, weak backlight, etc., it will improve the judgment accuracy of face judgment processing Can do. In addition, it is preferable to operate the system by appropriately updating it using a version upgrade method of the self-learning neural network.

〈顔抽出処理〉
次に、図21のフローチャートを参照して、図5のステップS16に示した顔抽出処理について詳細に説明する。
<Face extraction processing>
Next, the face extraction process shown in step S16 of FIG. 5 will be described in detail with reference to the flowchart of FIG.

まず、顔抽出処理の処理条件(顔候補領域の抽出条件)に従って、順光度が閾値以上又はストロボ度が閾値以上の撮影画像データから顔候補領域が抽出され(ステップS70)、撮影画像データの中に顔候補領域があるか否かが判定される(ステップS71)。   First, in accordance with the processing conditions of face extraction processing (face candidate region extraction conditions), face candidate regions are extracted from photographed image data with a light intensity equal to or greater than a threshold value or strobe strength equal to or greater than a threshold value (step S70). It is determined whether or not there is a face candidate area (step S71).

ステップS71において、撮影画像データの中に顔候補領域がないと判定された場合(ステップS71;NO)、本顔抽出処理が終了する。ステップS71において、撮影画像データの中に顔候補領域があると判定された場合(ステップS71;YES)、ステップS70で抽出された顔候補領域が人物の顔であるか否かを判定する顔判定処理が行われ(ステップS72)、本顔抽出処理が終了する。ステップS72の顔判定処理については、後に図22を参照して詳細に説明する。   If it is determined in step S71 that there is no face candidate area in the captured image data (step S71; NO), the face extraction process ends. If it is determined in step S71 that there is a face candidate area in the captured image data (step S71; YES), face determination is performed to determine whether the face candidate area extracted in step S70 is a human face. Processing is performed (step S72), and the face extraction processing ends. The face determination process in step S72 will be described in detail later with reference to FIG.

なお、上述では、顔候補領域の抽出処理の一例として単純領域拡張法を用いる場合を示したが、顔候補領域の抽出方法はこれに限定されない。例えば、撮影画像データからエッジを抽出し、ハフ変換やテンプレートマッチング等の手法を利用して楕円等の特定の形状パターンを抽出する方法を用いることができる。   In the above description, the simple area expansion method is used as an example of the face candidate area extraction process. However, the face candidate area extraction method is not limited to this. For example, it is possible to use a method of extracting an edge from photographed image data and extracting a specific shape pattern such as an ellipse using a technique such as Hough transform or template matching.

更に、特開平4−346332号公報に開示されているように、元画像(撮影画像データ)を多数画素に分割し、各画素のRGB値から、色相値と彩度値のヒストグラムを作成し、その形状からヒストグラムを分割し、その分割された各部位に相当する各画素で構成される領域に画像を分割し、その分割された各領域から人物の顔に相当する領域を推定する方法を用いることができる。   Furthermore, as disclosed in JP-A-4-346332, an original image (photographed image data) is divided into a large number of pixels, and a histogram of hue values and saturation values is created from the RGB values of each pixel, A method is used in which a histogram is divided from the shape, an image is divided into areas composed of pixels corresponding to the divided parts, and an area corresponding to a human face is estimated from the divided areas. be able to.

また、特開平6−309433号公報、特開平6−67320号公報、特開平5−158164号公報、特開平5−165120号公報に開示されているように、色相値、彩度値、輝度値等のヒストグラムに基づいて肌色領域を決定し、この肌色領域を顔候補領域とする方法を用いることができる。更に、特開平8−221567号公報、特開2000−20694号公報、特開2000−32272号公報、特開2000−201358号公報、特開2000−207569号公報に開示されているようなラインプロセス法を用いて顔候補領域を抽出することができる。   Further, as disclosed in JP-A-6-309433, JP-A-6-67320, JP-A-5-158164, and JP-A-5-165120, a hue value, a saturation value, and a luminance value are disclosed. A method of determining a skin color area based on a histogram such as the above and using the skin color area as a face candidate area can be used. Further, a line process as disclosed in JP-A-8-221567, JP-A-2000-20694, JP-A-2000-32272, JP-A-2000-201158, and JP-A-2000-20769. The face candidate region can be extracted using the method.

また、カラーデジタル画像からエッジと低周波画像を生成し、所定のパラメータ(例えば、彩度値、色相値、明度値の各値)が所定の初期条件(各所定範囲の値)と合致する初期画素を抽出し、低周波画像に対して、抽出された初期画素から単純領域拡張を行い、画像エッジに到達した場合に単純領域拡張を強制的に終了させて、顔候補領域を抽出するようにしてもよい。   In addition, an edge and a low frequency image are generated from a color digital image, and predetermined parameters (for example, saturation value, hue value, and lightness value) are initially matched with predetermined initial conditions (values in each predetermined range). Extract a pixel, perform simple area expansion from the extracted initial pixel for the low-frequency image, and forcibly end simple area expansion when the image edge is reached to extract a face candidate area May be.

次に、図22のフローチャートを参照して、図21のステップS72に示した顔判定処理について説明する。   Next, the face determination process shown in step S72 of FIG. 21 will be described with reference to the flowchart of FIG.

まず、顔抽出処理の処理条件として決定された特徴量及びその抽出条件に従って、顔候補領域から特徴量が抽出される(ステップS80)。次いで、ステップS80で抽出された特徴量を入力信号(入力パラメータ)、顔らしさを表すパラメータを出力信号とした、配光性に応じて決定されたニューラルネットワーク(例えば、配光性が逆光の場合、逆光用に学習されたニューラルネットワーク)を用いて、顔候補領域が人物の顔であるか否かが判定され(ステップS81)、本顔判定処理が終了する。   First, a feature value is extracted from the face candidate region according to the feature value determined as the processing condition of the face extraction process and the extraction condition (step S80). Next, the neural network determined according to the light distribution (for example, when the light distribution is backlit) using the feature amount extracted in step S80 as the input signal (input parameter) and the parameter representing the facial appearance as the output signal. The neural network learned for backlighting is used to determine whether the face candidate area is a human face (step S81), and the face determination process ends.

以上のように、本実施形態の受付端末1によれば、画像グループ内の画像の配光性、顔領域情報の少なくとも一方に基づいて代表画像を選択することにより、代表画像として適切な画像が選択可能となる。従って、画像グループの内容を想定することが容易となる。   As described above, according to the reception terminal 1 of the present embodiment, an image suitable as a representative image is obtained by selecting a representative image based on at least one of the light distribution of the images in the image group and the face area information. Selectable. Therefore, it is easy to assume the contents of the image group.

なお、本実施形態における記述内容は、本発明の趣旨を逸脱しない範囲で適宜変更可能である。   Note that the description in the present embodiment can be changed as appropriate without departing from the spirit of the present invention.

例えば、本実施形態では、受付端末1側で、プリント注文に係る処理全般を行う場合を示したが、受付端末1の処理能力が低い場合、処理対象の画像を外部機器に送信して、外部機器側で処理負荷の高い処理(例えば、配光性算出処理、顔抽出処理)を行うことで、処理負荷を分散させることも可能である。一方、受付端末1の処理能力によっては、受付端末1側に、オーダー管理装置2の機能を加えるようにしてもよい。   For example, in the present embodiment, the case where the reception terminal 1 side performs the overall processing related to the print order is shown. However, when the reception terminal 1 has low processing capability, the processing target image is transmitted to the external device, and the external terminal It is also possible to distribute the processing load by performing processing with a high processing load (for example, light distribution calculation processing, face extraction processing) on the device side. On the other hand, depending on the processing capability of the reception terminal 1, the function of the order management device 2 may be added to the reception terminal 1 side.

本発明の実施形態に係る画像処理システムの構成を示す図。1 is a diagram showing a configuration of an image processing system according to an embodiment of the present invention. 本実施形態に係る受付端末の主要部構成を示すブロック図。The block diagram which shows the principal part structure of the reception terminal which concerns on this embodiment. 本実施形態に係るオーダー管理装置の主要部構成を示すブロック図。The block diagram which shows the principal part structure of the order management apparatus which concerns on this embodiment. プリント注文の受付時に受付端末及びオーダー管理装置で実行される処理を示すフローチャート。6 is a flowchart illustrating processing executed by a reception terminal and an order management apparatus when a print order is received. 受付端末で実行されるグルーピング・代表画像選択処理を示すフローチャート。The flowchart which shows the grouping and representative image selection process performed by a reception terminal. 本実施形態の変形例におけるプリント注文の受付時に受付端末及びオーダー管理装置で実行される処理を示すフローチャート。9 is a flowchart illustrating processing executed by a reception terminal and an order management apparatus when a print order is received according to a modification of the embodiment. 受付端末の表示部に表示されるカレンダーの一例を示す図。The figure which shows an example of the calendar displayed on the display part of a reception terminal. 受付端末で実行される配光性算出処理を示すフローチャート。The flowchart which shows the light distribution calculation process performed with a reception terminal. 明度・色相の領域毎に第1の占有率を算出する占有率算出処理を示すフローチャート。The flowchart which shows the occupation rate calculation process which calculates the 1st occupation rate for every area | region of brightness and hue. RGBからHSV表色系に変換するプログラムの一例を示す図。The figure which shows an example of the program which converts from RGB to HSV color system. 明度(V)−色相(H)平面と、V−H平面上の領域r1及び領域r2を示す図。The figure which shows the brightness | luminance (V) -hue (H) plane, and the area | region r1 and the area | region r2 on a VH plane. 明度(V)−色相(H)平面と、V−H平面上の領域r3及び領域r4を示す図。The figure which shows the brightness | luminance (V) -hue (H) plane, and the area | region r3 and the area | region r4 on a VH plane. 指標1を算出するための、第1の占有率に乗算する第1の係数を表す曲線を示す図。The figure which shows the curve showing the 1st coefficient by which the 1st occupation rate for calculating the parameter | index 1 is multiplied. 指標2を算出するための、第1の占有率に乗算する第2の係数を表す曲線を示す図。The figure which shows the curve showing the 2nd coefficient by which the 1st occupation rate for calculating the parameter | index 2 is multiplied. 撮影画像データの構図に基づいて第2の占有率を算出する占有率算出処理を示すフローチャート。The flowchart which shows the occupation rate calculation process which calculates a 2nd occupation rate based on the composition of picked-up image data. 撮影画像データの画面の外縁からの距離に応じて決定される領域n1〜n4を示す図。The figure which shows the area | regions n1-n4 determined according to the distance from the outer edge of the screen of picked-up image data. 指標3を算出するための、第2の占有率に乗算する第3の係数を表す曲線を領域別(n1〜n4)に示す図。The figure which shows the curve showing the 3rd coefficient for multiplying the 2nd occupation rate for calculating the parameter | index 3 according to area | region (n1-n4). 配光性(順光、ストロボ、逆光)別に算出された指標4及び指標5のプロット図。The plot figure of the parameter | index 4 and the parameter | index 5 calculated according to light distribution (forward light, strobe, back light). 階層型ニューラルネットワークの構造を模式的に示す図。The figure which shows the structure of a hierarchical neural network typically. ニューラルネットワークを構成するニューロンの構造を示す図。The figure which shows the structure of the neuron which comprises a neural network. 受付端末で実行される顔抽出処理を示すフローチャート。The flowchart which shows the face extraction process performed with a reception terminal. 顔判定処理を示すフローチャート。The flowchart which shows a face determination process.

符号の説明Explanation of symbols

1 受付端末
11 制御部
12 表示部
13 操作入力部
14 メディア読取部
15 記憶部
16 注文確認票発行部
17 通信部
2 オーダー管理装置
21 制御部
22 表示部
23 操作入力部
24 記憶部
25 I/F部
26 通信部
27 DB参照部
3 DB部
4 画像プリンタ部
5 画像メディア書込部
100 画像処理システム
DESCRIPTION OF SYMBOLS 1 Reception terminal 11 Control part 12 Display part 13 Operation input part 14 Media reading part 15 Storage part 16 Order confirmation slip issuing part 17 Communication part 2 Order management apparatus 21 Control part 22 Display part 23 Operation input part 24 Storage part 25 I / F Unit 26 communication unit 27 DB reference unit 3 DB unit 4 image printer unit 5 image media writing unit 100 image processing system

Claims (18)

付加情報として日時情報を有する画像が記録された記録手段に記録されている複数の画像から、所定の条件に基づいて少なくとも一つの画像グループを抽出する抽出工程と、
前記抽出された画像グループに属する画像の中から、当該画像グループ内に含まれる画像の内容を示唆する標識画像を選択する選択工程と、を含む画像処理方法であって、
前記選択工程では、前記画像グループ内の少なくとも一つの画像について配光性を算出し、当該配光性の算出結果に基づいて前記標識画像を選択することを特徴とする画像処理方法。
An extraction step of extracting at least one image group based on a predetermined condition from a plurality of images recorded in a recording unit in which an image having date and time information is recorded as additional information;
A selection step of selecting a sign image suggesting the content of an image included in the image group from the images belonging to the extracted image group, and an image processing method comprising:
The image processing method characterized in that, in the selection step, light distribution is calculated for at least one image in the image group, and the marker image is selected based on a calculation result of the light distribution.
付加情報として日時情報を有する画像が記録された記録手段に記録されている複数の画像から、所定の条件に基づいて少なくとも一つの画像グループを抽出する抽出工程と、
前記抽出された画像グループに属する画像の中から、当該画像グループ内に含まれる画像の内容を示唆する標識画像を選択する選択工程と、を含む画像処理方法であって、
前記選択工程では、前記画像グループ内の少なくとも一つの画像について人物の顔領域を抽出する顔抽出処理を行い、前記顔領域が抽出された画像の顔領域情報に基づいて前記標識画像を選択することを特徴とする画像処理方法。
An extraction step of extracting at least one image group based on a predetermined condition from a plurality of images recorded in a recording unit in which an image having date and time information is recorded as additional information;
A selection step of selecting a sign image suggesting the content of an image included in the image group from the images belonging to the extracted image group, and an image processing method comprising:
In the selection step, face extraction processing is performed to extract a human face area for at least one image in the image group, and the sign image is selected based on face area information of the image from which the face area has been extracted. An image processing method characterized by the above.
付加情報として日時情報を有する画像が記録された記録手段に記録されている複数の画像から、所定の条件に基づいて少なくとも一つの画像グループを抽出する抽出工程と、
前記抽出された画像グループに属する画像の中から、当該画像グループ内に含まれる画像の内容を示唆する標識画像を選択する選択工程と、を含む画像処理方法であって、
前記選択工程では、前記画像グループ内の少なくとも一つの画像について配光性を算出するとともに、人物の顔領域を抽出する顔抽出処理を行い、前記配光性の算出結果及び前記顔領域が抽出された画像の顔領域情報に基づいて前記標識画像を選択することを特徴とする画像処理方法。
An extraction step of extracting at least one image group based on a predetermined condition from a plurality of images recorded in a recording unit in which an image having date and time information is recorded as additional information;
A selection step of selecting a sign image suggesting the content of an image included in the image group from the images belonging to the extracted image group, and an image processing method comprising:
In the selection step, light distribution is calculated for at least one image in the image group, and a face extraction process for extracting a human face area is performed, and the light distribution calculation result and the face area are extracted. An image processing method comprising: selecting the sign image based on face area information of a captured image.
前記選択工程では、前記配光性として、順光度、ストロボ度を算出することを特徴とする請求項1又は3に記載の画像処理方法。   The image processing method according to claim 1, wherein, in the selection step, a light intensity and a strobe degree are calculated as the light distribution. 前記顔領域情報は、顔の大きさ、顔の位置の少なくとも一つを含むことを特徴とする請求項2又は3に記載の画像処理方法。   4. The image processing method according to claim 2, wherein the face area information includes at least one of a face size and a face position. 前記画像グループ内の画像データのうちプリント注文する画像データを選択する操作を受け付ける操作工程と、
前記選択された画像データをプリント用画像データとして画像形成手段に送信する送信工程と、
を含むことを特徴とする請求項1〜5の何れか一項に記載の画像処理方法。
An operation step of receiving an operation of selecting image data to be printed out of the image data in the image group;
A transmission step of transmitting the selected image data as image data for printing to an image forming unit;
The image processing method according to claim 1, further comprising:
付加情報として日時情報を有する画像が記録された記録手段に記録されている複数の画像から、所定の条件に基づいて少なくとも一つの画像グループを抽出する抽出手段と、
前記抽出された画像グループに属する画像の中から、当該画像グループ内に含まれる画像の内容を示唆する標識画像を選択する選択手段と、を備える画像処理装置であって、
前記選択手段は、前記画像グループ内の少なくとも一つの画像について配光性を算出し、当該配光性の算出結果に基づいて前記標識画像を選択することを特徴とする画像処理装置。
Extraction means for extracting at least one image group based on a predetermined condition from a plurality of images recorded in a recording means in which images having date and time information are recorded as additional information;
A selection means for selecting a sign image suggesting the content of an image included in the image group from the images belonging to the extracted image group,
The image processing apparatus, wherein the selection unit calculates a light distribution for at least one image in the image group and selects the marker image based on a calculation result of the light distribution.
付加情報として日時情報を有する画像が記録された記録手段に記録されている複数の画像から、所定の条件に基づいて少なくとも一つの画像グループを抽出する抽出手段と、
前記抽出された画像グループに属する画像の中から、当該画像グループ内に含まれる画像の内容を示唆する標識画像を選択する選択手段と、を備える画像処理装置であって、
前記選択手段は、前記画像グループ内の少なくとも一つの画像について人物の顔領域を抽出する顔抽出処理を行い、当該顔領域が抽出された画像の顔領域情報に基づいて前記標識画像を選択することを特徴とする画像処理装置。
Extraction means for extracting at least one image group based on a predetermined condition from a plurality of images recorded in a recording means in which images having date and time information are recorded as additional information;
A selection means for selecting a sign image suggesting the content of an image included in the image group from images belonging to the extracted image group,
The selection means performs a face extraction process for extracting a human face area for at least one image in the image group, and selects the sign image based on face area information of the image from which the face area is extracted. An image processing apparatus.
付加情報として日時情報を有する画像が記録された記録手段に記録されている複数の画像から、所定の条件に基づいて少なくとも一つの画像グループを抽出する抽出手段と、
前記抽出された画像グループに属する画像の中から、当該画像グループ内に含まれる画像の内容を示唆する標識画像を選択する選択手段と、を備える画像処理装置であって、
前記選択手段は、前記画像グループ内の少なくとも一つの画像について配光性を算出するとともに、人物の顔領域を抽出する顔抽出処理を行い、前記配光性の算出結果及び前記顔領域が抽出された画像の顔領域情報に基づいて前記標識画像を選択することを特徴とする画像処理装置。
Extraction means for extracting at least one image group based on a predetermined condition from a plurality of images recorded in a recording means in which images having date and time information are recorded as additional information;
A selection means for selecting a sign image suggesting the content of an image included in the image group from the images belonging to the extracted image group,
The selection means calculates a light distribution for at least one image in the image group and performs a face extraction process for extracting a human face area, and the calculation result of the light distribution and the face area are extracted. An image processing apparatus, wherein the sign image is selected based on face area information of the captured image.
前記選択手段は、前記配光性として、順光度、ストロボ度を算出することを特徴とする請求項7又は9に記載の画像処理装置。   The image processing apparatus according to claim 7, wherein the selection unit calculates a forward light degree and a strobe degree as the light distribution. 前記顔領域情報は、顔の大きさ、顔の位置の少なくとも一つを含むことを特徴とする請求項8又は9に記載の画像処理装置。   The image processing apparatus according to claim 8, wherein the face area information includes at least one of a face size and a face position. 顧客からのプリント注文を受け付けるための受付端末において、
請求項7〜11の何れか一項に記載の画像処理装置と、
前記画像グループ内の画像データのうちプリント注文する画像データを選択する操作を受け付ける操作手段と、
前記選択された画像データをプリント用画像データとして画像形成手段に送信する送信手段と、
を備えることを特徴とする受付端末。
In the reception terminal for receiving print orders from customers,
The image processing apparatus according to any one of claims 7 to 11,
Operation means for accepting an operation of selecting image data to be printed out of the image data in the image group;
Transmitting means for transmitting the selected image data as image data for printing to image forming means;
A reception terminal comprising:
画像処理を制御するコンピュータを、
付加情報として日時情報を有する画像が記録された記録手段に記録されている複数の画像から、所定の条件に基づいて少なくとも一つの画像グループを抽出する抽出手段、
前記抽出された画像グループ内の少なくとも一つの画像について配光性を算出し、当該配光性の算出結果に基づいて、当該画像グループに属する画像の中から、当該画像グループ内に含まれる画像の内容を示唆する標識画像を選択する選択手段、
として機能させるための画像処理プログラム。
A computer that controls image processing
Extraction means for extracting at least one image group based on a predetermined condition from a plurality of images recorded in a recording means in which an image having date and time information is recorded as additional information;
Light distribution is calculated for at least one image in the extracted image group, and based on the calculation result of the light distribution, an image included in the image group is selected from images belonging to the image group. A selection means for selecting a sign image suggesting the content,
Image processing program to function as
画像処理を制御するコンピュータを、
付加情報として日時情報を有する画像が記録された記録手段に記録されている複数の画像から、所定の条件に基づいて少なくとも一つの画像グループを抽出する抽出手段、
前記抽出された画像グループ内の少なくとも一つの画像について人物の顔領域を抽出する顔抽出処理を行い、当該顔領域が抽出された画像の顔領域情報に基づいて、当該画像グループに属する画像の中から、当該画像グループ内に含まれる画像の内容を示唆する標識画像を選択する選択手段、
として機能させるための画像処理プログラム。
A computer that controls image processing
Extraction means for extracting at least one image group based on a predetermined condition from a plurality of images recorded in a recording means in which an image having date and time information is recorded as additional information;
A face extraction process is performed to extract a human face area for at least one image in the extracted image group, and based on the face area information of the image from which the face area is extracted, Selecting means for selecting a sign image suggesting the content of the image included in the image group;
Image processing program to function as
画像処理を制御するコンピュータを、
付加情報として日時情報を有する画像が記録された記録手段に記録されている複数の画像から、所定の条件に基づいて少なくとも一つの画像グループを抽出する抽出手段、
前記抽出された画像グループ内の少なくとも一つの画像について配光性を算出するとともに、人物の顔領域を抽出する顔抽出処理を行い、前記配光性の算出結果及び前記顔領域が抽出された画像の顔領域情報に基づいて、当該画像グループに属する画像の中から、当該画像グループ内に含まれる画像の内容を示唆する標識画像を選択する選択手段、
として機能させるための画像処理プログラム。
A computer that controls image processing
Extraction means for extracting at least one image group based on a predetermined condition from a plurality of images recorded in a recording means in which an image having date and time information is recorded as additional information;
The light distribution is calculated for at least one image in the extracted image group, and a face extraction process for extracting a human face area is performed, and the calculation result of the light distribution and the image from which the face area is extracted Selecting means for selecting a sign image suggesting the content of an image included in the image group from images belonging to the image group based on the face area information of
Image processing program to function as
前記選択手段は、前記配光性として、順光度、ストロボ度を算出することを特徴とする請求項13又は15に記載の画像処理プログラム。   The image processing program according to claim 13 or 15, wherein the selection unit calculates a light intensity and a strobe degree as the light distribution. 前記顔領域情報は、顔の大きさ、顔の位置の少なくとも一つを含むことを特徴とする請求項14又は15に記載の画像処理プログラム。   16. The image processing program according to claim 14, wherein the face area information includes at least one of a face size and a face position. 前記コンピュータを、
前記画像グループ内の画像データのうちプリント注文する画像データを選択する操作を受け付ける操作手段、
前記選択された画像データをプリント用画像データとして画像形成手段に送信する送信手段、
として機能させることを特徴とする請求項13〜17の何れか一項に記載の画像処理プログラム。
The computer,
Operation means for accepting an operation of selecting image data to be printed out of the image data in the image group;
Transmitting means for transmitting the selected image data as image data for printing to an image forming means;
The image processing program according to any one of claims 13 to 17, wherein the image processing program is made to function as:
JP2006011299A 2006-01-19 2006-01-19 Image processing method, image processing device, reception terminal, and image processing program Pending JP2007193590A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006011299A JP2007193590A (en) 2006-01-19 2006-01-19 Image processing method, image processing device, reception terminal, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006011299A JP2007193590A (en) 2006-01-19 2006-01-19 Image processing method, image processing device, reception terminal, and image processing program

Publications (1)

Publication Number Publication Date
JP2007193590A true JP2007193590A (en) 2007-08-02

Family

ID=38449241

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006011299A Pending JP2007193590A (en) 2006-01-19 2006-01-19 Image processing method, image processing device, reception terminal, and image processing program

Country Status (1)

Country Link
JP (1) JP2007193590A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009151647A (en) * 2007-12-21 2009-07-09 Yamaha Motor Co Ltd Customer stratum recognition device
JP2010108232A (en) * 2008-10-30 2010-05-13 Seiko Epson Corp Image processor and program
JP2013178720A (en) * 2012-02-29 2013-09-09 Nikon Corp Image processing device and image processing program
US8797588B2 (en) 2011-02-28 2014-08-05 Brother Kogyo Kabushiki Kaisha Print instruction device and print instruction system
CN104461410A (en) * 2013-09-24 2015-03-25 Lg电子株式会社 Mobile communications system, mobile terminal, and control method of mobile terminal
WO2019066231A1 (en) * 2017-09-26 2019-04-04 네이버웹툰 주식회사 Representative image generation
JP2020013562A (en) * 2018-07-16 2020-01-23 株式会社リコー Visual odometry method, apparatus and computer-readable recording medium

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009151647A (en) * 2007-12-21 2009-07-09 Yamaha Motor Co Ltd Customer stratum recognition device
JP2010108232A (en) * 2008-10-30 2010-05-13 Seiko Epson Corp Image processor and program
US9053556B2 (en) 2008-10-30 2015-06-09 Seiko Epson Corporation Image processing apparatus for panoramic synthesis of a plurality of sub-images
US8797588B2 (en) 2011-02-28 2014-08-05 Brother Kogyo Kabushiki Kaisha Print instruction device and print instruction system
JP2013178720A (en) * 2012-02-29 2013-09-09 Nikon Corp Image processing device and image processing program
CN104461410A (en) * 2013-09-24 2015-03-25 Lg电子株式会社 Mobile communications system, mobile terminal, and control method of mobile terminal
EP2852135A1 (en) * 2013-09-24 2015-03-25 LG Electronics, Inc. Mobile communication system, mobile terminal and controlling method thereof
US9189193B2 (en) 2013-09-24 2015-11-17 Lg Electronics Inc. Mobile terminal and controlling method thereof for editing second gallery image using editing information used for printing first gallery image
CN104461410B (en) * 2013-09-24 2019-05-21 Lg电子株式会社 Mobile communication system, mobile terminal and its control method
WO2019066231A1 (en) * 2017-09-26 2019-04-04 네이버웹툰 주식회사 Representative image generation
US11462018B2 (en) 2017-09-26 2022-10-04 Naver Webtoon Ltd. Representative image generation
JP2020013562A (en) * 2018-07-16 2020-01-23 株式会社リコー Visual odometry method, apparatus and computer-readable recording medium

Similar Documents

Publication Publication Date Title
CN110163810B (en) Image processing method, device and terminal
CN1475969B (en) Method and system for intensify human image pattern
JP4335476B2 (en) Method for changing the number, size, and magnification of photographic prints based on image saliency and appeal
JP5993642B2 (en) Information processing apparatus, control method thereof, and program
JP5818799B2 (en) Estimating the aesthetic quality of digital images
JP2007193590A (en) Image processing method, image processing device, reception terminal, and image processing program
US20100208946A1 (en) Specifying flesh area on image
US20140198234A1 (en) Image processing apparatus, program, image processing method, and imaging apparatus
JP6031278B2 (en) Information processing apparatus, control method thereof, and program
JP2006319714A (en) Method, apparatus, and program for processing image
US20060078315A1 (en) Image display device, image display program, and computer-readable recording media storing image display program
CN102541484B (en) Image processing apparatus, print accept and order for goods device and printing and to accept and order for goods method
JP2007193592A (en) Image processing apparatus, image processing method and image processing program
JP2007193587A (en) Image processing device, image processing method, and image processing program
JP2006031440A (en) Image processing method, image processing apparatus, image processing program and image processing system
CN112489144B (en) Image processing method, image processing device, terminal device and storage medium
JP2009069365A (en) Image display data generation apparatus and image display data generation method
JP2007184888A (en) Imaging apparatus, image processor, image processing method, and image processing program
JP2006301779A (en) Image processing system, image processing method, and image processing program
JP2007193585A (en) Image processing method, display controller, reception terminal, and image processing program
JP2006039666A (en) Image processing method, image processor and image processing program
JP4569659B2 (en) Image processing device
JP4340842B2 (en) Image processing method, image processing apparatus, image processing program, and storage medium
JP2006031688A (en) Image processing device, method, and program
JP4992646B2 (en) Identification method and program
点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载