+

JP7094280B2 - Methods, systems and non-transient computer-readable recording media to assist in controlling objects - Google Patents

Methods, systems and non-transient computer-readable recording media to assist in controlling objects Download PDF

Info

Publication number
JP7094280B2
JP7094280B2 JP2019521658A JP2019521658A JP7094280B2 JP 7094280 B2 JP7094280 B2 JP 7094280B2 JP 2019521658 A JP2019521658 A JP 2019521658A JP 2019521658 A JP2019521658 A JP 2019521658A JP 7094280 B2 JP7094280 B2 JP 7094280B2
Authority
JP
Japan
Prior art keywords
control
coordinate system
vector
user
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019521658A
Other languages
Japanese (ja)
Other versions
JP2019536140A (en
Inventor
ジョン キム ソク
Original Assignee
ブイタッチ・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ブイタッチ・カンパニー・リミテッド filed Critical ブイタッチ・カンパニー・リミテッド
Publication of JP2019536140A publication Critical patent/JP2019536140A/en
Application granted granted Critical
Publication of JP7094280B2 publication Critical patent/JP7094280B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/409Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual data input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details or by setting parameters
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/35444Gesture interface, controlled machine observes operator, executes commands
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Manufacturing & Machinery (AREA)
  • Automation & Control Theory (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は客体の制御を支援するための方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体に関する。 The present invention relates to methods, systems and non-transient computer readable recording media for assisting control of an object.

最近、使用者が家電デバイスのような現実の客体やアバターのような仮想客体を、ジェスチャー(gesture)に基づいて制御できるように支援する技術が紹介されている。 Recently, techniques have been introduced to help users control real objects such as home appliances and virtual objects such as avatars based on gestures.

特に、最近では、拡張現実(AR;Augmented Reality)や仮想現実(VR;Virtual Reality)に関する関心が高まり、関連技術分野の研究開発が活発に行われるにつれて、使用者が実際の現実または仮想の現実に存在する相互に作用可能な客体を円滑に制御できるように支援する技術に対する要求が増えているのが実情である。 In particular, recently, as interest in augmented reality (AR) and virtual reality (VR) has increased and research and development in related technical fields have been actively carried out, users have become real or virtual reality. The reality is that there is an increasing demand for technologies that support the smooth control of interactable objects that exist in.

従来には、使用者やシステムによってあらかじめ指定された対象客体についてのみ使用者の制御命令が伝達されるようにする技術と、使用者がマウスカーソルなどのポインタで対象客体を指示したり、対象客体の名前を別途に話す(例えば、「リビングルームの照明を消して」、「301号のエアコンの温度を下げてください」等)等の明示的な行為をすることによって、対象客体に対して使用者の制御命令が伝達されるようにする技術が紹介されたところがある。 Conventionally, there is a technique that allows a user's control command to be transmitted only to a target object specified in advance by the user or system, and a user can indicate the target object with a pointer such as a mouse cursor or the target object. Used for the target object by performing explicit actions such as speaking the name of the object separately (for example, "turn off the lights in the living room", "please lower the temperature of the air conditioner of No. 301", etc.) There is a place where the technique to make the control command of the person transmitted is introduced.

しかし、前記のような従来技術によると、使用者があらかじめ定められた客体以外の他の客体を制御できなくなったり、客体を制御するたびに制御の対象となる客体を非常に具体的に直接特定しなければならない不都合な点があるため、実際的な使用環境において柔軟性が少なく、利便性が悪いという限界が存在する。 However, according to the above-mentioned prior art, the user cannot control an object other than the predetermined object, or each time the object is controlled, the object to be controlled is directly specified. Due to the inconvenience that must be done, there is a limit that it is inflexible and inconvenient in a practical usage environment.

特に、オフィスや住宅のような室内空間には多様な種類の客体(例えば、家電デバイス、家具など)が存在するのが一般的であるが、これらの客体は大きさ、機能などの属性が互いに異なるため、客体を制御する方式も該当客体の属性に応じて適応的に設定される必要がある。例えば、照明をつけたり消すことは照明の電源スイッチを押したり回すジェスチャーによって制御され得、窓を開いたり閉じることは窓を上下側向または左右方向にスライディングするジェスチャーによって制御され得る。しかし、従来に紹介された技術によると、客体の属性が反映されていない画一的な制御方式を通じてのみ客体が制御され得るだけであるため、多様な種類の客体を効果的に制御し難いという限界が存在する。 In particular, it is common for various types of objects (for example, home appliance devices, furniture, etc.) to exist in indoor spaces such as offices and houses, but these objects have attributes such as size and function. Since they are different, the method of controlling the object also needs to be adaptively set according to the attributes of the object. For example, turning the light on and off can be controlled by the gesture of pressing and turning the power switch of the light, and opening and closing the window can be controlled by the gesture of sliding the window up and down or left and right. However, according to the technology introduced in the past, it is difficult to effectively control various types of objects because the object can only be controlled through a uniform control method that does not reflect the attributes of the object. There are limits.

そこで、本発明者は、使用者が自分の身体部位や所定のベクター制御手段を利用して直観的に行うジェスチャーまたは操作に応じて、実世界の座標系で特定される制御ベクターを該当客体の属性により定義される客体基準座標系上の制御座標とマッピング(mapping)させることによって、使用者が直観的なジェスチャーまたは操作を行うだけで、多様な客体を正確に制御できるようにする技術を提案するところである。 Therefore, the present inventor uses a control vector specified in a real-world coordinate system according to a gesture or operation intuitively performed by the user using his / her body part or a predetermined vector control means. We propose a technology that enables the user to accurately control various objects by performing intuitive gestures or operations by mapping them with the control coordinates on the object reference coordinate system defined by the attributes. I'm about to do it.

本発明は前述した問題点をすべて解決することをその目的とする。 An object of the present invention is to solve all the above-mentioned problems.

また、本発明は、使用者が行うジェスチャーまたは操作に対応する制御ベクター(vector)を実世界の座標系で特定し、制御ベクターによって指示される客体を使用者が行うジェスチャーまたは操作によって制御される対象客体として決定し、対象客体の属性に基づいて定義される対象客体基準座標系で制御ベクターの大きさまたは方向に対応する制御座標を特定するマッピング(mapping)を遂行し、マッピングによって特定される制御座標を参照して対象客体に対して適用される制御命令を決定することによって、使用者が制御ベクターを生成(または特定)するための直観的なジェスチャーまたは操作を行うだけで、多様な客体を正確かつ便利に制御できるようにする方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体を提供することを他の目的とする。 Further, the present invention specifies a control vector (vector) corresponding to a gesture or operation performed by the user in a real-world coordinate system, and the object indicated by the control vector is controlled by the gesture or operation performed by the user. It is determined as the target object and is specified by mapping by performing mapping to specify the control coordinates corresponding to the size or direction of the control vector in the target object reference coordinate system defined based on the attributes of the target object. By referring to the control coordinates to determine the control commands that apply to the target object, the user simply makes intuitive gestures or operations to generate (or identify) the control vector for a variety of objects. Other objectives are to provide methods, systems and non-transient computer-readable recording media that enable accurate and convenient control.

前記目的を達成するための本発明の代表的な構成は次の通りである。 A typical configuration of the present invention for achieving the above object is as follows.

本発明の一態様によると、客体の制御を支援するための方法であって、使用者が行うジェスチャーまたは操作に対応する制御ベクター(vector)を実世界の座標系で特定する段階、前記制御ベクターによって指示される客体を前記使用者が行うジェスチャーまたは操作によって制御される対象客体として決定する段階、前記対象客体の属性に基づいて定義される対象客体基準座標系で前記制御ベクターの大きさまたは方向に対応する制御座標を特定するマッピング(mapping)を遂行する段階、および前記マッピングによって特定される制御座標を参照して前記対象客体に対して適用される制御命令を決定する段階、を含む方法が提供される。 According to one aspect of the present invention, a method for assisting the control of an object, wherein a control vector corresponding to a gesture or operation performed by a user is specified in a real-world coordinate system, the control vector. The size or direction of the control vector in the target object reference coordinate system defined based on the attributes of the target object, the step of determining the object instructed by the object as the target object controlled by the gesture or operation performed by the user. A method comprising performing a mapping that specifies the control coordinates corresponding to the object, and determining a control command applied to the object with reference to the control coordinates identified by the mapping. Provided.

本発明の他の態様によると、客体の制御を支援するためのシステムであって、使用者が行うジェスチャーまたは操作に対応する制御ベクター(vector)を実世界の座標系で特定し、前記制御ベクターによって指示される客体を前記使用者が行うジェスチャーまたは操作によって制御される対象客体として決定し、前記対象客体の属性に基づいて定義される対象客体基準座標系で前記制御ベクターの大きさまたは方向に対応する制御座標を特定するマッピング(mapping)を遂行し、前記マッピングによって特定される制御座標を参照して前記対象客体に対して適用される制御命令を決定する客体制御管理部、および前記使用者および前記客体に関する空間情報を保存する空間情報管理部を含むシステムが提供される。 According to another aspect of the present invention, a control vector (vector) corresponding to a gesture or operation performed by a user, which is a system for supporting the control of an object, is specified in a real-world coordinate system, and the control vector is described. The object indicated by is determined as the target object controlled by the gesture or operation performed by the user, and in the size or direction of the control vector in the target object reference coordinate system defined based on the attributes of the target object. An object control management unit that performs mapping to specify the corresponding control coordinates and determines a control command applied to the target object with reference to the control coordinates specified by the mapping, and the user. And a system including a spatial information management unit for storing spatial information about the object is provided.

その他、本発明を具現するための他の方法、システムおよび前記方法を遂行するためのコンピュータプログラムを記録するための非一過性のコンピュータ読み取り可能な記録媒体がさらに提供される。 In addition, other methods for embodying the present invention, systems and non-transient computer-readable recording media for recording computer programs for carrying out said methods are further provided.

本発明によると、使用者が自分の身体部位または所定のベクター制御手段を利用して直観的に行うジェスチャーまたは操作により実世界の座標系で特定される制御ベクターを、該当客体の属性により定義される客体基準座標系上の制御座標とマッピング(mapping)させることによって、使用者が制御ベクターを生成(または特定)するための直観的なジェスチャーまたは操作を行うだけで、多様な客体を正確かつ便利に制御できるようになる効果が達成される。 According to the present invention, a control vector specified in a real-world coordinate system by a gesture or operation intuitively performed by a user using his / her body part or a predetermined vector control means is defined by the attribute of the corresponding object. By mapping with the control coordinates on the object reference coordinate system, the user can perform intuitive gestures or operations to generate (or specify) the control vector, and various objects can be accurately and conveniently used. The effect of being able to control is achieved.

また、本発明によると、使用者が自分の視点から見る時、自分の指先に重なって見える客体を対象客体として決定できるため、有効領域(すなわち、制御可能領域)に関する制限がなく、使用者が目で見ることができる領域に存在するすべての客体を制御できるようになる効果が達成される。 Further, according to the present invention, when the user sees from his / her own viewpoint, the object that appears to overlap with his / her fingertip can be determined as the target object, so that there is no limitation on the effective area (that is, the controllable area) and the user can use it. The effect of gaining control over all objects in the visible area is achieved.

また、本発明によると、使用者が自分が操作できるベクター制御手段によって指示される客体を対象客体として決定できるため、有効領域(すなわち、制御可能領域)に関する制限がなく、使用者がベクター制御手段によって指示できるものと直観的に予測(または見計らい)できる領域に存在するすべての客体を制御できるようになる効果が達成される。 Further, according to the present invention, since the object indicated by the vector control means that the user can operate can be determined as the target object, there is no limitation on the effective region (that is, the controllable region), and the user can control the vector. The effect of being able to control all objects in the area that can be intuitively predicted (or estimated) as directed by is achieved.

また、本発明によると、制御の対象となる対象客体を決定する過程と対象客体に対して適用される制御命令を決定する過程が共に遂行されるため、制御の対象となる客体が変更(すなわち、第1客体から第2客体への転換)される場合に、対象客体および制御命令のうちいずれか一つのみを切り離して変更する必要がなくなり、その結果、利便性が向上する効果が達成される。 Further, according to the present invention, since the process of determining the target object to be controlled and the process of determining the control command applied to the target object are both executed, the object to be controlled is changed (that is,). , Conversion from the first object to the second object), it is not necessary to separately change only one of the target object and the control command, and as a result, the effect of improving convenience is achieved. To.

また、本発明によると、制御の対象となる対象客体を決定する過程と対象客体に対して適用される制御命令を決定する過程が共に遂行されるため、使用者が意図していないにもかかわらず、該当客体が所定の動作(すなわち、誤動作)を遂行するようになる場合が発生する可能性を顕著に低下させるようになる効果が達成される。 Further, according to the present invention, since the process of determining the target object to be controlled and the process of determining the control command applied to the target object are both performed, the user does not intend to do so. However, the effect of significantly reducing the possibility that the corresponding object may perform a predetermined operation (that is, a malfunction) is achieved.

本発明の一実施例により客体の制御を支援するための全体システムの構成を例示的に示す図面。FIG. 6 is a drawing illustrating an exemplary configuration of an overall system for assisting control of an object according to an embodiment of the present invention. 本発明の一実施例により客体の制御支援システムの内部構成を例示的に示す図面。The drawing which shows exemplary the internal structure of the control support system of an object by one Embodiment of this invention. 本発明の一実施例により対象空間内に制御可能な多様な客体が存在する状況を例示的に示す図面。The drawing which shows the situation which the existence of various objects which can be controlled in the object space by one Embodiment of this invention exemplify. 本発明の一実施例により実世界の座標系の制御ベクターと対象客体基準座標系の制御座標をマッピングする構成を例示的に示す図面。The drawing which shows the structure which maps the control vector of the coordinate system of a real world, and the control coordinate of a target object reference coordinate system by one Embodiment of this invention. 本発明の一実施例により実世界の座標系の制御ベクターと対象客体基準座標系の制御座標をマッピングする構成を例示的に示す図面。The drawing which shows the structure which maps the control vector of the coordinate system of a real world, and the control coordinate of a target object reference coordinate system by one Embodiment of this invention. 本発明の一実施例により実世界の座標系の制御ベクターと対象客体基準座標系の制御座標をマッピングする構成を例示的に示す図面。The drawing which shows the structure which maps the control vector of the coordinate system of a real world, and the control coordinate of a target object reference coordinate system by one Embodiment of this invention. 本発明の一実施例により実世界の座標系の制御ベクターと対象客体基準座標系の制御座標をマッピングする構成を例示的に示す図面。The drawing which shows the structure which maps the control vector of the coordinate system of a real world, and the control coordinate of a target object reference coordinate system by one Embodiment of this invention. 本発明の一実施例により使用者がベクター制御手段を利用して行う操作により制御ベクターが特定される構成を例示的に示す図面。The drawing which shows exemplary the structure which the control vector is specified by the operation performed by the user using the vector control means by one Embodiment of this invention. 本発明の一実施例により使用者がベクター制御手段を利用して行う操作により制御ベクターが特定される構成を例示的に示す図面。The drawing which shows exemplary the structure which the control vector is specified by the operation performed by the user using the vector control means by one Embodiment of this invention.

後述する本発明に対する詳細な説明は、本発明が実施され得る特定の実施例を例示として図示する添付図面を参照する。これらの実施例は当業者が本発明を実施できるように詳細に説明される。本発明の多様な実施例は互いに異なるが相互に排他的である必要はないことが理解されるべきである。例えば、ここに記載されている特定の形状、構造および特性は、一実施例に関連して本発明の精神および範囲を逸脱することなく他の実施例で具現され得る。また、それぞれの開示された実施例内の個別の構成要素の位置または配置は、本発明の精神および範囲を逸脱することなく変更され得ることが理解されるべきである。したがって、後述する詳細な説明は限定的な意味のものではなく、本発明の範囲は、適切に説明されるのであれば、その請求項が主張するものと均等なすべての範囲とともに添付された請求項によってのみ限定される。図面で類似の参照符号は多様な側面にかけて同一または類似する機能を指し示す。 For a detailed description of the invention described below, reference to the accompanying drawings illustrated by way of example certain embodiments in which the invention may be practiced. These examples will be described in detail so that those skilled in the art can practice the present invention. It should be understood that the various embodiments of the invention are different from each other but need not be mutually exclusive. For example, the particular shapes, structures and properties described herein may be embodied in other embodiments in relation to one embodiment without departing from the spirit and scope of the invention. It should also be understood that the location or placement of the individual components within each disclosed embodiment may be modified without departing from the spirit and scope of the invention. Therefore, the detailed description described below is not limited in meaning, and the scope of the present invention, if appropriate, is attached with all the scope equivalent to that claimed by the claim. Limited only by the term. Similar reference numerals in the drawings indicate the same or similar functions across various aspects.

以下では、本発明が属する技術分野で通常の知識を有する者が本発明を容易に実施できるようにするために、本発明の好ましい実施例に関して添付された図面を参照して詳細に説明する。 Hereinafter, in order to enable a person having ordinary knowledge in the technical field to which the present invention belongs to easily carry out the present invention, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

全体システムの構成 Overall system configuration

図1は、本発明の一実施例により客体の制御を支援するための全体システムの構成を例示的に示す図面である。 FIG. 1 is a drawing illustrating an exemplary configuration of an overall system for assisting control of an object according to an embodiment of the present invention.

図1に図示された通り、本発明の一実施例に係る全体システムは、通信網100、客体制御支援システム200および客体300を含んで構成され得る。 As illustrated in FIG. 1, the entire system according to an embodiment of the present invention may be configured to include a communication network 100, an object control support system 200, and an object 300.

まず、本発明の一実施例に係る通信網100は有線通信や無線通信のような通信の形態を問わずに構成され得、近距離通信網(LAN;Local Area Network)、都市圏通信網(MAN;Metropolitan Area Network)、広域通信網(WAN;Wide Area Network)等の多様な通信網で構成され得る。好ましくは、本明細書で言う通信網100は公知のインターネットまたはワールドワイドウェブ(WWW;World Wide Web)であり得る。しかし、通信網100はこれに限定される必要はなく、公知の有無線データ通信網、公知の電話網または公知の有無線テレビ通信網を、その少なくとも一部において含んでもよい。 First, the communication network 100 according to an embodiment of the present invention can be configured regardless of the form of communication such as wired communication and wireless communication, and can be configured as a short-range communication network (LAN; Local Area Network), an urban area communication network ( It may be composed of various communication networks such as MAN (Metropolitan Area Network) and wide area network (WAN; Wide Area Network). Preferably, the communication network 100 referred to herein can be the known Internet or the World Wide Web (WWW). However, the communication network 100 is not limited to this, and may include a known radio data communication network, a known telephone network, or a known radio television communication network in at least a part thereof.

例えば、通信網100は無線データ通信網であって、無線周波数(RF;Radio Frequency)通信、Wi-Fi(WiFi)通信、セルラー(LTEなど)通信、ブルートゥース(登録商標)(通信さらに具体的には、低電力ブルートゥース(登録商標)(BLE;Bluetooth(登録商標) Low Energy))、赤外線通信、超音波通信などのような従来の通信方法を、少なくともその一部分において具現するものであり得る。他の例として、通信網100は光通信網であって、ライパイ(LiFi(Light Fidelity))通信などのような従来の通信方法を少なくともその一部分において具現するものであり得る。 For example, the communication network 100 is a wireless data communication network, and is a radio frequency (RF; Radio Frequency) communication, Wi-Fi (WiFi) communication, cellular (LTE, etc.) communication, Bluetooth (registered trademark) (communication, more specifically). Can embody conventional communication methods such as low power Bluetooth® (BLE; Bluetooth® Low Energy)), infrared communication, ultrasonic communication and the like, at least in part thereof. As another example, the communication network 100 is an optical communication network, and may embody a conventional communication method such as LiFi (Lift Fidelity) communication at least in a part thereof.

次いで、本発明の一実施例に係る客体の制御支援システム200は、メモリー手段を具備し、マイクロ・プロセッサを搭載して演算能力を備えたデジタルデバイスであり得る。このような客体の制御支援システム200はサーバーシステムであり得る。 Next, the object control support system 200 according to the embodiment of the present invention may be a digital device including memory means, equipped with a microprocessor, and having computing power. Such an object control support system 200 can be a server system.

このために、客体の制御支援システム200は、下記で詳述されるように、使用者が行うジェスチャーまたは操作に対応する制御ベクター(vector)を実世界の座標系で特定し、制御ベクターによって指示される客体を使用者が行うジェスチャーまたは操作によって制御される対象客体として決定し、対象客体の属性に基づいて定義される対象客体基準座標系で制御ベクターの大きさまたは方向に対応する制御座標を特定するマッピング(mapping)を遂行し、マッピングによって特定される制御座標を参照して対象客体に対して適用される制御命令を決定することによって、使用者が制御ベクターを生成(または特定)するための直観的なジェスチャーまたは操作を行うだけで、多様な客体を正確かつ便利に制御できるようにする機能を遂行することができる。客体の制御支援システム200の機能については下記でより詳察することにする。 To this end, the object control support system 200 identifies a control vector corresponding to a gesture or operation performed by the user in a real-world coordinate system and is instructed by the control vector, as described in detail below. The object to be controlled is determined as the target object controlled by the gesture or operation performed by the user, and the control coordinates corresponding to the size or direction of the control vector in the target object reference coordinate system defined based on the attributes of the target object are set. For the user to generate (or identify) a control vector by performing a mapping to identify and referencing the control coordinates identified by the mapping to determine the control instructions applied to the target object. By simply performing intuitive gestures or operations, it is possible to perform functions that enable accurate and convenient control of various objects. The functions of the object control support system 200 will be described in more detail below.

一方、客体の制御支援システム200について前記のように説明したが、このような説明は例示的なものであり、客体の制御支援システム200に要求される機能や構成要素の少なくとも一部が必要に応じて制御の対象となる客体300(すなわち、デバイス)または外部システム(図示されず)内で実現されたり、客体300または外部システム(図示されず)内に含まれてもよいことは、当業者に自明である。 On the other hand, the object control support system 200 has been described as described above, but such an explanation is exemplary and requires at least a part of the functions and components required for the object control support system 200. Those skilled in the art may be realized within the object 300 (ie, device) or external system (not shown) to be controlled accordingly, or may be included within the object 300 or external system (not shown). It is self-evident.

次いで、本発明の一実施例によると、客体300は使用者のジェスチャーまたは操作によって制御され得る対象としての機能を遂行することができる。すなわち、本発明の一実施例によると、客体300は客体の制御支援システム200、他の客体300または外部システム(図示されず)から使用者のジェスチャーまたは操作による制御命令を受信し、前記受信される制御命令により自分の動作または機能が制御されるようにすることができる。本発明の一実施例によると、客体300は実世界に存在する実物客体であり得、仮想現実に存在するか実世界に対して拡張(augmented)、混合(mixed)または融合(merged)され得る仮想客体であり得る。 Then, according to one embodiment of the present invention, the object 300 can perform a function as an object that can be controlled by a gesture or operation of the user. That is, according to one embodiment of the present invention, the object 300 receives a control command by a user's gesture or operation from the object control support system 200, another object 300, or an external system (not shown), and the reception is received. Control commands can be used to control one's own actions or functions. According to one embodiment of the invention, the object 300 can be a real object that exists in the real world and can exist in virtual reality or be augmented, mixed or merged with respect to the real world. It can be a virtual object.

具体的には、本発明の一実施例に係る客体300は、客体の制御支援システム200、他の客体300または外部システム(図示されず)に接続してから通信できる機能を含むデバイスであり得、メモリー手段を具備し、マイクロ・プロセッサを搭載して演算能力を備えたデバイスであればいくらでも本発明に係る客体300として採択され得る。具体的には、本発明の一実施例によると、客体300はスマートグラス、スマートウォッチ、スマートバンド、スマートリング、ネックレスなどのようなウェアラブルデバイスやスマートフォン、スマートパッド、デスクトップコンピュータ、ノートパソコン、ワークステーション、PDA、ウェブパッド、移動電話機などのような少々伝統的なデバイスであり得る。また、本発明の一実施例によると、客体300は、TV、スピーカー、電灯、エアコン、加湿器、タンス、窓、ブラインドなどのようなIoT(Internet of Things)デバイスであり得る。 Specifically, the object 300 according to an embodiment of the present invention may be a device including a function capable of communicating after being connected to an object control support system 200, another object 300, or an external system (not shown). Any number of devices provided with memory means, equipped with a microprocessor and capable of computing power can be adopted as the object 300 according to the present invention. Specifically, according to one embodiment of the present invention, the object 300 is a wearable device such as a smart glass, a smart watch, a smart band, a smart ring, a necklace, a smartphone, a smart pad, a desktop computer, a laptop computer, or a workstation. , PDA, web pad, mobile phone, etc. can be a little traditional device. Further, according to one embodiment of the present invention, the object 300 can be an IoT (Internet of Things) device such as a TV, a speaker, a lamp, an air conditioner, a humidifier, a tongue, a window, and a blind.

また、本発明の一実施例に係る客体300は、客体の制御支援システム200、他の客体300または外部システム(図示されず)と通信できる機能が備えられていないかメモリー手段またはマイクロ・プロセッサが備えられていないまま、実世界で所定の物理的な位置を有する一般的な事物でもよい。例えば、温度計、写真、絵、人形、鏡のような一般的な事物が本発明の一実施例に係る客体300として採択され得る。 Further, the object 300 according to the embodiment of the present invention is not provided with a function capable of communicating with the object control support system 200, another object 300, or an external system (not shown), or a memory means or a microprocessor is used. It may be a general object that has a predetermined physical position in the real world without being provided. For example, common objects such as thermometers, photographs, pictures, dolls, mirrors can be adopted as the object 300 according to an embodiment of the present invention.

一方、本発明の一実施例によると、デバイスである客体300には本発明に係る機能を遂行するためのアプリケーションプログラムがさらに含まれていてもよい。このようなアプリケーションは該当デバイス内でプログラムモジュールの形態で存在し得る。このようなプログラムモジュールの性格は、前述したような客体の制御支援システム200の空間情報管理部210および客体制御管理部220と全般的に類似し得る。ここで、アプリケーションはその少なくとも一部が、必要に応じてそれと実質的に同一または均等な機能を遂行できるハードウェア装置やファームウェア装置に置換されてもよい。 On the other hand, according to one embodiment of the present invention, the object 300, which is a device, may further include an application program for performing the function according to the present invention. Such an application may exist in the form of a program module within the device. The character of such a program module may be generally similar to the spatial information management unit 210 and the object control management unit 220 of the object control support system 200 as described above. Here, at least a part of the application may be replaced with a hardware device or a firmware device capable of performing substantially the same or equivalent functions as necessary.

客体の制御支援システムの構成 Configuration of object control support system

以下では、本発明の具現のために重要な機能を遂行する客体の制御支援システム200の内部構成および各構成要素の機能について詳察する。 In the following, the internal configuration of the object control support system 200 and the functions of each component that perform important functions for the realization of the present invention will be described in detail.

図2は、本発明の一実施例に係る客体の制御支援システムの内部構成を例示的に示す図面である。 FIG. 2 is a drawing schematically showing an internal configuration of an object control support system according to an embodiment of the present invention.

図2を参照すると、本発明の一実施例に係る客体制御支援システム200は、空間情報管理部210、客体制御管理部220、データベース230、通信部240および制御部250を含むことができる。本発明の一実施例によると、空間情報管理部210、客体制御管理部220、データベース230、通信部240および制御部250は、そのうち少なくとも一部が外部システム(図示されず)と通信するプログラムモジュールであり得る。このようなプログラムモジュールは、運営システム、アプリケーションモジュールおよびその他プログラムモジュールの形態で客体の制御支援システム200に含まれ得、物理的には多様な公知の記憶装置上に保存され得る。また、このようなプログラムモジュールは客体の制御支援システム200と通信可能な遠隔記憶装置に保存されてもよい。一方、このようなプログラムモジュールは、本発明により後述する特定の業務を遂行したり、特定の抽象データの類型を実行するルーチン、サブルーチン、プログラム、客体、コンポーネント、データ構造などを包括するが、これに制限されはしない。 Referring to FIG. 2, the object control support system 200 according to the embodiment of the present invention can include a spatial information management unit 210, an object control management unit 220, a database 230, a communication unit 240, and a control unit 250. According to one embodiment of the present invention, the spatial information management unit 210, the object control management unit 220, the database 230, the communication unit 240, and the control unit 250 are program modules in which at least a part thereof communicates with an external system (not shown). Can be. Such a program module may be included in the object control support system 200 in the form of an operating system, an application module and other program modules, and may be physically stored on a variety of known storage devices. Further, such a program module may be stored in a remote storage device capable of communicating with the control support system 200 of the object. On the other hand, such a program module includes routines, subroutines, programs, objects, components, data structures, etc. that perform specific tasks described later or execute specific types of abstract data according to the present invention. Not limited to.

一方、客体の制御支援システム200について前記のように説明したが、このような説明は例示的なものであって、客体の制御支援システム200の構成要素または機能のうち少なくとも一部が、必要に応じて制御の対象となる客体300(例えば、IoTデバイスなど)または外部システム(図示されず)内で具現されたり、客体300または外部システム(図示されず)内に含まれてもよいことは、当業者に自明である。場合によっては、客体の制御支援システム200のすべての機能とすべての構成要素が客体300または外部システム(図示されず)内で全部実行されるか客体300または外部システム(図示されず)内に全部含まれてもよい。 On the other hand, although the object control support system 200 has been described as described above, such an explanation is exemplary, and at least a part of the components or functions of the object control support system 200 is required. It may be embodied within an object 300 (eg, an IoT device) or an external system (not shown) to be controlled accordingly, or may be included within an object 300 or an external system (not shown). It is obvious to those skilled in the art. In some cases, all functions and components of the object control support system 200 are all executed within the object 300 or the external system (not shown) or all within the object 300 or the external system (not shown). May be included.

まず、本発明の一実施例によると、空間情報管理部210は、使用者が所定のジェスチャーまたは操作を行うことによって周辺空間(以下、「対象空間」という)に存在する多様な客体を制御するために必要な空間情報を獲得する機能を遂行することができる。 First, according to one embodiment of the present invention, the spatial information management unit 210 controls various objects existing in the surrounding space (hereinafter referred to as “target space”) by performing a predetermined gesture or operation by the user. It is possible to perform the function of acquiring the spatial information necessary for the purpose.

具体的には、本発明の一実施例に係る空間情報管理部210は、対象空間に存在する少なくとも一つの使用者および客体を識別するために必要な情報を獲得することができる。例えば、使用者の識別子、優位眼などに関する情報と客体の識別子、属性、動作状態、通信手段などに関する情報が獲得され得る。 Specifically, the spatial information management unit 210 according to the embodiment of the present invention can acquire information necessary for identifying at least one user and an object existing in the target space. For example, information on the user's identifier, superior eye, etc. and information on the object's identifier, attributes, operating state, communication means, etc. can be acquired.

また、本発明の一実施例に係る空間情報管理部210は、対象空間に存在する少なくとも一つの使用者および客体の位置および姿勢を特定するために必要な情報を獲得することができる。例えば、対象空間を基準として定義される実世界(real world)座標系で特定される使用者(より具体的には、使用者の優位眼および使用者が客体に重なって見えるようにする身体部位)の位置および姿勢に関する情報と実世界の座標系で特定される客体300の位置および姿勢に関する情報が獲得され得る。 In addition, the spatial information management unit 210 according to the embodiment of the present invention can acquire information necessary for specifying the positions and postures of at least one user and an object existing in the target space. For example, a user (more specifically, the user's dominant eye and a body part that makes the user appear to overlap the object) specified in a real world coordinate system defined with respect to the target space. ) And information about the position and orientation of the object 300 identified in the real world coordinate system can be obtained.

一方、本発明の一実施例によると、前記のように獲得される空間情報は、所定の時間を周期としてリアルタイムに更新されるか、使用者または客体300の位置または姿勢が変化するなどのイベントが発生することによって動的に更新され得る。 On the other hand, according to one embodiment of the present invention, the spatial information acquired as described above is updated in real time with a predetermined time as a cycle, or an event such as a change in the position or posture of the user or the object 300. Can be dynamically updated by the occurrence of.

図3は、本発明の一実施例により対象空間内に制御可能な多様な客体が存在する状況を例示的に示す図面である。 FIG. 3 is a drawing illustrating an exemplary situation in which various objects that can be controlled in the target space exist according to an embodiment of the present invention.

図3を参照すると、本発明の一実施例に係る空間情報管理部210は、使用者が対象空間350内に存在する客体を特定するか客体の動作または機能を制御するためにジェスチャーまたは操作を行うにおいて、基準とすることができる0次元の点、1次元の線、2次元領域または3次元空間を該当客体の属性を参照して設定することができる。例えば、ボタンを押したりダイヤルを回す操作が加えられる属性を有する照明301、306、スピーカー304、305、鏡302、加湿器303、エアコン307等の客体については基準点301A~307Aが設定され得、上下または左右方向にスライディングする操作が加えられる属性を有するブラインド308、タンス309、窓310等の客体については基準線308A~310Aが設定され得、2次元画面についての操作が加えられる属性を有するTV311等の客体については2次元基準領域311Aが設定され得、3次元空間を基準として操作が加えられる属性を有する拡張現実客体312等の客体については3次元基準空間312Aが設定され得る。 Referring to FIG. 3, the spatial information management unit 210 according to the embodiment of the present invention makes a gesture or operation for the user to identify an object existing in the target space 350 or to control the operation or function of the object. In doing so, a 0-dimensional point, a 1-dimensional line, a 2-dimensional region, or a 3-dimensional space that can be used as a reference can be set with reference to the attribute of the corresponding object. For example, reference points 301A to 307A can be set for objects such as lights 301, 306, speakers 304, 305, mirror 302, humidifier 303, and air conditioner 307 that have the attribute of pressing a button or turning a dial. Reference lines 308A to 310A can be set for objects such as blind 308, tongue 309, and window 310 that have the attribute of being slid up and down or left and right, and TV311 that has the attribute of being able to operate the two-dimensional screen. A two-dimensional reference area 311A may be set for an object such as, and a three-dimensional reference space 312A may be set for an object such as an augmented reality object 312 having an attribute to which an operation is applied with reference to a three-dimensional space.

一方、本発明の一実施例に係る空間情報管理部210は、客体の属性を参照して客体基準座標系を定義することができる。例えば、ボタンを押したりダイヤルを回す操作が加えられる属性を有する照明301、306、スピーカー304、305、鏡302、加湿器303、エアコン307等の客体については、該当客体の基準点301A~307Aを原点とする0次元の客体基準座標系が定義され得る。他の例として、上下または左右方向にスライディングする操作が加えられる属性を有するブラインド308、タンス309、窓310等の客体については、該当客体の基準線308A~310Aを軸とする1次元の客体基準座標系が定義され得る。さらに他の例として、2次元画面について、点、線または領域を特定する操作が加えられる属性を有するTV311等の客体については、該当客体の2次元基準領域311Aに対応する2次元客体基準座標系が定義され得る。さらに他の例として、所定の3次元空間を基準として操作が加えられる属性を有する拡張現実客体312等の客体については、該当客体の3次元基準空間312Aに対応する3次元客体基準座標系が定義され得る。 On the other hand, the spatial information management unit 210 according to the embodiment of the present invention can define the object reference coordinate system with reference to the attributes of the object. For example, for an object such as a lighting 301, 306, a speaker 304, 305, a mirror 302, a humidifier 303, an air conditioner 307, which has an attribute to which an operation of pressing a button or turning a dial can be added, the reference points 301A to 307A of the object are set. A zero-dimensional object reference coordinate system as the origin can be defined. As another example, for an object such as a blind 308, a tongue 309, or a window 310 having an attribute of being slid up / down or left / right, a one-dimensional object reference centered on the reference lines 308A to 310A of the object. A coordinate system can be defined. As yet another example, for an object such as TV311 that has an attribute to which an operation for specifying a point, line, or region is applied to a two-dimensional screen, a two-dimensional object reference coordinate system corresponding to the two-dimensional reference region 311A of the object. Can be defined. As yet another example, for an object such as an augmented real object 312 having an attribute to which an operation is applied with reference to a predetermined 3D space, a 3D object reference coordinate system corresponding to the 3D reference space 312A of the object is defined. Can be done.

次いで、本発明の一実施例に係る客体制御管理部220は、使用者が自分の視点から見る時、自分の指先などの身体部位を自分が制御しようとする対象客体と対応させる(すなわち、重なって見えるようにする)動作を行うことによって自分が制御しようとする対象客体を特定できるようにすることができる。 Next, the object control management unit 220 according to the embodiment of the present invention associates (that is, overlaps) with the target object that the user intends to control, such as a body part such as his / her fingertip, when the user sees from his / her own viewpoint. By performing an action (to make it visible), it is possible to identify the target object that one wants to control.

また、本発明の一実施例に係る客体制御管理部220は、使用者が対象客体と重なって見えるようにしている指先などの身体部位を利用して対象客体の属性に符合するジェスチャーを行ったり、リモコン、レーザーポインタなどのベクター制御手段を利用して客体の属性に符合する操作を行うことによって対象客体の動作または機能を制御できるようにすることができる。 Further, the object control management unit 220 according to the embodiment of the present invention may perform a gesture matching the attributes of the target object by using a body part such as a fingertip that the user can see overlapping with the target object. , A remote controller, a laser pointer, or other vector control means can be used to control the movement or function of the target object by performing an operation that matches the attributes of the object.

以下では、本発明の一実施例に係る客体制御管理部220の動作について詳察する。 Hereinafter, the operation of the object control management unit 220 according to the embodiment of the present invention will be described in detail.

まず、本発明の一実施例によると、客体制御管理部220は、使用者が行うジェスチャーに対応する制御ベクター(vector)を実世界の座標系で特定することができる。ここで、本発明の一実施例によると、使用者が自分の視点から見る時、自分の指先を自分が制御しようとする客体と重なって見えるようにするジェスチャーを取る場合に、前記ジェスチャーに対応する制御ベクターは使用者の目(より正確には、優位眼)の位置を始点とし、使用者の指先の位置を終点とするベクターとして特定され得る。 First, according to one embodiment of the present invention, the object control management unit 220 can specify a control vector corresponding to a gesture performed by the user in a real-world coordinate system. Here, according to one embodiment of the present invention, when the user takes a gesture to make his / her fingertip appear to overlap with the object to be controlled when viewed from his / her own viewpoint, the gesture corresponds to the above-mentioned gesture. The control vector can be specified as a vector starting from the position of the user's eye (more accurately, the dominant eye) and ending at the position of the user's fingertip.

また、本発明の一実施例によると、客体制御管理部220は、使用者が行う操作に対応する制御ベクター(vector)を実世界の座標系で特定することができる。ここで、本発明の一実施例によると、使用者がリモコン、レーザーポインタなどのベクター制御手段を利用して自分が制御しようとする客体を指示する操作を行う場合に、前記のジェスチャーに対応する制御ベクターは使用者操作の対象となるベクター制御手段の姿勢またはベクター制御手段によって発生する制御信号の方向に基づいて特定され得る。例えば、本発明の一実施例に係る制御ベクターは、ベクター制御手段の姿勢を特定するベクター制御手段上の二点を連結するベクターであり得、ベクター制御手段の姿勢を定義する軸に該当するベクターであり得、ベクター制御手段によって発生する指示信号(レーザーポインタのレーザー信号、リモコンの赤外線(IR)信号など)の方向に該当するベクターであり得、ベクター制御手段で指示信号を発生させる信号発生部の位置に該当する点とベクター制御手段上の所定の基準点(信号発生部の反対側に位置し得る)を連結するベクターであり得る。 Further, according to one embodiment of the present invention, the object control management unit 220 can specify a control vector (vector) corresponding to an operation performed by the user in a coordinate system in the real world. Here, according to one embodiment of the present invention, when the user performs an operation of instructing an object to be controlled by using a vector control means such as a remote controller or a laser pointer, the gesture corresponds to the above-mentioned gesture. The control vector can be specified based on the attitude of the vector control means to be manipulated by the user or the direction of the control signal generated by the vector control means. For example, the control vector according to an embodiment of the present invention may be a vector connecting two points on the vector control means for specifying the posture of the vector control means, and is a vector corresponding to an axis defining the posture of the vector control means. It may be a vector corresponding to the direction of the instruction signal (laser signal of the laser pointer, infrared (IR) signal of the remote controller, etc.) generated by the vector control means, and the signal generation unit that generates the instruction signal by the vector control means. It may be a vector connecting a point corresponding to the position of the above and a predetermined reference point (which may be located on the opposite side of the signal generation unit) on the vector control means.

次いで、本発明の一実施例によると、客体制御管理部220は、対象空間内で使用者のジェスチャーまたは操作に対応して特定される制御ベクターによって指示される客体を、該当使用者のジェスチャーまたは操作により制御される対象客体として決定することができる。 Then, according to one embodiment of the present invention, the object control management unit 220 uses the gesture of the user or the object indicated by the control vector specified in response to the gesture or operation of the user in the target space. It can be determined as the target object controlled by the operation.

具体的には、本発明の一実施例に係る客体制御管理部220は、使用者および客体に関する空間情報を参照して、対象空間内で制御ベクターによって指示される客体を対象客体として決定することができる。より具体的には、本発明の一実施例に係る客体制御管理部220は、対象空間内で制御ベクターまたは制御ベクターの延長線と交差するか近接する客体を対象客体として決定することができる。換言すれば、本発明の一実施例によると、対象客体が制御ベクターまたは制御ベクターの延長線と必ずしも交差する必要はなく、制御ベクターと制御ベクターの始点から客体の基準点への基準ベクターの間の角(すなわち、誤差角)が既設定された水準以下である場合にも、該当客体を制御ベクターによって指示される客体(すなわち、対象客体)であるものとして決定することができる。 Specifically, the object control management unit 220 according to the embodiment of the present invention refers to the spatial information about the user and the object, and determines the object indicated by the control vector in the target space as the target object. Can be done. More specifically, the object control management unit 220 according to the embodiment of the present invention can determine an object that intersects with or is close to the control vector or an extension of the control vector in the target space as the target object. In other words, according to one embodiment of the invention, the target object does not necessarily have to intersect the control vector or the extension of the control vector, between the control vector and the reference vector from the starting point of the control vector to the reference point of the object. Even when the angle of (that is, the error angle) is equal to or less than the preset level, the corresponding object can be determined to be the object (that is, the target object) indicated by the control vector.

次いで、本発明の一実施例によると、客体制御管理部220は、対象客体の属性に基づいて定義される対象客体基準座標系で制御ベクターの大きさまたは方向に対応する制御座標を特定するマッピング(mapping)を遂行できる。 Next, according to one embodiment of the present invention, the object control management unit 220 specifies mappings that specify control coordinates corresponding to the size or direction of the control vector in the target object reference coordinate system defined based on the attributes of the target object. (Mapping) can be performed.

次いで、本発明の一実施例によると、客体制御管理部220は、前記マッピングによって特定される制御座標の値を参照して対象客体に対して適用される制御命令を決定することができる。 Then, according to one embodiment of the present invention, the object control management unit 220 can determine the control command applied to the target object by referring to the value of the control coordinates specified by the mapping.

図4~図7は、本発明の一実施例により実世界の座標系の制御ベクターと対象客体基準座標系の制御座標をマッピングする構成を例示的に示す図面である。 4 to 7 are drawings schematically showing a configuration for mapping a control vector of a real-world coordinate system and a control coordinate of a target object reference coordinate system according to an embodiment of the present invention.

まず、図4を参照すると、使用者のジェスチャーによりエアコン307の動作または機能が制御される場合を仮定することができる。このような場合に、本発明の一実施例に係る客体制御管理部220は、使用者の目(すなわち、優位眼)410の位置を始点とし、使用者の指先420の位置を終点とする制御ベクター430(または制御ベクターの430の延長線)によって指示されるエアコン307を、使用者のジェスチャーにより制御される対象客体であるものとして決定することができる。ここで、本発明の一実施例によると、制御ベクター430がエアコン307の基準点307Aを正確に示さなくても、制御ベクター430が制御ベクター430の始点410からエアコン307の基準点307Aへの基準ベクター(図示されず)と対比して許容される誤差範囲460(すなわち、誤差角度範囲)内に含まれると、エアコン307を制御ベクター430によって指示される対象客体であるものとして決定することができる。 First, referring to FIG. 4, it can be assumed that the operation or function of the air conditioner 307 is controlled by the gesture of the user. In such a case, the object control management unit 220 according to the embodiment of the present invention controls the position of the user's eye (that is, the superior eye) 410 as the starting point and the position of the user's fingertip 420 as the ending point. The air conditioner 307 indicated by the vector 430 (or an extension of the control vector 430) can be determined to be the target object controlled by the user's gesture. Here, according to an embodiment of the present invention, even if the control vector 430 does not accurately indicate the reference point 307A of the air conditioner 307, the control vector 430 is a reference from the start point 410 of the control vector 430 to the reference point 307A of the air conditioner 307. Within the permissible error range 460 (ie, error angle range) as compared to the vector (not shown), the air conditioner 307 can be determined to be the target object indicated by the control vector 430. ..

続けて、図4を参照すると、本発明の一実施例に係る客体制御管理部220は、対象客体であるエアコン307の属性に基づいて定義される0次元のエアコンの基準座標系において、制御ベクター430の大きさまたは方向に対応する制御座標を特定するマッピングを遂行できる。例えば、制御座標は、制御ベクター430の大きさ(以下、「大きさ」という)およびエアコン307の基準点307Aを中心とした制御ベクター430の回転角470(以下、「回転角」という)によって特定され得る。 Subsequently, referring to FIG. 4, the object control management unit 220 according to the embodiment of the present invention is a control vector in the reference coordinate system of the 0-dimensional air conditioner defined based on the attributes of the air conditioner 307 which is the target object. A mapping can be performed that identifies the control coordinates corresponding to the size or direction of the 430. For example, the control coordinates are specified by the size of the control vector 430 (hereinafter referred to as “size”) and the rotation angle 470 (hereinafter referred to as “rotation angle”) of the control vector 430 centered on the reference point 307A of the air conditioner 307. Can be done.

続けて、図4を参照すると、本発明の一実施例に係る客体制御管理部220は、前記特定される制御座標を参照してエアコン307に対して適用される制御命令を決定することができる。 Subsequently, with reference to FIG. 4, the object control management unit 220 according to the embodiment of the present invention can determine the control command applied to the air conditioner 307 with reference to the specified control coordinates. ..

例えば、使用者が自分の視点から見る時、自分の指先420をエアコン307の基準点307Aに対応させた状態でエアコン307に近い方向に指先を移動させるジェスチャーを行うことによって実世界の座標系で制御ベクター430が特定されると、前記制御ベクター430がエアコンの基準座標系上の制御座標にマッピングされることによって制御座標の大きさ値が決定され得、前記決定される制御座標の大きさ値に基づいてエアコンの電源がオンとなるかオフとなり得る。 For example, when the user sees from his / her own point of view, he / she makes a gesture of moving his / her fingertip in a direction close to the air conditioner 307 with his / her fingertip 420 corresponding to the reference point 307A of the air conditioner 307 in the coordinate system of the real world. When the control vector 430 is specified, the magnitude value of the control coordinates can be determined by mapping the control vector 430 to the control coordinates on the reference coordinate system of the air conditioner, and the magnitude value of the determined control coordinates can be determined. The air conditioner can be turned on or off based on.

他の例として、使用者が自分の視点から見る時、自分の指先420がエアコン307の基準点307Aを中心として時計回り方向または反時計回り方向に回転させるジェスチャーを行うことによって実世界の座標系で制御ベクターが特定されると、前記制御ベクター430がエアコンの基準座標系上の制御座標にマッピングされることによって制御座標の回転角値が決定され得、前記決定される制御座標の回転角値に基づいてエアコン307の設定温度または風量が調節され得る。 As another example, when the user sees from his point of view, his fingertip 420 makes a gesture of rotating clockwise or counterclockwise around the reference point 307A of the air conditioner 307 to make a real-world coordinate system. When the control vector is specified in, the rotation angle value of the control coordinates can be determined by mapping the control vector 430 to the control coordinates on the reference coordinate system of the air conditioner, and the rotation angle value of the determined control coordinates can be determined. The set temperature or air volume of the air conditioner 307 can be adjusted based on the above.

さらに他の例として、使用者が自分の視点から見る時、自分の指先420をエアコン307の基準点307Aの右側領域(例えば、誤差角が3~6度で回転角が45~135度である領域など)に対応させた状態でエアコン307の基準点307Aの右側方向に指先を移動させるジェスチャー(すなわち、エアコン307の右側領域をタブするジェスチャー(Right Tab))を行うことによって実世界の座標系で制御ベクター430が特定されると、前記制御ベクター430がエアコンの基準座標系上の制御座標にマッピングされることによって制御座標の大きさ値および回転角値が決定され得、前記決定される制御座標の大きさ値および回転角値に基づいてエアコン307の風量が調節され得る。 As yet another example, when the user sees from his / her point of view, his / her fingertip 420 is in the right region of the reference point 307A of the air conditioner 307 (for example, the error angle is 3 to 6 degrees and the rotation angle is 45 to 135 degrees. Real-world coordinate system by performing a gesture to move the fingertip toward the right side of the reference point 307A of the air conditioner 307 (that is, a gesture to tab the right side area of the air conditioner 307 (Right Tab)) in a state corresponding to the area). When the control vector 430 is specified in, the size value and the rotation angle value of the control coordinates can be determined by mapping the control vector 430 to the control coordinates on the reference coordinate system of the air conditioner, and the determined control can be determined. The air volume of the air conditioner 307 can be adjusted based on the magnitude value and the rotation angle value of the coordinates.

さらに他の例として、使用者が自分の視点から見る時、自分の指先420がエアコン307の基準点307Aを基準として下側領域(例えば、誤差角が3~6度で回転角が135~225度である領域など)から上側領域(例えば、誤差角が3~6度で回転角315~45度である領域など)に移動するジェスチャー(すなわち、エアコン307を下から上へ払いのけるジェスチャー(Swipe))を行うことによって実世界の座標系で制御ベクター430が特定されると、前記制御ベクター430がエアコンの基準座標系上の制御座標にマッピングされることによって制御座標の大きさ値および回転角値が決定され得、前記決定される制御座標の大きさ値および回転角値に基づいてエアコン307の風向きが調節され得る。 As yet another example, when the user sees from his / her point of view, his / her fingertip 420 is in the lower region (for example, the error angle is 3 to 6 degrees and the rotation angle is 135 to 225) with respect to the reference point 307A of the air conditioner 307. A gesture to move from an upper area (eg, an area with an error angle of 3 to 6 degrees and a rotation angle of 315 to 45 degrees, etc.) (ie, a gesture to dispel the air conditioner 307 from bottom to top). When the control vector 430 is specified in the real-world coordinate system by performing Swipe)), the size value and rotation of the control coordinates are mapped by mapping the control vector 430 to the control coordinates on the reference coordinate system of the air conditioner. The angle value can be determined, and the wind direction of the air conditioner 307 can be adjusted based on the size value and the rotation angle value of the determined control coordinates.

さらに他の例として、使用者が自分の視点から見る時、自分の指先420がエアコン307の基準点307Aを基準として右側領域(例えば、誤差角が3~6度で回転角が135~225度である領域など)から中心領域(例えば、誤差角が0~3度である領域)に移動するジェスチャー(すなわち、エアコン307の右側面をタブするジェスチャー(Right-side Tab))を行うことによって実世界の座標系で制御ベクター430が特定されると、前記制御ベクター430がエアコンの基準座標系上の制御座標にマッピングされることによって制御座標の大きさ値および回転角値が決定され得、前記決定される制御座標の大きさ値および回転角値に基づいてエアコン307の動作モードが変更され得る。 As yet another example, when the user sees from his / her point of view, his / her fingertip 420 is in the right region (for example, the error angle is 3 to 6 degrees and the rotation angle is 135 to 225 degrees) with respect to the reference point 307A of the air conditioner 307. By performing a gesture to move from the central region (for example, the region where the error angle is 0 to 3 degrees) (that is, the gesture to tab the right side surface of the air conditioner 307 (Light-side Tab)). When the control vector 430 is specified in the world coordinate system, the size value and the angle of rotation value of the control coordinates can be determined by mapping the control vector 430 to the control coordinates on the reference coordinate system of the air conditioner. The operation mode of the air conditioner 307 may be changed based on the determined magnitude value and rotation angle value of the control coordinates.

次いで、図5を参照すると、使用者のジェスチャーによりブラインド308の動作または機能が制御される場合を仮定することができる。このような場合に、本発明の一実施例に係る客体制御管理部220は、使用者の目(すなわち、優位眼)510の位置を始点とし、使用者の指先521、522の位置を終点とする制御ベクター531、532(または制御ベクターの531、532の延長線)によって指示されるブラインド308を、使用者のジェスチャーにより制御される対象客体であるものとして決定することができる。ここで、本発明の一実施例によると、制御ベクター531、532がブラインド308の基準線308Aを正確に示さなくても、制御ベクター531、532が制御ベクター531、532の始点510からブラインド308の基準線308Aへの基準ベクター(図示されず)と対比して許容される誤差範囲(すなわち、誤差角度範囲)内に含まれると、ブラインド308を制御ベクター531、532によって指示される対象客体であるものとして決定することができる。 Then, referring to FIG. 5, it can be assumed that the operation or function of the blind 308 is controlled by the gesture of the user. In such a case, the object control management unit 220 according to the embodiment of the present invention has the position of the user's eye (that is, the superior eye) 510 as the starting point and the position of the user's fingertips 521 and 522 as the ending point. The blind 308 indicated by the control vector 531 and 532 (or an extension of the control vector 531 and 532) can be determined to be the target object controlled by the user's gesture. Here, according to an embodiment of the present invention, even if the control vectors 531 and 532 do not accurately indicate the reference line 308A of the blind 308, the control vectors 531 and 532 are from the starting point 510 of the control vectors 531 and 532 to the blind 308. Within the permissible error range (ie, error angle range) relative to the reference vector (not shown) to the reference line 308A, the blind 308 is the target object indicated by the control vectors 531 and 532. Can be determined as a thing.

続けて、図5を参照すると、本発明の一実施例に係る客体制御管理部220は、対象客体であるブラインド308の属性に基づいて定義される1次元のブラインド基準座標系で、制御ベクター531、532の大きさまたは方向に対応する制御座標を特定するマッピングを遂行できる。例えば、制御座標は、制御ベクター531、532の大きさおよび制御ベクター531、532がブラインド308の基準線308Aと会うか最も近接する地点の1次元座標によって特定され得る。 Subsequently, with reference to FIG. 5, the object control management unit 220 according to the embodiment of the present invention is a one-dimensional blind reference coordinate system defined based on the attributes of the blind 308 which is the target object, and is a control vector 531. Mapping can be performed to identify control coordinates corresponding to the size or direction of 532. For example, the control coordinates can be specified by the size of the control vectors 531 and 532 and the one-dimensional coordinates of the point where the control vectors 531 and 532 meet or are closest to the reference line 308A of the blind 308.

続けて、図5を参照すると、本発明の一実施例に係る客体制御管理部220は、前記特定される制御座標を参照してブラインド308に対して適用される制御命令を決定することができる。例えば、使用者が自分の視点から見る時、自分の指先521、522がブラインド308の基準線308Aに対応されて見える地点が相対的に上側に存在する地点541から相対的に下側に存在する地点542に移動するようにするジェスチャーを行うことによって実世界の座標系で制御ベクター531、532の方向が変化するようになると、前記制御ベクター531、532がブラインド基準座標系上の制御座標にマッピングされることによって制御座標の1次元座標値が変化され得、前記変化する1次元座標値に基づいてブラインド308が上がったり降りたりする動作または機能が遂行され得る。 Subsequently, with reference to FIG. 5, the object control management unit 220 according to the embodiment of the present invention can determine the control command applied to the blind 308 with reference to the specified control coordinates. .. For example, when the user sees from his / her own point of view, the point where his / her fingertips 521 and 522 can be seen corresponding to the reference line 308A of the blind 308 is located relatively above the point 541 and relatively below. When the direction of the control vectors 531 and 532 changes in the real-world coordinate system by performing a gesture to move to the point 542, the control vectors 531 and 532 are mapped to the control coordinates on the blind reference coordinate system. By doing so, the one-dimensional coordinate value of the control coordinate can be changed, and the operation or function of raising or lowering the blind 308 can be performed based on the changing one-dimensional coordinate value.

次いで、図6を参照すると、使用者のジェスチャーによりTV311の動作または機能が制御される場合を仮定することができる。このような場合に、本発明の一実施例に係る客体制御管理部220は、使用者の目(すなわち、優位眼)610の位置を始点とし、使用者の指先620の位置を終点とする制御ベクター630(または制御ベクターの630の延長線)によって指示されるTV311を、使用者のジェスチャーにより制御される対象客体であるものとして決定することができる。ここで、本発明の一実施例によると、制御ベクター630がTV311の基準領域311Aを正確に示さなくても、制御ベクター630が制御ベクター630の始点610からTV311の基準領域311Aへの基準ベクター(図示されず)と対比して許容される誤差範囲(すなわち、誤差角度範囲)内に含まれると、TV311を制御ベクター630によって指示される対象客体であるものとして決定することができる。 Then, referring to FIG. 6, it can be assumed that the operation or function of the TV 311 is controlled by the gesture of the user. In such a case, the object control management unit 220 according to the embodiment of the present invention controls the position of the user's eye (that is, the superior eye) 610 as the starting point and the position of the user's fingertip 620 as the ending point. The TV 311 indicated by the vector 630 (or an extension of the control vector 630) can be determined to be the target object controlled by the user's gesture. Here, according to one embodiment of the present invention, even if the control vector 630 does not accurately indicate the reference region 311A of the TV311, the control vector 630 is a reference vector from the starting point 610 of the control vector 630 to the reference region 311A of the TV311. Within the permissible error range (ie, error angle range) as compared to (not shown), the TV 311 can be determined to be the target object indicated by the control vector 630.

続けて、図6を参照すると、本発明の一実施例に係る客体制御管理部220は、対象客体であるTV311の属性に基づいて定義される2次元のTV基準座標系で、制御ベクター630の大きさまたは方向に対応する制御座標を特定するマッピングを遂行できる。例えば、制御座標は、制御ベクター630の大きさおよび制御ベクター630がTV311の基準領域311Aと会うか最も近接する地点の2次元座標によって特定され得る。 Subsequently, with reference to FIG. 6, the object control management unit 220 according to the embodiment of the present invention is a two-dimensional TV reference coordinate system defined based on the attributes of the target object TV311 and is a control vector 630. A mapping can be performed that identifies the control coordinates corresponding to the size or direction. For example, the control coordinates can be specified by the size of the control vector 630 and the two-dimensional coordinates of the point where the control vector 630 meets or is closest to the reference region 311A of the TV 311.

続けて、図6を参照すると、本発明の一実施例に係る客体制御管理部220は、前記特定される制御座標を参照してTV311に対して適用される制御命令を決定することができる。例えば、使用者が自分の視点から見る時、自分の指先620がTV311の基準領域311A内の左側上の上端付近のある地点640に対応されるようにするジェスチャーを行うことによって実世界の座標系で制御ベクター630の方向が特定されると、前記制御ベクター630がTV基準座標系上の制御座標にマッピングされることによって制御座標の2次元座標値が特定され得、前記特定される2次元座標値に基づいてTV311の表示画面のうち前記特定される2次元座標値に対応するピクセルに表示されるグラフィック要素が選択される動作または機能が遂行され得る。 Subsequently, with reference to FIG. 6, the object control management unit 220 according to the embodiment of the present invention can determine the control command applied to the TV 311 with reference to the specified control coordinates. For example, a real-world coordinate system by making a gesture that allows the user's fingertip 620 to correspond to a point 640 near the top left on the left side of the reference area 311A of the TV311 when viewed from his point of view. When the direction of the control vector 630 is specified in, the two-dimensional coordinate value of the control coordinate can be specified by mapping the control vector 630 to the control coordinate on the TV reference coordinate system, and the specified two-dimensional coordinate can be specified. An operation or function of selecting a graphic element displayed in a pixel corresponding to the specified two-dimensional coordinate value in the display screen of the TV 311 based on the value can be performed.

次いで、図7を参照すると、使用者のジェスチャーにより人形に対する拡張現実客体312(すなわち、仮想客体)の動作または機能が制御される場合を仮定することができる。ここで、拡張現実客体312に関する視覚的な情報は、スマートフォン、タブレット、スマートグラス、プロジェクターなどのデバイスを通じて使用者に提供され得ることを明かしておく。このような場合に、本発明の一実施例に係る客体制御管理部220は、使用者の目(すなわち、優位眼)710の位置を始点とし、使用者の指先721、722、723の位置を終点とする制御ベクター731、732、733(または制御ベクターの731、732、733の延長線)によって指示される拡張現実客体312を、使用者のジェスチャーにより制御される対象客体であるものとして決定することができる。ここで、本発明の一実施例によると、制御ベクター731、732、733が拡張現実客体312の基準空間312Aを正確に示さなくても、制御ベクター731、732、733が制御ベクター731、732、733の始点710から拡張現実客体312の基準空間312Aへの基準ベクター(図示されず)と対比して許容される誤差範囲(すなわち、誤差角度範囲)内に含まれると、拡張現実客体312を制御ベクター731、732、733によって指示される対象客体であるものとして決定することができる。 Then, with reference to FIG. 7, it can be assumed that the user's gesture controls the movement or function of the augmented reality object 312 (ie, the virtual object) with respect to the doll. Here, it should be clarified that visual information about the augmented reality object 312 can be provided to the user through devices such as smartphones, tablets, smart glasses, and projectors. In such a case, the object control management unit 220 according to the embodiment of the present invention starts from the position of the user's eye (that is, the superior eye) 710 and sets the position of the user's fingertips 721, 722, 723. The augmented reality object 312 indicated by the control vectors 731, 732, 733 (or an extension of the control vectors 731, 732, 733) as the end point is determined to be the target object controlled by the user's gesture. be able to. Here, according to one embodiment of the present invention, the control vectors 731, 732, 733 may be control vectors 731, 732, even if the control vectors 731, 732, 733 do not accurately indicate the reference space 312A of the augmented reality object 312. Controlling the augmented reality object 312 when it is within the permissible error range (ie, error angle range) compared to the reference vector (not shown) from the starting point 710 of 733 to the reference space 312A of the augmented reality object 312. It can be determined to be the target object indicated by the vectors 731, 732, 733.

続けて、図7を参照すると、本発明の一実施例に係る客体制御管理部220は、対象客体である拡張現実客体312の属性に基づいて定義される3次元の拡張現実客体基準座標系で、制御ベクター731、732、733の大きさまたは方向に対応する制御座標を特定するマッピングを遂行できる。例えば、制御座標は、制御ベクター731、732、733の大きさおよび制御ベクター731、732、733が拡張現実客体312の基準空間308Aと会うか最も近接した地点の3次元座標によって特定され得る。 Subsequently, with reference to FIG. 7, the object control management unit 220 according to the embodiment of the present invention is a three-dimensional expanded reality object reference coordinate system defined based on the attributes of the augmented reality object 312 which is the target object. , Control vectors 731, 732, 733 can perform mappings that specify control coordinates corresponding to the size or direction of the vector 731, 732, 733. For example, the control coordinates can be specified by the size of the control vectors 731, 732, 733 and the three-dimensional coordinates of the point where the control vectors 731, 732, 733 meet or are closest to the reference space 308A of the augmented reality object 312.

続けて、図7を参照すると、本発明の一実施例に係る客体制御管理部220は、前記特定される制御座標を参照して人形に対する拡張現実客体312に対して適用される制御命令を決定することができる。例えば、使用者が自分の視点から見る時、自分の指先721、722、723が拡張現実客体312の基準空間312Aに対応されて見える地点がそれぞれ拡張現実客体312の耳部分741、顔部分742および足部分743となるようにするジェスチャーを行うことによって実世界の座標系で制御ベクター731、732、733の方向がそれぞれ特定されると、前記制御ベクター731、732、733が拡張現実客体基準座標系上の制御座標にマッピングされることによって制御座標の3次元座標値がそれぞれ特定され得、前記それぞれ特定される3次元座標値に基づいて拡張現実客体312の耳部分741、顔部分742および足部分743がそれぞれ選択される動作または機能が遂行され得る。 Subsequently, with reference to FIG. 7, the object control management unit 220 according to the embodiment of the present invention determines the control command applied to the augmented reality object 312 for the doll with reference to the specified control coordinates. can do. For example, when the user sees from his / her own point of view, the points where his / her fingertips 721, 722, and 723 can be seen corresponding to the reference space 312A of the expanded reality object 312 are the ear portion 741 and the face portion 742 of the expanded reality object 312, respectively. When the directions of the control vectors 731, 732, and 733 are specified in the real-world coordinate system by performing a gesture so as to be the foot portion 743, the control vectors 731, 732, and 733 are used in the extended reality object reference coordinate system. By mapping to the above control coordinates, the three-dimensional coordinate values of the control coordinates can be specified respectively, and the ear part 741, the face part 742 and the foot part of the augmented reality object 312 can be specified based on the three-dimensional coordinate values specified respectively. Each of the 743s may perform the selected action or function.

図4~図7において、使用者が行うジェスチャーに基づいて客体が制御される実施例について主に説明されたが、本発明は必ずしも図4~図7に例示された実施例に限定されるものではなく、本発明の目的を達成できる範囲内でいくらでも変更できることを明しておく。 In FIGS. 4 to 7, the embodiment in which the object is controlled based on the gesture performed by the user has been mainly described, but the present invention is not necessarily limited to the examples exemplified in FIGS. 4 to 7. However, it should be clarified that any number of changes can be made within the range in which the object of the present invention can be achieved.

他の例として、使用者がリモコン、レーザーポインタなどのベクター制御手段を利用して行う操作に対応する制御ベクターを特定し、前記特定される制御ベクターによって指示される対象客体を決定し、前記決定される対象客体の基準座標系で制御ベクターに対応する制御座標を特定するマッピングを遂行し、前記特定される制御座標を参照して対象客体に対して適用される制御命令を決定する実施例もいくらでも想定できるであろう。 As another example, a control vector corresponding to an operation performed by a user using a vector control means such as a remote controller or a laser pointer is specified, a target object indicated by the specified control vector is determined, and the determination is made. There is also an embodiment in which mapping for specifying the control coordinates corresponding to the control vector is performed in the reference coordinate system of the target object to be performed, and the control command applied to the target object is determined with reference to the specified control coordinates. You can imagine as many as you want.

図8および図9は、本発明の一実施例により使用者がベクター制御手段を利用して行う操作により制御ベクターが特定される構成を例示的に示す図面である。 8 and 9 are drawings schematically showing a configuration in which a control vector is specified by an operation performed by a user using a vector control means according to an embodiment of the present invention.

図8および図9を参照すると、ベクター制御手段800、900で制御信号(リモコン800の赤外線信号またはレーザーポインタ900のレーザー信号)を発生させる信号発生部の位置に該当する点820、920とベクター制御手段800、900で信号発生部の反対側に位置する所定の基準点810、910を連結するベクターが制御ベクター830、930として特定され得る。 Referring to FIGS. 8 and 9, points 820 and 920 corresponding to the position of the signal generation unit that generates a control signal (infrared signal of the remote controller 800 or laser signal of the laser pointer 900) and vector control by the vector control means 800 and 900. The vector connecting the predetermined reference points 810 and 910 located on the opposite side of the signal generation unit by the means 800 and 900 can be specified as the control vectors 830 and 930.

続けて、図8および図9を参照すると、前記のように特定される制御ベクター830、930または制御ベクターの延長線840、940によって指示される客体であるエアコン307が使用者の操作により制御される対象客体であるものとして決定され得る。 Subsequently, with reference to FIGS. 8 and 9, the air conditioner 307, which is the object indicated by the control vectors 830, 930 identified as described above or the extension lines 840, 940 of the control vector, is controlled by the operation of the user. Can be determined as a target object.

一方、本発明の一実施例によると、データベース230には、本発明に係る客体の制御が遂行される空間内に存在する使用者および客体に関する多様な空間情報が保存され得、客体の制御を遂行するにおいて導き出される制御ベクター、制御座標および制御命令に関する多様な情報が保存され得る。たとえば図2でデータベース230が客体制御支援システム200に含まれて構成されるものとして図示されているが、本発明を具現する当業者の必要に応じて、データベース230は客体制御支援システム200と別個に構成されてもよい。一方、本発明でのデータベース230は、コンピュータ読み取り可能な記録媒体を含む概念であって、狭義のデータベースだけでなくファイルシステムに基づいたデータ記録などを含む広義のデータベースでもよく、単なるログの集合であってもこれを検索してデータを抽出できるものであれば本発明でのデータベース230となり得る。 On the other hand, according to one embodiment of the present invention, the database 230 can store various spatial information about the user and the object existing in the space where the control of the object according to the present invention is performed, and can control the object. A variety of information about control vectors, control coordinates and control instructions derived in performing can be stored. For example, in FIG. 2, the database 230 is illustrated as being included in the object control support system 200, but the database 230 is separate from the object control support system 200 as needed by those skilled in the art who embody the present invention. It may be configured in. On the other hand, the database 230 in the present invention is a concept including a computer-readable recording medium, and may be a database in a broad sense including not only a database in a narrow sense but also data recording based on a file system, and is merely a set of logs. Even if there is, the database 230 in the present invention can be used as long as it can be searched and data can be extracted.

次いで、本発明の一実施例に係る通信部240は客体制御支援システム200が外部装置と通信できるようにする機能を遂行する。 Next, the communication unit 240 according to the embodiment of the present invention performs a function of enabling the object control support system 200 to communicate with an external device.

最後に、本発明の一実施例に係る制御部250は、空間情報管理部210、客体制御管理部220、データベース230および通信部240間のデータの流れを制御する機能を遂行する。すなわち、制御部250は外部からのまたは客体制御支援システム200の各構成要素間のデータの流れを制御することによって、空間情報管理部210、客体制御管理部220、データベース230および通信部240でそれぞれ固有の機能を遂行するように制御する。 Finally, the control unit 250 according to the embodiment of the present invention performs a function of controlling the flow of data between the spatial information management unit 210, the object control management unit 220, the database 230, and the communication unit 240. That is, the control unit 250 controls the flow of data from the outside or between each component of the object control support system 200, so that the spatial information management unit 210, the object control management unit 220, the database 230, and the communication unit 240, respectively. Control to perform unique functions.

以上で説明された本発明に係る実施例は、多様なコンピュータの構成要素を通じて遂行され得るプログラム命令語の形態で具現されて、非一過性のコンピュータ読み取り可能な記録媒体に記録され得る。前記非一過性のコンピュータ読み取り可能な記録媒体は、プログラム命令語、データファイル、データ構造などを単独でまたは組み合わせて含むことができる。前記非一過性のコンピュータ読み取り可能な記録媒体に記録されるプログラム命令語は、本発明のために特別に設計され構成されたものであるか、コンピュータソフトウェア分野の当業者に公知とされていて使用可能なものでもよい。非一過性のコンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピーディスクおよび磁気テープのような磁気媒体、CD-ROM、DVDのような光記録媒体、フロプティカルディスク(floptical disk)のような磁気-光媒体(magneto-optical media)、およびROM、RAM、フラッシュメモリなどのようなプログラム命令語を保存し遂行するように、特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、コンパイラによって作られるような機械語のコードだけでなく、インタープリターなどを使ってコンピュータによって遂行され得る高級な言語コードも含まれる。前記ハードウェア装置は、本発明に係る処理を遂行するために一つ以上のソフトウェアモジュールとして作動するように構成され得、その逆も同じである。 The embodiments according to the present invention described above can be embodied in the form of program instructions that can be carried out through various computer components and recorded on a non-transient computer-readable recording medium. The non-transient computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the non-transient computer-readable recording medium are specially designed and configured for the present invention or are known to those skilled in the art of computer software. It may be usable. Examples of non-transient computer readable recording media include hard disks, magnetic media such as floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and floptic discs. Includes such magnetic-optical media, and hardware devices specially configured to store and execute program commands such as ROMs, RAMs, flash memories, and the like. Examples of program instructions include not only machine language code as created by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform the processing according to the invention and vice versa.

以上において本発明が、具体的な構成要素などのような特定事項と限定された実施例および図面によって説明されたが、これは本発明のより全般的な理解を助けるために提供されたものに過ぎず、本発明は前記実施例に限定されず、本発明が属する技術分野で通常の知識を有する者であればこのような記載から多様な修正および変形ができるはずである。 The invention has been described above by means of specific matters such as specific components and limited examples and drawings, which are provided to aid in a more general understanding of the invention. However, the present invention is not limited to the above-described embodiment, and a person having ordinary knowledge in the technical field to which the present invention belongs should be able to make various modifications and modifications from such a description.

したがって、本発明の思想は前述された実施例に限定されて定められてはならず、後述する特許請求の範囲だけでなくこの特許請求の範囲と均等にまたは等価的に変形された全てのものは本発明の思想の範疇に属するものと言える。 Therefore, the idea of the present invention should not be limited to the above-mentioned examples, and not only the scope of claims described later but also all that are equally or equivalently modified from the scope of claims. Can be said to belong to the category of the idea of the present invention.

100:使用者デバイス
200:客体制御支援システム
210:空間情報管理部
220:客体制御管理部
230:データベース
240:通信部
250:制御部
100: User device 200: Object control support system 210: Spatial information management unit 220: Object control management unit 230: Database 240: Communication unit 250: Control unit

Claims (7)

客体の制御を支援するための方法であって、
使用者が行うジェスチャーまたは操作に対応する制御ベクター(vector)を実世界の座標系で特定する段階、
前記制御ベクターによって指示される客体を前記使用者が行うジェスチャーまたは操作によって制御される対象客体として決定する段階、
対象客体基準座標系で前記制御ベクターの大きさまたは方向に対応する制御座標を特定するマッピング(mapping)を遂行する段階、および
前記マッピングによって特定される制御座標を参照して前記対象客体に対して適用される制御命令を決定する段階を含み、
前記対象客体基準座標系は、基準点により定義される0次元対象客体基準座標系、基準線により定義される1次元対象客体基準座標系、基準領域により定義される2次元対象客体基準座標系、及び、基準空間により定義される3次元対象客体基準座標系を含み、前記対象客体に加えられ得るジェスチャーまたは操作に関連した属性に応じて、前記基準点、前記基準線、前記基準領域及び前記基準空間のいずれか1つが選択的に設定され、設定された前記基準点、前記基準線、前記基準領域又は前記基準空間により、前記0次元対象客体基準座標系、前記1次元対象客体基準座標系、前記2次元対象客体基準座標系、及び前記3次元対象客体基準座標系のいずれか1つが前記対象客体に対して選択的に定義され、
前記制御座標は、前記制御ベクターと前記基準点、前記基準線、前記基準領域または前記基準空間の間の関係に基づいて特定される方法。
It ’s a way to help control the object,
The stage of identifying the control vector corresponding to the gesture or operation performed by the user in the real-world coordinate system,
A step of determining an object designated by the control vector as a target object controlled by a gesture or operation performed by the user.
For the target object with reference to the stage of performing mapping to specify the control coordinates corresponding to the size or direction of the control vector in the target object reference coordinate system, and the control coordinates specified by the mapping. Including the step of determining the control command to be applied
The target object reference coordinate system is a 0-dimensional object reference coordinate system defined by a reference point, a one-dimensional object reference coordinate system defined by a reference line, and a two-dimensional object reference coordinate system defined by a reference region. And the reference point, the reference line, the reference area, and the reference, depending on the attributes associated with the gesture or operation that can be applied to the object, including the three-dimensional object reference coordinate system defined by the reference space. The 0-dimensional object reference coordinate system, the 1-dimensional object reference coordinate system, by the reference point, the reference line, the reference region, or the reference space in which any one of the spaces is selectively set and set. Any one of the two-dimensional target object reference coordinate system and the three-dimensional target object reference coordinate system is selectively defined for the target object .
The method in which the control coordinates are specified based on the relationship between the control vector and the reference point, the reference line, the reference region or the reference space.
前記制御ベクターは、前記使用者の目の位置を始点とし、前記使用者の他の身体部位の位置を終点とするベクターである、請求項1に記載の方法。 The method according to claim 1, wherein the control vector is a vector starting from the position of the eyes of the user and ending at the position of another body part of the user. 前記制御ベクターは、前記操作の対象となるベクター制御手段の姿勢または前記ベクター制御手段によって発生する制御信号の方向に基づいて特定されるベクターである、請求項1に記載の方法。 The method according to claim 1, wherein the control vector is a vector specified based on the posture of the vector control means to be operated or the direction of the control signal generated by the vector control means. 前記客体は、前記使用者の周辺に存在する実物客体であるか仮想客体である、請求項1に記載の方法。 The method according to claim 1, wherein the object is a real object or a virtual object existing around the user. 前記対象客体決定段階において、
前記使用者および前記客体に関する空間情報を参照して、前記実世界の座標系で前記制御ベクターまたは前記制御ベクターの延長線と交差するか最も近接する客体を前記対象客体として決定する、請求項1に記載の方法。
In the target object determination stage,
1. The object that intersects with or is closest to the control vector or an extension of the control vector in the real-world coordinate system is determined as the target object with reference to spatial information about the user and the object. The method described in.
請求項1に記載された方法を遂行するためのコンピュータプログラムを記録した,非一過性のコンピュータ読み取り可能な記録媒体。 A non-transient computer-readable recording medium recording a computer program for carrying out the method according to claim 1. 客体の制御を支援するためのシステムであって、
使用者が行うジェスチャーまたは操作に対応する制御ベクター(vector)を実世界の座標系で特定し、前記制御ベクターによって指示される客体を前記使用者が行うジェスチャーまたは操作によって制御される対象客体として決定し、対象客体基準座標系で前記制御ベクターの大きさまたは方向に対応する制御座標を特定するマッピング(mapping)を遂行し、前記マッピングによって特定される制御座標を参照して前記対象客体に対して適用される制御命令を決定する客体制御管理部と、
前記使用者および前記客体に関する空間情報を保存する空間情報管理部とを含み、
前記対象客体基準座標系は、基準点により定義される0次元対象客体基準座標系、基準線により定義される1次元対象客体基準座標系、基準領域により定義される2次元対象客体基準座標系、及び、基準空間により定義される3次元対象客体基準座標系を含み、前記対象客体に加えられ得るジェスチャーまたは操作に関連した属性に応じて、前記基準点、前記基準線、前記基準領域及び前記基準空間のいずれか1つが選択的に設定され、設定された前記基準点、前記基準線、前記基準領域又は前記基準空間により、前記0次元対象客体基準座標系、前記1次元対象客体基準座標系、前記2次元対象客体基準座標系、及び前記3次元対象客体基準座標系のいずれか1つが前記対象客体に対して選択的に定義され、
前記制御座標は、前記制御ベクターと前記基準点、前記基準線、前記基準領域または前記基準空間の間の関係に基づいて特定されるシステム。
It is a system to support the control of the object.
A control vector corresponding to a gesture or operation performed by the user is specified in a real-world coordinate system, and an object indicated by the control vector is determined as a target object controlled by the gesture or operation performed by the user. Then, in the target object reference coordinate system, mapping is performed to specify the control coordinates corresponding to the size or direction of the control vector, and the control coordinates specified by the mapping are referred to with respect to the target object. The object control management unit that determines the control command to be applied,
Including a spatial information management unit that stores spatial information about the user and the object.
The target object reference coordinate system is a 0-dimensional object reference coordinate system defined by a reference point, a one-dimensional object reference coordinate system defined by a reference line, and a two-dimensional object reference coordinate system defined by a reference region. And the reference point, the reference line, the reference area, and the reference, depending on the attributes associated with the gesture or operation that can be applied to the object, including the three-dimensional object reference coordinate system defined by the reference space. The 0-dimensional object reference coordinate system, the 1-dimensional object reference coordinate system, by the reference point, the reference line, the reference region, or the reference space in which any one of the spaces is selectively set and set. Any one of the two-dimensional target object reference coordinate system and the three-dimensional target object reference coordinate system is selectively defined for the target object .
The control coordinates are specified based on the relationship between the control vector and the reference point, the reference line, the reference region or the reference space.
JP2019521658A 2016-10-24 2017-10-24 Methods, systems and non-transient computer-readable recording media to assist in controlling objects Active JP7094280B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2016-0138662 2016-10-24
KR1020160138662A KR101937823B1 (en) 2016-10-24 2016-10-24 Method, system and non-transitory computer-readable recording medium for assisting object control
PCT/KR2017/011788 WO2018080142A1 (en) 2016-10-24 2017-10-24 Method and system for supporting object control, and non-transitory computer-readable recording medium

Publications (2)

Publication Number Publication Date
JP2019536140A JP2019536140A (en) 2019-12-12
JP7094280B2 true JP7094280B2 (en) 2022-07-01

Family

ID=62023803

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019521658A Active JP7094280B2 (en) 2016-10-24 2017-10-24 Methods, systems and non-transient computer-readable recording media to assist in controlling objects

Country Status (6)

Country Link
US (1) US10948995B2 (en)
EP (1) EP3531242B1 (en)
JP (1) JP7094280B2 (en)
KR (1) KR101937823B1 (en)
CN (1) CN109891370B (en)
WO (1) WO2018080142A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102155378B1 (en) 2018-09-19 2020-09-14 주식회사 브이터치 Method, system and non-transitory computer-readable recording medium for supporting object control
JP7091983B2 (en) * 2018-10-01 2022-06-28 トヨタ自動車株式会社 Equipment control device
KR102477006B1 (en) * 2020-08-14 2022-12-14 주식회사 브이터치 Method, system and non-transitory computer-readable recording medium for supporting object control
US11474690B2 (en) * 2020-08-14 2022-10-18 VTouch Co., Ltd. Method, system and non-transitory computer-readable recording medium for non-contact control
CN114546210B (en) * 2022-01-28 2024-07-23 联想(北京)有限公司 Mapping method and augmented reality device
US20230409122A1 (en) * 2022-06-21 2023-12-21 Apple Inc. Hand-Gesture Activation of Actionable Items

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140184499A1 (en) 2011-07-11 2014-07-03 VTouch Co., Ltd. Remote manipulation device and method using a virtual touch of a three-dimensionally modeled electronic device

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005069734A (en) * 2003-08-20 2005-03-17 Tokyo Univ Of Marine Science & Technology Teaching method of spatial position of object by pointing action
KR20060070280A (en) * 2004-12-20 2006-06-23 한국전자통신연구원 User interface device using hand gesture recognition and its method
JP2006268209A (en) * 2005-03-23 2006-10-05 Akinori Yoshino Remote instruction input device by physical motion of user
JP4516042B2 (en) * 2006-03-27 2010-08-04 株式会社東芝 Apparatus operating device and apparatus operating method
JP5207513B2 (en) * 2007-08-02 2013-06-12 公立大学法人首都大学東京 Control device operation gesture recognition device, control device operation gesture recognition system, and control device operation gesture recognition program
WO2010096279A2 (en) * 2009-02-17 2010-08-26 Omek Interactive , Ltd. Method and system for gesture recognition
US8253746B2 (en) * 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
KR101585466B1 (en) * 2009-06-01 2016-01-15 엘지전자 주식회사 Method for Controlling Operation of Electronic Appliance Using Motion Detection and Electronic Appliance Employing the Same
KR101334107B1 (en) * 2010-04-22 2013-12-16 주식회사 굿소프트웨어랩 Apparatus and Method of User Interface for Manipulating Multimedia Contents in Vehicle
JP5256265B2 (en) * 2010-09-17 2013-08-07 株式会社ソニー・コンピュータエンタテインメント Computer system, computer system control method, program, and information storage medium
KR101795574B1 (en) * 2011-01-06 2017-11-13 삼성전자주식회사 Electronic device controled by a motion, and control method thereof
KR101151962B1 (en) * 2011-02-16 2012-06-01 김석중 Virtual touch apparatus and method without pointer on the screen
KR101381928B1 (en) * 2011-02-18 2014-04-07 주식회사 브이터치 virtual touch apparatus and method without pointer on the screen
JP6074170B2 (en) * 2011-06-23 2017-02-01 インテル・コーポレーション Short range motion tracking system and method
JP2013205983A (en) * 2012-03-27 2013-10-07 Sony Corp Information input apparatus, information input method, and computer program
US9477303B2 (en) * 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
KR101533320B1 (en) * 2012-04-23 2015-07-03 주식회사 브이터치 Apparatus for acquiring 3 dimension object information without pointer
KR101343748B1 (en) * 2012-04-23 2014-01-08 주식회사 브이터치 Transparent display virtual touch apparatus without pointer
KR101334585B1 (en) * 2012-05-29 2013-12-05 주식회사 브이터치 Remote control apparatus and method for virtual touch using displaying information of projector
KR101441882B1 (en) * 2012-11-12 2014-09-22 주식회사 브이터치 method for controlling electronic devices by using virtural surface adjacent to display in virtual touch apparatus without pointer
US20190265802A1 (en) * 2013-06-20 2019-08-29 Uday Parshionikar Gesture based user interfaces, apparatuses and control systems
KR20220136517A (en) * 2013-06-27 2022-10-07 아이사이트 모빌 테크놀로지 엘티디 Systems and methods of direct pointing detection for interaction with a digital device
JP6079614B2 (en) * 2013-12-19 2017-02-15 ソニー株式会社 Image display device and image display method
KR101533319B1 (en) * 2014-02-22 2015-07-03 주식회사 브이터치 Remote control apparatus and method using camera centric virtual touch
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US10852838B2 (en) * 2014-06-14 2020-12-01 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
KR20160024272A (en) * 2014-08-25 2016-03-04 엘지전자 주식회사 Mobile terminal and control method thereof
US10088971B2 (en) * 2014-12-10 2018-10-02 Microsoft Technology Licensing, Llc Natural user interface camera calibration
KR101630153B1 (en) * 2014-12-10 2016-06-24 현대자동차주식회사 Gesture recognition apparatus, vehicle having of the same and method for controlling of vehicle
US10013808B2 (en) * 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
PL411339A1 (en) * 2015-02-23 2016-08-29 Samsung Electronics Polska Spółka Z Ograniczoną Odpowiedzialnością Method for controlling a device by means of gestures and the system for controlling a device by means of gestures
CN107787497B (en) * 2015-06-10 2021-06-22 维塔驰有限公司 Method and apparatus for detecting gestures in a user-based spatial coordinate system
WO2017188801A1 (en) * 2016-04-29 2017-11-02 주식회사 브이터치 Optimum control method based on multi-mode command of operation-voice, and electronic device to which same is applied
US10299032B2 (en) * 2017-09-11 2019-05-21 Apple Inc. Front port resonator for a speaker assembly
KR102463712B1 (en) * 2017-11-24 2022-11-08 현대자동차주식회사 Virtual touch recognition apparatus and method for correcting recognition error thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140184499A1 (en) 2011-07-11 2014-07-03 VTouch Co., Ltd. Remote manipulation device and method using a virtual touch of a three-dimensionally modeled electronic device

Also Published As

Publication number Publication date
KR101937823B1 (en) 2019-01-14
CN109891370A (en) 2019-06-14
US20190250716A1 (en) 2019-08-15
KR20180044757A (en) 2018-05-03
EP3531242B1 (en) 2025-07-02
CN109891370B (en) 2023-07-07
WO2018080142A1 (en) 2018-05-03
US10948995B2 (en) 2021-03-16
EP3531242A1 (en) 2019-08-28
EP3531242A4 (en) 2020-06-17
JP2019536140A (en) 2019-12-12

Similar Documents

Publication Publication Date Title
JP7094280B2 (en) Methods, systems and non-transient computer-readable recording media to assist in controlling objects
US11157168B2 (en) Method and apparatus for controlling a plurality of internet of things devices
KR102471977B1 (en) Method for displaying one or more virtual objects in a plurality of electronic devices, and an electronic device supporting the method
US10397643B2 (en) Electronic device for identifying peripheral apparatus and method thereof
WO2018000200A1 (en) Terminal for controlling electronic device and processing method therefor
JP7062833B2 (en) Methods, systems and non-transient computer readable recording media to assist in controlling objects
AU2015202698B2 (en) Method and apparatus for processing input using display
US20140009407A1 (en) Display device including touchscreen and method for controlling the same
KR20150092962A (en) Method for processing data and an electronic device thereof
US20250245940A1 (en) Handcrafted augmented reality effort evidence
US20250220146A1 (en) Augmented reality prop interactions
US20250173983A1 (en) Handcrafted augmented reality experiences
KR101980725B1 (en) Method, system and non-transitory computer-readable recording medium for supporting an object control
KR101968547B1 (en) Method, system and non-transitory computer-readable recording medium for assisting object control
US20240402895A1 (en) Managing user interfaces for controlling external devices
US20240402796A1 (en) Virtual interfaces for controlling iot devices
KR20250057866A (en) Authoring tools for creating interactive AR experiences
KR20250056266A (en) Recording of follow-up actions between virtual objects and user avatars in AR experiences
WO2025112895A1 (en) Device control method and electronic device
WO2025201141A1 (en) Method for performing device control on basis of speech interaction, and device
KR20250057867A (en) Interaction recording tools for creating interactive AR stories
WO2025188634A1 (en) Techniques for capturing media

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190614

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190614

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201207

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210604

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210604

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210614

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210615

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20210625

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20210629

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20211012

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220104

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20220125

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220420

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20220510

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20220607

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220621

R150 Certificate of patent or registration of utility model

Ref document number: 7094280

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载