+

KR102358997B1 - The service platform for multi-user supporting extended reality experience - Google Patents

The service platform for multi-user supporting extended reality experience Download PDF

Info

Publication number
KR102358997B1
KR102358997B1 KR1020200099984A KR20200099984A KR102358997B1 KR 102358997 B1 KR102358997 B1 KR 102358997B1 KR 1020200099984 A KR1020200099984 A KR 1020200099984A KR 20200099984 A KR20200099984 A KR 20200099984A KR 102358997 B1 KR102358997 B1 KR 102358997B1
Authority
KR
South Korea
Prior art keywords
experience
content
information
real
world
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020200099984A
Other languages
Korean (ko)
Inventor
김기태
Original Assignee
주식회사 토즈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 토즈 filed Critical 주식회사 토즈
Priority to KR1020200099984A priority Critical patent/KR102358997B1/en
Application granted granted Critical
Publication of KR102358997B1 publication Critical patent/KR102358997B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Primary Health Care (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Operations Research (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 다수의 사용자가 현실 세계를 배경으로 등장하는 가상 객체들 및 사용자 간에 상호 작용할 수 있는 다자간 확장 현실 체험을 제공하기 위한 서비스 플랫폼에 있어서,
현실 세계의 실제 배경 또는 시나리오에 따라 꾸며진 실내 배경과 사물을을 인식하기 위한 3D 인식 스테레오 카메라와 360도 3D XR 콘텐츠를 디스플레이하기 위한 HMD 장치를 결합하여 현실 세계와 VR 세계를 혼합한 확장 현실 속 세계를 구현하며, 햅틱 기반 사용자 컨트롤러와 3D 콘텐츠 합성 및 동기화 처리를 위한 고성능 백팩 PC를 체험자 장비로서 포함하는 것을 특징으로 하고, 서비스 운용 서버, 현장 배경 화면 XR 스토리 객체에 대한 시청각적 정보를 제공하는 콘텐츠 구성 서버, 현재 플레이하는 체험자들 간의 상호 작용 이벤트에 대한 정보를 동기화 하기 위한 콘텐츠 연동 서버로 콘텐츠 서버로서 구성함을 특징으로 하여, 다자간 동시 체험, 관람자 체험, 실시간 온라인 중계 및 소셜 상호 작용이 가능한 확장현실(XR) 체험 서비스를 구현한다.
The present invention provides a service platform for providing a multi-party extended reality experience in which a plurality of users can interact with virtual objects and users appearing in the real world as a background,
An extended reality world that blends the real world and the VR world by combining a 3D recognition stereo camera for recognizing an indoor background and objects decorated according to a real background or scenario in the real world, and an HMD device for displaying 360-degree 3D XR content Content that implements a haptic-based user controller and a high-performance backpack PC for 3D content synthesis and synchronization processing as experience equipment, and provides audiovisual information about the service operation server and the on-site background screen XR story object Configuration server, a content link server for synchronizing information on interaction events between players who are currently playing, as a content server, multi-party simultaneous experience, spectator experience, real-time online relay, and social interaction Realize the reality (XR) experience service.

Description

다자간 확장현실 체험을 위한 서비스 플랫폼{THE SERVICE PLATFORM FOR MULTI-USER SUPPORTING EXTENDED REALITY EXPERIENCE}A service platform for multilateral extended reality experience {THE SERVICE PLATFORM FOR MULTI-USER SUPPORTING EXTENDED REALITY EXPERIENCE}

본 발명은 가상 현실(VR, Virtual Reality) 세계에 실제 현실 세계 공간을 혼합하여 높은 현실감을 부여함으로써 시공간을 넘어 현실의 감각을 확장 증폭하고 자하는 확장 현실(XR, eXtended Reality) 기술에 관한 것으로, 다수의 사용자가 현실 세계를 배경으로 등장하는 가상 객체들과 상호 작용할 수 있는 다자간 확장 현실 체험을 위한 서비스 플랫폼에 관한 것이다.The present invention relates to an extended reality (XR, eXtended Reality) technology that intends to expand and amplify the sense of reality beyond time and space by mixing the real world space with the virtual reality (VR) world and giving a high sense of reality, It relates to a service platform for a multi-party extended reality experience in which multiple users can interact with virtual objects appearing in the real world as a background.

가상현실(VR, Virtual Reality)은 특수한 기기와 기술을 이용하여 사용자에게 현실 세계를 차단하고 시각, 청각, 후각, 미각, 촉각 등 인간의 오감을 제어해 현실과 분리된 사이버공간 속의 허상을 보여주는 것이며, 증강현실(AR, Augmented Reality)은 스마트기기에 내장된 센서 또는 카메라를 통해 입력되는 영상을 바탕으로 위치와 자세를 추정하여 현실 세계에 추가적인 가상의 3D 이미지나 미디어 정보를 입혀서 보여주는 기술이다. Virtual reality (VR) uses special devices and technologies to block the real world to users and control the five senses of sight, hearing, smell, taste, and touch to show virtual images in cyberspace separated from reality. , Augmented Reality (AR) is a technology that displays additional virtual 3D images or media information over the real world by estimating positions and postures based on images input through sensors or cameras built into smart devices.

VR은 기술적으로 가상의 공간에 360도 카메라로 찍은 동영상이나 사진을 배경으로 입히고, 눈 전체를 가리는 헤드셋형(HMD, Head Mounted Display) 단말기를 머리에 착용하여 사용자가 눈앞에 놓인 가상 공간에 있는 듯한 체험을 제공한다. 반면 AR은 VR처럼 가상의 공간을 체험하는 것이 아니라 휴대전화 또는 스마트 글라스와 같은 투명 디스플레이를 통해 보이는 실제 현실 세계 위에 가상의 콘텐츠나 객체가 오버레이되는 방식으로, 포켓몬GO와 같은 온라인 게임이나 차량 내 투명 디스플레이에 내비게이션 정보를 직접 표시하는 서비스 등이 증강현실의 대표적인 예다.VR technically puts a video or photo taken with a 360-degree camera in a virtual space as a background, and wears a headset-type (HMD, Head Mounted Display) terminal covering the entire eye to make it feel as if the user is in a virtual space in front of them. provide an experience On the other hand, AR does not experience a virtual space like VR, but virtual content or objects are overlaid on top of the real world seen through a transparent display such as a mobile phone or smart glass. A service that directly displays navigation information on a display is a representative example of augmented reality.

확장현실(XR, eXtended Reality)은 가상현실(Virtual Reality·VR)과 증강현실(Augmented Reality·AR) 기술을 모두 아우르는 초실감형 서비스 기술로, 시공간을 넘어 현실 세계를 확장·증폭하려는 시도로 볼 수 있다. XR 기술은 따로 정형화된 구현 방법이 있는 것은 아니고 기존의 VR 기술에 카메라를 장착하여 현실 배경을 투영하여, AR 기술에 카메라를 통해 입력되는 영상을 바탕으로 위치와 자세를 추정하여 현실 세계에 추가적인 가상의 3D 객체를 오버레이시켜 현실과 가상을 혼합한다는 측면에서 혼합현실(MR, Mixed Reality)이라고 부르기도 하며, 가상현실(VR)과 증강현실(AR)등 관련 기술을 모두 아우르는 기술이라는 의미로 XR 이라고 통칭하기도 한다. XR 기술은 게임뿐만 아니라 다양한 분야와의 융·복합을 통해 현실 제약을 벗어난 새로운 형태의 체험 서비스를 다채롭게 제공할 수 있다. XR (eXtended Reality) is an ultra-realistic service technology that encompasses both Virtual Reality (VR) and Augmented Reality (AR) technologies. can XR technology does not have a standardized implementation method. It projects a real background by attaching a camera to the existing VR technology. It is also called Mixed Reality (MR) in terms of mixing reality and virtuality by overlaying 3D objects of Also called XR technology can provide a variety of new types of experience services that break free from the limitations of reality through convergence and fusion with various fields as well as games.

선행 특허 문헌 1의 대한민국 공개특허 공개번호 제10-2020-0009648호 (광학카메라 통신을 이용한 HMD 통신 시스템 및 방법) 및 선행 특허 문헌 2의 대한민국 공개특허 공개번호 제10-2020-0033064호 (MR 그래픽 지원 컨텐츠 제공용 플랫폼 서비스 시스템 및 그 구동 방법)을 통해 MR 기술을 위한 디스플레이 및 그래픽 콘텐츠 처리 기술을 참고할 수 있으며, 국내에서는 아직 XR 서비스 구현 사례를 찾아보기 힘든 실정이다.Korean Patent Publication No. 10-2020-0009648 of Prior Patent Document 1 (HMD communication system and method using optical camera communication) and Korean Patent Publication No. 10-2020-0033064 of Prior Patent Document 2 (MR graphic) Display and graphic content processing technology for MR technology can be referenced through the platform service system for providing support content and its driving method), and it is difficult to find an XR service implementation case in Korea.

통상적으로 VR은 도 1에 도시한 바와 같이 눈 전체를 가리는 헤드셋형(HMD) 단말기를 사용하고, AR은 스마트폰, 태블릿 또는 스마트 글라스와 같은 단말기를 사용한다. 반면 XR은 VR 또는 AR 기술의 개별 활용 또는 혼합 활용을 추구하여 자유롭게 확장된 현실을 표현하게 되며, 이에 따라 XR을 실현하기 위해서는 현실 세계의 배경 콘텐츠를 반영할 수 있는 효과적인 디스플레이와 고품질/대용량의 3D 객체를 실시간으로 표시하기 위한 고성능 컴퓨팅 파워 및 그래픽 처리 성능을 요구하게 되고, 무선 환경에서 모션 블러(Motion Blur, 화면 이동시 생성되는 잔상) 및 지연 없는 실시간 인터랙션을 지원하기 위해 5세대(5G) 이동통신과 같이 초저지연·대용량 데이터 전송 기술도 전제 조건이 된다. Typically, VR uses a headset-type (HMD) terminal that covers the entire eye as shown in FIG. 1, and AR uses a terminal such as a smartphone, tablet, or smart glasses. On the other hand, XR expresses freely expanded reality by pursuing individual or mixed use of VR or AR technology. High-performance computing power and graphic processing power are required to display objects in real time, and 5G (5G) mobile communication is required to support motion blur (afterimage generated when the screen is moved) and real-time interaction without delay in a wireless environment. As such, ultra-low latency and large-capacity data transmission technology is also a prerequisite.

마이크로소프트(MS)가 개발한 홀로렌즈는 안경 형태의 기기이지만 현실 공간과 사물 정보를 파악해 최적화된 3D 홀로그램을 표시한다는 점에서 XR의 한 형태로 볼 수 있으나 대중적인 서비스에 적용하기에는 아직 너무 고가의 장비이고, XR 기술이 진화하면 평소에는 투명한 안경이지만 AR 서비스가 필요할 때는 안경 위에 정보를 표시하고, VR 서비스가 필요할 때는 안경이 불투명해지면서 완전히 시야 전체를 통해 정보를 표시하는 디스플레이 형식도 제시되고 있으나 아직은 개념 정립 단계로 당장 활용하기에는 한계가 있다. The HoloLens developed by Microsoft (MS) is a glasses-type device, but it can be viewed as a form of XR in that it displays an optimized 3D hologram by identifying real space and object information, but it is still too expensive to apply to popular services. When XR technology evolves, it is usually transparent glasses, but when AR service is required, information is displayed on the glasses, and when VR service is needed, the glasses become opaque and display format that displays information through the entire field of view is also proposed. It is still in the concept establishment stage, and there are limits to its immediate use.

이에 본 발명의 발명자들은 다수의 사용자가 현실 세계를 배경으로 등장하는 가상 객체들 및 사용자 간에 상호 작용할 수 있는 다자간 확장현실 체험을 위한 서비스 플랫폼을 착안하게 되었다.Accordingly, the inventors of the present invention came up with a service platform for a multi-party extended reality experience in which multiple users can interact with virtual objects and users appearing in the real world as a background.

1. 대한민국 공개특허 공개번호 제10-2020-0009648호 (광학카메라 통신을 이용한 HMD 통신 시스템 및 방법)1. Republic of Korea Patent Publication No. 10-2020-0009648 (HMD communication system and method using optical camera communication) 2. 대한민국 공개특허 공개번호 제10-2020-0033064호 (MR 그래픽 지원 컨텐츠 제공용 플랫폼 서비스 시스템 및 그 구동 방법)2. Republic of Korea Patent Publication No. 10-2020-0033064 (Platform service system for providing MR graphic support content and its driving method)

본 발명에서는 상기와 같은 종래 기술의 문제점을 해결하기 위하여 다수의 사용자가 현실 세계를 배경으로 등장하는 가상 객체들 및 사용자 간에 상호 작용할 수 있는 다자간 확장 현실 체험을 위한 현실성 있는 체험 장비 및 서비스 플랫폼 구성 방식과 콘텐츠 서버 및 체험자 간의 데이터 처리 과정을 통한 XR 서비스 플랫폼을 제공하는 것을 목적으로 한다. In the present invention, in order to solve the problems of the prior art as described above, a realistic experience equipment and service platform configuration method for a multi-party extended reality experience in which a plurality of users can interact between users and virtual objects appearing in the real world as a background It aims to provide an XR service platform through the data processing process between the content server and the user.

본 발명은 다수의 사용자가 현실 세계를 배경으로 등장하는 가상 객체들 및 사용자 간에 상호 작용할 수 있는 다자간 확장 현실(XR, eXtended Reality) 체험을 제공하기 위한 서비스 플랫폼을 구성함에 있어서,In configuring a service platform for providing a multi-party extended reality (XR, eXtended Reality) experience in which a plurality of users can interact between users and virtual objects appearing in the real world as a background,

두 명 이상 다수의 사용자가 함께 확장 현실 체험을 할 수 있도록 지원하기 위한 체험자 장비, 현실 세계의 배경과 가상 객체 정보를 구성하기 위한 콘텐츠 서버, 스토리를 구성하고, 체험자의 위치 정보를 실시간으로 인식하기 위한 체험 공간 장비, 현장 체험자의 플레이를 수동적으로 관람할 수 있도록 하는 관람자 장비를 포함하는 것을 특징으로 한다.Experiencer equipment to support two or more users to experience the extended reality together, a content server to configure the background of the real world and virtual object information, configure a story, and recognize the location information of the experiencer in real time It is characterized in that it includes equipment for the experience space for the purpose, and equipment for spectators to passively watch the play of the field experiencer.

상기 체험자 장비는 현실 세계의 실제 배경 또는 시나리오에 따라 꾸며진 실내 배경 및 사물을 인식하기 위한 3D 인식 스테레오 카메라와 360도 3D XR 콘텐츠를 디스플레이하기 위한 HMD 디스플레이(HMD - Head Mounted Display) 장치를 결합하여 현실 세계와 VR 세계를 혼합한 확장 현실 속 세계를 구현하며,The experience equipment combines a 3D recognition stereo camera for recognizing an indoor background and objects decorated according to an actual background or scenario of the real world and an HMD display (HMD - Head Mounted Display) device for displaying 360-degree 3D XR content. Realizing a world in an extended reality that mixes the world and the VR world,

또한 체험자에게 극사실적인 오감각을 제공하기 위한 햅틱 기반 사용자 컨트롤러와 실시간 대용량 3D 콘텐츠 합성 및 동기화 처리를 위한 백팩 PC를 포함하는 것을 특징으로 한다.In addition, it is characterized by including a haptic-based user controller to provide hyper-realistic five senses to the user and a backpack PC for real-time large-capacity 3D content synthesis and synchronization processing.

상기 콘텐츠 서버는 XR 체험 서비스 전반에 대한 운용 및 제어 기능을 제공하는 서비스 운용 서버, 체험 공간의 바닥 및 벽면에 시청각적 화면 정보를 제공하는 콘텐츠 구성 서버, 현재 플레이하는 체험자들의 위치 정보와 현실 및 가상 객체들 간의 상호 작용 이벤트에 대한 콘텐츠 구성 정보를 제공하는 콘텐츠 연동 서버로 구성됨을 특징으로 하고,The content server includes a service operation server that provides operation and control functions for the overall XR experience service, a content configuration server that provides audiovisual screen information on the floor and walls of the experience space, location information of current players and real and virtual It is characterized in that it is composed of a content interworking server that provides content configuration information for an interaction event between objects,

상기 체험 공간 장비는 현재 플레이 중인 체험자들의 위치 정보를 실시간으로 인식 및 추적하기 위하여 현실 공간에 사각형으로 배치된 4개의 베이스 스테이션 센서를 두고, 체험 공간의 벽면과 바닥 적어도 한 면에 2대의 프로젝터가 디스플레이될 수 있도록 일정한 각도를 두고 설치하여 스토리 안의 배경을 디스플레이함으로써 체험배경을 현실감 있게 구성하는 다수의 프로젝터로 구성됨을 특징으로 한다.The experience space equipment has four base station sensors arranged in a rectangle in the real space in order to recognize and track the location information of players who are currently playing in real time, and two projectors are displayed on at least one side of the wall and floor of the experience space. It is characterized in that it consists of a number of projectors that realistically compose the experience background by installing it at a certain angle so as to display the background in the story.

본원 발명에서는 3D 인식 스테레오 카메라가 부착된 HMD 장치를 착용한 체험자들이 확장 현실 세계에서 플레이하는 모습을 비체험자들이 실시간으로 관람할 수 있도록 하고, XR 플레이를 실시간으로 온라인으로 중계하거나 외부 디스플레이를 통해 공유하여 다수의 시청자들과 소셜 상호 작용이 가능하다.In the present invention, non-experienced users can watch in real time how experienced people wearing HMD devices with 3D-recognized stereo cameras are playing in the extended reality world, and XR play is relayed online in real time or shared through an external display. Social interaction with multiple viewers is possible.

본 발명을 통해 HMD에 부착된 3D 인식 스테레오 카메라를 통해 가상 세계의 공간이 아닌 실제 현실 공간을 투영(PATH-THROUGH)하고, 고해상도 스테레오 비디오 캡쳐 처리 방식으로 가상 개체를 현실 공간에 사실적으로 표현함으로써 사실감과 몰입감을 극대화할 수 있다. Through the present invention, the real space is projected (PATH-THROUGH), not the space of the virtual world, through the 3D-recognized stereo camera attached to the HMD, and the virtual object is realistically expressed in the real space with the high-resolution stereo video capture processing method. and maximizing immersion.

본 발명은 점프하고, 웅크리고, 가상 오브젝트를 피하는 등 사용자의 모든 행동을 센서와 사용자 컨트롤러만으로 인식하고 공간 구조에 맞도록 가상 객체를 3차원으로 정합하여 화면에 반영(INSIDE-OUT TRACKING)할 수 있다. The present invention recognizes all user actions such as jumping, crouching, and avoiding virtual objects only with sensors and user controllers, and matches virtual objects in three dimensions to fit the spatial structure and reflects them on the screen (INSIDE-OUT TRACKING). there is.

또한, 본 발명은 현실 세계의 실제 빛과 사물이 가상의 3D 객체에 영향을 줌으로써 체험자는 가상 객체와 더욱 사실적으로 상호 작용할 수 있다. (DMYNAMIC SPACE MAPPING) In addition, according to the present invention, since real lights and objects in the real world affect the virtual 3D object, the user can more realistically interact with the virtual object. (DMYNAMIC SPACE MAPPING)

한편, 본 발명은 현재 플레이 되고 있는 체험 서비스를 다른 체험자와 상호 작용하면서 동시에 진행할 수 있도록 하고, 현장 관람자들이 동시에 실시간으로 공유할 수 있도록 하며, 온라인 소셜 상호 작용을 제공(MULTI-USER XR EXPERIENCE)할 수 있게 된다. On the other hand, the present invention allows the currently playing experience service to be performed while interacting with other experiencers, to allow on-site spectators to share in real time at the same time, and to provide online social interaction (MULTI-USER XR EXPERIENCE). be able to

본 발명에서 제공하는 다자간 XR 체험을 위한 서비스 플랫폼은 게임뿐만 아니라 다양한 분야와의 융·복합 응용 콘텐츠 제작에 있어서 현실 제약을 벗어난 새로운 형태의 체험 서비스를 다채롭게 제공할 수 있어 영상 미디어 산업에 혁신적인 트렌드를 형성할 수 있다. The service platform for multilateral XR experience provided by the present invention can provide a variety of new types of experience services that go beyond the limitations of reality in the production of convergence and complex application contents with various fields as well as games, thereby creating an innovative trend in the video media industry. can be formed

도 1은 본 발명에 따른 확장현실 서비스를 위한 체험자 장비 구성도
도 2는 본 발명의 일실시예에 따른 확장현실 서비스를 위한 체험공간 구성도
도 3은 본 발명에 따른 일실시예의 체험자 위치 인식을 위한 센서 배치도
도 4는 본 발명에 따른 일실시예의 프로젝터를 이용한 실내 배경화면 구성도
도 5는 본 발명에 따른 확장현실 서비스를 위한 장치 플랫폼 구성도
도 6은 본 발명에 따른 확장현실 서비스를 위한 데이터 처리 프로세스도
1 is a configuration diagram of a user equipment for an extended reality service according to the present invention;
2 is a configuration diagram of an experience space for an extended reality service according to an embodiment of the present invention;
3 is a sensor arrangement diagram for recognizing the location of an experienced person according to an embodiment of the present invention;
4 is a configuration diagram of an indoor background screen using a projector according to an embodiment of the present invention;
5 is a configuration diagram of a device platform for an extended reality service according to the present invention;
6 is a data processing process diagram for an extended reality service according to the present invention

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고, 상세한 설명을 통해 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조 부호를 유사한 구성 요소에 대해 사용하였다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and will be described with reference to the detailed description. However, this is not intended to limit the present invention to specific embodiments, and it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. In describing each figure, like reference numerals have been used for like components. In describing the present invention, if it is determined that a detailed description of a related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted.

본 발명에서는 실제 현실 세계 공간과 사물을 인식하기 위한 3D 인식 스테레오 카메라와 360도 3D XR 콘텐츠를 디스플레이하기 위한 HMD 디스플레이(Head Mounted Display) 장치를 도 1에 도시한 바와 같이 결합하여 현실 세계와 VR 세계를 혼합한 확장 현실 속 세계를 구현하되, 또한 도 2에 도시한 바와 같이 체험자에게 극사실적인 오감각을 제공하기 위한 햅틱 기반 사용자 컨트롤러와 실시간 대용량 3D 콘텐츠 합성 및 동기화 처리를 효율적으로 수행하기 위해 상기 3D 인식 스테레오 카메라 및 HMD 디스플레이 장치와 유선으로 직접 연결되는 백팩 PC를 체험자 장비로서 포함하는 것을 특징으로 한다.In the present invention, a 3D recognition stereo camera for recognizing real real world space and objects and an HMD display (Head Mounted Display) device for displaying 360-degree 3D XR content are combined as shown in FIG. 1 to combine the real world and the VR world In order to implement the world in the extended reality mixed with It is characterized in that it includes a backpack PC directly connected to a 3D recognition stereo camera and an HMD display device by wire as the experience equipment.

본 발명은 다수의 사용자가 현실 세계에 등장하는 가상 객체들 및 사용자 간에 상호 작용할 수 있는 다자간 확장 현실(XR) 체험을 제공하기 위한 서비스 플랫폼을 구성함에 있어서, The present invention provides a service platform for providing a multi-party extended reality (XR) experience in which a plurality of users can interact between virtual objects and users appearing in the real world,

도 5에 도시한 바와 같이 두 명 이상 다수의 사용자가 동시에 확장 현실 체험을 할 수 있도록 지원하기 위한 체험자 장비(100); 현실 및 가상 세계의 배경과 객체 정보를 구성하기 위한 콘텐츠 서버(400); 스토리를 구성하고, 체험자의 위치 정보를 실시간으로 인식하기 위한 체험 공간 장비(300); 현장 체험자의 플레이를 수동적으로 관람할 수 있도록 하는 관람자 장비(200);로 구성됨을 특징으로 한다.5, the experiencer equipment 100 for supporting two or more users to simultaneously experience the extended reality; a content server 400 for configuring backgrounds and object information of the real and virtual worlds; an experience space equipment 300 for composing a story and recognizing the location information of the experiencer in real time; It is characterized in that it is composed of; the spectator equipment 200 to passively watch the play of the field experiencer.

상기 체험자 장비는 현실 세계의 실제 배경 또는 시나리오에 따라 꾸며진 실내 배경과 사물을 인식하기 위한 3D 인식 스테레오 카메라(110); 사용자에게 가상 객체 및 NPC(NON-PLAYER CHARACTER) 객체를 디스플레이하여 체험 스토리 내에 몰입할 수 있도록 360도 3D XR 콘텐츠를 디스플레이하기 위한 HMD 장치(120); 가상 객체, NPC 및 다른 체험자와의 상호 작용을 제공하고, 액션 이벤트 발생시 체험자에게 극사실적인 오감각을 제공하는 햅틱 기반 사용자 컨트롤러(130); 3D 인식 스테레오 카메라를 통해 입력되는 현실 세계 영상과 가상 객체들, 그리고 모든 인터랙션 결과에 대한 영상처리를 통해 체험자에게 시공간을 확장한 현실감 있는 플레이를 제공하기 위한 고성능 백팩 PC(140);로 구성된다. The experience equipment includes a 3D recognition stereo camera 110 for recognizing an indoor background and objects decorated according to an actual background or scenario of the real world; HMD device 120 for displaying a 360-degree 3D XR content so that the user can be immersed in the experience story by displaying virtual objects and NPC (NON-PLAYER CHARACTER) objects; a haptic-based user controller 130 that provides interaction with virtual objects, NPCs, and other experiencers, and provides hyper-realistic five senses to the experiencers when an action event occurs; It consists of a high-performance backpack PC 140 for providing realistic play with expanded space and time to the experiencer through image processing of real-world images and virtual objects input through a 3D-recognized stereo camera, and all interaction results.

상기 콘텐츠 서버(400)는 체험 서비스의 시작과 종료, 중지와 재개, 체험자 등록 및 체험 서비스 선택 등 서비스 전반에 대한 운용 및 제어 기능을 제공하는 서비스 운용 서버(410); 현장 배경 화면 및 NPC 객체에 대한 시각적 정보를 제공하는 콘텐츠 구성 서버(420); 체험자 장비로부터 현재 플레이하는 체험자들의 위치, 현실 및 가상 객체들 간의 상호 작용 이벤트에 대한 정보를 수신하여 콘텐츠 구성 정보와 합성하고, 이를 관람자에게 제공하기 위한 콘텐츠 연동 서버(430);로 구성된다. The content server 400 includes: a service operation server 410 that provides operation and control functions for the overall service, such as start and end of the experience service, stop and resume, user registration and selection of the experience service; a content configuration server 420 that provides visual information about the scene background screen and NPC objects; a content interworking server 430 for receiving information about the location of the players currently playing, and an interaction event between real and virtual objects, from the experiencer's equipment, synthesizing it with content configuration information, and providing it to the viewer;

또한, 상기 체험 공간 장비(300)는 현실 세계 또는 시나리오 대로 꾸며진 체험 공간 안에서 현재 플레이 중인 체험자들의 위치 정보와 사용자 컨트롤러를 활용한 제스처 정보를 실시간으로 인식할 수 있도록 현실 공간에 사각형으로 배치된 4개의 베이스 스테이션 위치 센서(310); 체험 공간의 실내 배경을 구성할 경우 벽면과 바닥 적어도 한 면에 2대의 프로젝터가 디스플레이 될 수있도록 일정한 각도를 두고 설치하여 스토리 안의 배경을 디스플레이함으로써 체험 배경을 현심감 있게 구성하는 다수의 프로젝터(320);로 구성되고, In addition, the experience space equipment 300 includes four squares arranged in a real space so as to recognize in real time the location information of those who are currently playing in the experience space decorated according to the real world or scenario and gesture information using the user controller. base station position sensor 310; When composing the indoor background of the experience space, install it at a certain angle so that two projectors can be displayed on at least one side of the wall and the floor, and display the background in the story. consists of ;

상기 관람자 장비(200)는 체험자들이 확장 현실 세계에서 플레이하는 모습을 실시간으로 관람할 수 있도록 하는 평면 디스플레이 장치(210);로 구성됨을 특징으로 한다.The spectator equipment 200 is characterized in that it is composed of a flat-panel display device 210 that allows the experiencers to watch in real time how they play in the extended reality world.

본 발명은 다자간 XR 체험을 위한 서비스 플랫폼의 데이터 처리 프로세스 구성에 있어서 도 6에 도시한 바와 같이,As shown in FIG. 6, the present invention provides a data processing process configuration of a service platform for multi-party XR experience.

상기 체험자 장비 중 백팩 PC(140)는 체험자가 착용한 3D 인식 스테레오 카메라를 통하여 입력된 현실 세계 영상에 시나리오에 따른 가상 객체를 합성함으로써 확장 현실 속 세계를 구현하는 단계(141); The backpack PC 140 of the equipment for the experiencer implements the world in the extended reality by synthesizing the virtual object according to the scenario with the real world image input through the 3D recognition stereo camera worn by the experiencer (141);

베이스 스테이션 센서가 체험자의 위치정보와 사용자 컨트롤러를 활용한 제스처 정보를 스캔하면, 해당 콘텐츠를 동기화하고 그 정보를 콘텐츠 연동 서버에 전달하여 다른 체험자 및 관람자들과 공유할 수 있도록 하는 단계(142); When the base station sensor scans the user's location information and the gesture information using the user controller, synchronizing the corresponding content and transmitting the information to the content interworking server so that it can be shared with other users and spectators (142);

동기화 된 360도 3D XR 콘텐츠를 체험자의 HMD에 실시간으로 디스플레이하여 체험자가 사용자 컨트롤러를 통해 가상 객체와 인터랙션 할 수 있도록 하는 단계(143); displaying the synchronized 360-degree 3D XR content on the HMD of the experiencer in real time so that the user can interact with the virtual object through the user controller (143);

체험자의 인터랙션 정보는 다시 콘텐츠 연동 서버에 전달되어 다른 체험자 및 관람자들과 공유할 수 있도록 하는 단계(144);의 데이터 처리 프로세스를 포함하는 것을 특징으로 한다.The user's interaction information is transmitted back to the content interworking server to be shared with other experienced users and spectators (step 144); characterized in that it includes a data processing process.

상기 콘텐츠 구성 서버(420)는 VR 스토리 전개를 위한 가상 객체 정보모듈(421); 현실 세계가 시나리오 대로 짜여진 실내 환경일 경우 실내 벽면을 통해 배경을 구성하기 위한 배경 화면 및 환경 객체 정보모듈(422); 콘텐츠 상에 플레이하지는 않으나 스토리 진행을 위해 등장하는 NPC 물리 객체 정보모듈(423); 및 상기 구성 모듈 간의 상호 연동을 위한 동기화 정보모듈(424);을 포함함을 콘텐츠 구성상의 특징으로 한다.The content configuration server 420 includes a virtual object information module 421 for VR story development; a background screen and environment object information module 422 for configuring a background through an indoor wall when the real world is an indoor environment structured according to a scenario; NPC physical object information module 423 that does not play on the content but appears for story progression; and a synchronization information module 424 for mutual interworking between the configuration modules.

상기 콘텐츠 연동 서버(430)는 각 체험자들로부터 전달받은 현실 속 체험자들의 위치, 시각, 청각 및 타이밍 정보와 확장 현실 속에서 가상 객체들과 인터랙션 과정에서 발생하는 각종 이벤트 정보를 다른 체험자들의 체험 정보와 동기화하여 확장 현실 세계 속의 한 공간 안에서 다수의 체험자들이 동시에 스토리에 참여하여 플레이할 수 있도록 하는 다자간 콘텐츠 동기화 단계(431); The content interworking server 430 stores the location, sight, hearing and timing information of the actual experiencers received from each experiencer, and various event information that occurs in the process of interacting with virtual objects in the extended reality with the experience information of other experiencers. a multi-party content synchronization step (431) of synchronizing and allowing multiple users to participate in and play the story at the same time in one space in the extended reality world;

동기된 확장 현실 세계 속 플레이 정보를 콘텐츠 구성 서버의 배경 및 스토리 객체들과 연동시켜 360도 XR 콘텐츠의 지연현상을 최소화하고, 체험자들이 확장 현실 세계에서 플레이하는 모습을 관람자들이 동시에 공유할 수 있도록 하는 다자간 콘텐츠 연동 단계(432); By linking the synchronized play information in the extended reality world with the background and story objects of the content configuration server, the delay of 360-degree XR content is minimized, and viewers can share the way they play in the extended reality world at the same time. Multi-party content interworking step (432);

상기 동기화된 확장 현실 속 플레이 정보가 인터넷 또는 외부 프로젝터 환경을 통해 온라인 공유할 수 있도록 하고, 실시간으로 SNS 댓글이나 멀티 채팅을 통해 리액션할 수 있도록 하는 소셜 상호 작용 지원 단계(433);의 데이터 처리 프로세스를 포함하는 것을 특징으로 한다.The data processing process of the social interaction support step (433) of allowing the synchronized play information in the extended reality to be shared online through the Internet or an external projector environment, and to react through SNS comments or multi-chats in real time; It is characterized in that it includes.

상기 서비스 운용 서버(410)는 체험 서비스의 시작과 종료, 중지와 재개, 체험자 등록 및 체험 서비스 선택 등 서비스 전반에 대한 운용 및 제어를 수행하기 위한 체험 서비스 제어 단계(411);와 The service operation server 410 is an experience service control step 411 for performing operation and control of the overall service, such as starting and ending, stopping and resuming the experience service, registering the experiencer and selecting the experience service; and

체험 중인 사용자들이 개별적으로 사용하는 사용자 컨트롤러를 통해 체험자 개인의 체험 스토리 상에서 시작과 종료, 중지와 재개, 설정 변경 등의 제어 기능을 수행하기 위한 사용자 UI/UX 제어 단계(412);의 데이터 처리 프로세스를 포함하는 것을 특징으로 한다.The data processing process of the user UI/UX control step 412 for performing control functions such as start and end, stop and resume, and change settings on the experience story of the experiencer through the user controller individually used by the users in the experience; It is characterized in that it includes.

본 발명은 상기 다자간 확장현실(XR;Extended Reality) 체험을 위한 체험자 장치과 체험 공간의 구성에 있어서 도 2에 도시한 바와 같이,As shown in FIG. 2, in the configuration of the experiencer device and the experience space for the multi-party extended reality (XR) experience, the present invention,

물리적 현실 세계 또는 시나리오에 따라 구며진 실내 체험 공간에서 플레이 중인 체험자들의 위치와 웅크림, 점프 등의 움직임 정보를 스캔하기 위하여 자이로스코프가 내장되어 360도 상하 좌우 3D 공간 인식 기능이 가능하도록 하고, 체험자에게 극사실적인 오감각을 제공하기 위하여 액션 이벤트에 따른 실시간 햅틱 효과를 전달하는 사용자 컨트롤러(130)와, A built-in gyroscope is built-in to scan the location and movement information such as crouching and jumping in an indoor experience space that is crumpled according to the physical real world or scenario, enabling 360-degree vertical, left and right 3D space recognition, and A user controller 130 that delivers a real-time haptic effect according to an action event in order to provide a hyper-realistic five senses;

도3에 도시한 바와 같이 실시간으로 체험자의 현실 세계속 위치와 사용자 컨트롤러를 활용한 제스처를 인식할 수 있도록 현실 배경 공간 안에 사각형으로 배치된 적어도 4대의 베이스 스테이션(310)를 포함하여,As shown in Fig. 3, including at least four base stations 310 arranged in a rectangle in the real background space so that the user's location in the real world and gestures using the user controller can be recognized in real time,

점프하고, 웅크리고, 가상 오브젝트를 피하는 등 사용자의 모든 행동을 센서와 사용자 컨트롤러만으로 인식하고 공간 구조에 맞도록 가상 객체를 3차원으로 정합하여 화면에 반영(INSIDE-OUT TRACKING)할 수 있도록 함을 특징으로 한다.All actions of the user, such as jumping, crouching, and avoiding virtual objects, are recognized only by sensors and user controllers, and virtual objects are matched in three dimensions to fit the spatial structure and reflected on the screen (INSIDE-OUT TRACKING). characterized.

상기 체험 공간은 현실 세계를 구성함에 있어, 야외 또는 실내 공간에 구조물을 설치하여 물리적으로 현실 세계를 구현하거나, 또는 시나리오 대로 실내 벽면에 배경 화면을 투사하여 화면 구성에 의한 스토리 속 현실 세계를 구성할 수 있도록 하고, 배경 화면을 구성할 경우 도4에 도시한 바와 같이 실내 체험 공간의 벽면과 바닥 적어도 한 면에 2대의 프로젝터(320)가 디스플레이될 수 있도록 일정한 각도를 두고 설치하여 투사되는 배경 화면이 좌우, 상하 방향으로 연속되어 하나의 공간을 이루도록 구성함(321~324)으로써 사실감을 극대화함을 특징으로 한다.In composing the real world, the experience space can physically implement the real world by installing a structure in an outdoor or indoor space, or project a background screen on an indoor wall according to a scenario to compose the real world in the story by screen composition. When configuring the background screen, as shown in FIG. 4, the projected background screen is installed at a certain angle so that two projectors 320 can be displayed on at least one side of the wall and floor of the indoor experience space. It is characterized in that it maximizes the sense of realism by configuring (321 to 324) to form a single space in succession in the left and right and up and down directions.

본 발명에서는 다자간 확장현실 체험을 위한 서비스 플랫폼 구성에 있어서, In the present invention, in the configuration of a service platform for multi-party extended reality experience,

체험자 개인의 단독 체험 서비스 뿐 아니라 적어도 두 명 이상의 체험자가 동시에 하나의 확장 현실 속 세계에 진입하여 함께 가상 객체들과 인터랙션하고, 협업할 수 있도록 하는 다자 간 플레이가 가능하도록 함을 특징으로 하며,It is characterized by enabling multi-party play that allows not only the individual experience service but also at least two or more experiencers to simultaneously enter the world in one extended reality, interact with virtual objects, and collaborate.

이를 위하여 콘텐츠 연동 기능을 수행하는 컨텐츠연동 서버(430)를 두어,To this end, there is a content interworking server 430 that performs a content interworking function,

다자 간 각 체험자들로부터 전달받은 현실 속 체험자들의 위치, 시각, 청각 및 타이밍 정보와 확장 현실 속에서 가상 객체들과 인터랙션 과정에서 발생하는 각종 이벤트 정보를 다른 체험자들의 체험 정보와 동기화하여 확장 현실 세계 속의 한 공간 안에서 다수의 체험자들이 동시에 스토리에 참여하여 플레이할 수 있도록 다자간 콘텐츠 동기화하는 단계(431);In the extended reality world, by synchronizing the location, sight, hearing, and timing information of the experiencers in the real world received from each multilateral experiencer, and various event information that occurs in the process of interaction with virtual objects in the extended reality with the experience information of other experiencers a step of synchronizing multi-party content so that multiple users can participate in and play the story at the same time in one space (431);

동기된 확장 현실 세계 속 플레이 정보를 콘텐츠 구성 서버의 배경 및 스토리 객체들과 연동시켜 360도 XR 콘텐츠의 지연현상을 최소화하고, 체험자들이 확장 현실 세계에서 플레이하는 모습을 관람자들이 스토리를 동시에 공유할 수 있도록 하는 다자간 콘텐츠 연동 단계(432);By linking the synchronized play information in the extended reality world with the background and story objects of the content configuration server, the delay of 360-degree XR content is minimized, and viewers can share the story at the same time as they play in the extended reality world. a multi-party content interworking step (432);

상기 동기화된 확장 현실 속 플레이 정보가 인터넷 또는 외부 프로젝터 환경을 통해 온라인 공유할 수 있도록 하고, 실시간으로 SNS 댓글이나 멀티 채팅을 통해 리액션할 수 있도록 소셜 상호 작용을 지원하는 단계(433);를 포함함을 서비스 플랫폼 상의 특징으로 한다.Including a step (433) of supporting social interaction so that the synchronized play information in the extended reality can be shared online through the Internet or an external projector environment, and reacted through SNS comments or multi-chat in real time; is a feature on the service platform.

바람직하게, 본 발명에서 제시하는 다자간 확장현실 체험을 위한 서비스 플랫폼을 통해,Preferably, through the service platform for the multi-party extended reality experience presented in the present invention,

체험자의 시선에 맞추어 가상 세계의 공간이 아닌 실제 현실 공간을 투영하고(PATH-THROUGH) 고해상도 스테레오 비디오 캡쳐 처리 방식으로 가상 개체를 현실 공간에 표현함으로써 사실감과 몰입감을 극대화하고,Maximizes realism and immersion by projecting the real real space instead of the virtual world space according to the eye of the experiencer (PATH-THROUGH) and expressing the virtual object in the real space using the high-resolution stereo video capture processing method,

점프하고, 웅크리고, 가상 오브젝트를 피하는 등 사용자의 모든 행동을 센서와 사용자 컨트롤러만으로 인식하고 공간 구조에 맞도록 가상 객체를 3차원으로 정합하여 화면에 반영하고(INSIDE-OUT TRACKING)(5c),All user actions such as jumping, crouching, and avoiding virtual objects are recognized only by sensors and user controllers, and virtual objects are matched in three dimensions to fit the spatial structure and reflected on the screen (INSIDE-OUT TRACKING) (5c),

현실 세계의 실제 빛과 사물이 가상의 3D 객체에 영향을 줌으로써 체험자는 가상 객체와 더욱 사실적으로 상호 작용할 수 있다.(DYNAMIC SPACE MAPPING)(5d)As real lights and objects in the real world affect the virtual 3D object, the experiencer can interact with the virtual object more realistically.(DYNAMIC SPACE MAPPING)(5d)

현재 플레이 되고 있는 체험 서비스를 다른 체험자와 상호 작용하면서 동시에 진행할 수 있도록 하고, 현장 관람자들이 동시에 실시간으로 공유할 수 있도록 하며, 온라인 소셜 상호 작용을 제공하는(MULTI-USER XR EXPERIENCE)(5e) XR 체험 서비스를 구현할 수 있다.An XR experience that allows the currently playing experience service to be performed while interacting with other experiencers at the same time, allowing on-site viewers to share in real time at the same time, and providing online social interaction (MULTI-USER XR EXPERIENCE) (5e) service can be implemented.

100: 체험자 장비
110: 3D 인식 스테레오 카메라
120: HMD 장치
130: 사용자 컨트롤러
140: 백팩 PC
200: 관람자 장비
210: 평면 디스플레이 장치
220 : HMD장치
300: 체험 공간 장비
310: 베이스 스테이션 센서
320: 배경 화면 구성 프로젝터
400: 콘텐츠 서버
410: 서비스 운용서버
420: 콘텐츠 구성서버
430: 콘텐츠 연동서버
100: Experiencer Equipment
110: 3D recognition stereo camera
120: HMD device
130: user controller
140: backpack PC
200: spectator equipment
210: flat display device
220: HMD device
300: Experience space equipment
310: base station sensor
320: background screen composition projector
400: content server
410: service operation server
420: content configuration server
430: content interworking server

Claims (6)

다수의 사용자가 현실 세계를 배경으로 등장하는 가상 객체들 및 사용자 간에 상호 작용할 수 있는 다자간 확장 현실(XR, eXtended Reality) 체험을 제공하기 위한 서비스 플랫폼을 구성함에 있어서,
두 명 이상 다수의 사용자가 함께 확장 현실 체험을 할 수 있도록 지원하기 위한 체험자 장비(100);
현실 및 가상 세계의 배경과 객체 정보를 구성하기 위한 콘텐츠 서버(400),
스토리를 구성하고, 체험자의 위치 정보를 실시간으로 인식하기 위한 체험 공간 장비(300); 및
현장 체험자의 플레이를 수동적으로 관람할 수 있도록 하는 관람자 장비(200);로 구성되되,

상기 체험자 장비(100)는,
현실 세계의 실제 배경 또는 시나리오에 따라 꾸며진 실내 배경 및 사물을 인식하기 위한 3D 인식 스테레오 카메라(110);
사용자에게 가상 객체 및 NPC(NON-PLAYER CHARACTER) 객체를 디스플레이하여 체험 스토리 내에 몰입할 수 있도록 360도 3D XR 콘텐츠를 디스플레이하기 위한 HMD 디스플레이 장치(120);
가상 객체, NPC 및 다른 체험자와의 상호 작용을 제공하고, 액션 이벤트 발생시 체험자에게 극사실적인 오감각을 제공하는 햅틱 기반 사용자 컨트롤러(130); 및
3D 인식 스테레오 카메라를 통해 입력되는 현실 세계 영상과 가상 객체들, 그리고 모든 인터랙션 결과에 대한 영상처리를 통해 체험자에게 시공간을 확장한 현실감 있는 플레이를 제공하기 위한 고성능 백팩 PC(140);로 구성되고,

상기 관람자 장비(200)는,
체험자들이 확장 현실 세계에서 플레이하는 모습을 실시간으로 관람할 수 있도록 하는 평면 디스플레이 장치(210) 또는 HMD장치(220);로 구성되며,

상기 체험 공간 장비(300)는,
현실 세계 또는 시나리오 대로 꾸며진 실내 배경 화면 상에서 현재 플레이 중인 체험자들의 위치 정보와 사용자 컨트롤러를 활용한 제스처 정보를 실시간으로 인식할 수 있도록 현실 공간에 사각형으로 배치된 4개의 베이스 스테이션 위치 센서(310); 및
체험 공간의 실내 배경을 구성할 경우 벽면과 바닥 적어도 한 면에 2대의 프로젝터가 디스플레이될 수 있도록 일정한 각도를 두고 설치하여 스토리 안의 배경을 디스플레이함으로써 체험 배경을 현실감 있게 구성하는 다수의 프로젝트(320);로 구성되고,

상기 콘텐츠 서버(400)는,
체험 서비스의 시작과 종료, 중지와 재개, 체험자 등록 및 체험 서비스 선택 등 서비스 전반에 대한 운용 및 제어 기능을 제공하는 서비스 운용 서버(410);
현장 배경 화면 및 NPC 객체에 대한 시각적 정보를 제공하는 콘텐츠 구성 서버(420); 및
체험자 장비로부터 현재 플레이하는 체험자들의 위치, 현실 및 가상 객체들 간의 상호 작용 이벤트에 대한 정보를 수신하여 콘텐츠 구성 정보와 합성하고, 이를 관람자에게 제공하기 위한 콘텐츠 연동 서버(430);로 구성되는 것으로,

상기 콘텐츠 구성 서버(420)는
VR 스토리 전개를 위한 가상객체 정보모듈(421);
현실 세계가 시나리오 대로 짜여진 실내 환경일 경우 실내 벽면을 통해 배경을 구성하기 위한 배경화면 및 환경객체 정보모듈(422);
콘텐츠 상에 플레이하지는 않으나 스토리 진행을 위해 등장하는 NPC 물리객체 정보모듈(423); 및
상기 각 모듈 간의 상호 연동을 위한 동기화 정보모듈(424);를 포함하고,

상기 서비스 운용 서버(410)는
체험 서비스의 시작과 종료, 중지와 재개, 체험자 등록 및 체험 서비스 선택 등 서비스 전반에 대한 운용 및 제어를 수행하기 위한 체험 서비스 제어하는 단계(411);와
체험 중인 사용자들이 개별적으로 사용하는 사용자 컨트롤러를 통해 체험자 개인의 체험 스토리 상에서 시작과 종료, 중지와 재개, 설정 변경 등의 제어 기능을 수행하기 위한 사용자 UI/UX 제어하는 단계(412);의 데이터 처리 프로세스를 포함하며,

상기 콘텐츠 연동 서버(430)는
각 체험자들로부터 전달받은 현실 속 체험자들의 위치, 시각, 청각 및 타이밍 정보와 확장 현실 속에서 가상 객체들과 인터랙션 과정에서 발생하는 각종 이벤트 정보를 다른 체험자들의 체험 정보와 동기화하여 확장 현실 세계 속의 한 공간 안에서 다수의 체험자들이 동시에 스토리에 참여하여 플레이할 수 있도록 하는 다자간 콘텐츠 동기화 단계(431);
동기된 확장 현실 세계 속 플레이 정보를 콘텐츠 구성 서버의 배경 및 스토리 객체들과 연동시켜 360도 XR 콘텐츠의 지연현상을 최소화하고, 체험자들이 확장 현실 세계에서 플레이하는 모습을 관람자들이 동시에 공유할 수 있도록 하는 다자간 콘텐츠 연동 단계(432); 및
상기 동기화된 확장 현실 속 플레이 정보가 인터넷 또는 외부 프로젝터 환경을 통해 온라인 공유할 수 있도록 하고, 실시간으로 SNS 댓글이나 멀티 채팅을 통해 리액션할 수 있도록 하는 소셜상호작용 지원 단계(433);의 데이터 처리 프로세스를 포함하는 다자간 확장현실 체험 서비스 플랫폼.
In configuring a service platform for providing a multi-party extended reality (XR, eXtended Reality) experience in which multiple users can interact between virtual objects and users appearing in the real world as a background,
Experiencer equipment 100 for supporting two or more users to experience extended reality together;
Content server 400 for configuring the background and object information of the real and virtual world,
an experience space equipment 300 for composing a story and recognizing the location information of the experiencer in real time; and
Spectator equipment 200 for passively viewing the play of field experiencers;

The experience equipment 100,
3D recognition stereo camera 110 for recognizing indoor backgrounds and objects decorated according to real backgrounds or scenarios in the real world;
HMD display device 120 for displaying a 360-degree 3D XR content so that the user can be immersed in the experience story by displaying the virtual object and the NPC (NON-PLAYER CHARACTER) object;
a haptic-based user controller 130 that provides interaction with virtual objects, NPCs, and other experiencers, and provides hyper-realistic five senses to the experiencers when an action event occurs; and
A high-performance backpack PC 140 for providing realistic play with expanded space and time to the experiencer through image processing of real world images and virtual objects input through a 3D-recognized stereo camera, and all interaction results; Consists of;

The spectator equipment 200,
It consists of a flat-panel display device 210 or HMD device 220;

The experience space equipment 300,
Four base station position sensors 310 arranged in a rectangle in the real space so as to recognize in real time the location information of those who are currently playing and gesture information using the user controller on the indoor background screen decorated according to the real world or scenario; and
When configuring the indoor background of the experience space, two projectors are installed at a certain angle so that at least one side of the wall and the floor can be displayed, and a plurality of projects 320 that realistically configure the experience background by displaying the background in the story; is composed of,

The content server 400,
a service operation server 410 that provides operation and control functions for the overall service, such as start and end of the experience service, stop and resume, registration of the experiencer and selection of the experience service;
a content configuration server 420 that provides visual information about the scene background screen and NPC objects; and
A content interworking server 430 for receiving information about the location of the players currently playing, the interaction event between real and virtual objects from the experiencer's equipment, combining it with the content configuration information, and providing it to the viewer;

The content configuration server 420 is
Virtual object information module 421 for VR story development;
a background screen and environment object information module 422 for configuring a background through an indoor wall when the real world is an indoor environment structured according to a scenario;
NPC physical object information module 423 that does not play on the content but appears for story progression; and
Including; a synchronization information module 424 for mutual interworking between the respective modules;

The service operation server 410 is
Controlling the experience service for operation and control of the overall service, such as starting and ending, stopping and resuming the experience service, registering the experiencer and selecting the experience service (411); and
Data processing of the user UI/UX control step (412) for performing control functions such as start and end, stop and resume, and setting change on the experience story of the individual experiencer through the user controller individually used by the users in the experience; process, including

The content interworking server 430 is
A space in the extended reality world by synchronizing the location, visual, auditory, and timing information of the actual experiencers received from each experiencer and various event information that occurs during the interaction with virtual objects in the extended reality with the experience information of other experiencers a multi-party content synchronization step (431) in which a plurality of experiencers can participate in and play the story at the same time;
By linking the synchronized play information in the extended reality world with the background and story objects of the content configuration server, the delay of 360-degree XR content is minimized, and viewers can share the way they play in the extended reality world at the same time. Multi-party content interworking step (432); and
The data processing process of the social interaction support step (433) of allowing the synchronized play information in the expanded reality to be shared online through the Internet or an external projector environment, and to react through SNS comments or multi-chat in real time; A multi-party extended reality experience service platform that includes
삭제delete 제1항에 있어서,
상기 체험자 장비 중 백팩 PC(140)는
체험자가 착용한 3D 인식 스테레오 카메라를 통하여 입력된 현실 세계 영상에 시나리오에 따른 가상 객체를 합성함으로써 확장 현실 속 세계를 구현하는 단계(141);
베이스 스테이션 센서가 체험자의 위치정보와 사용자 컨트롤러를 활용한 제스처 정보를 스캔하면,
해당 콘텐츠를 동기화하고 그 정보를 콘텐츠 연동 서버에 전달하여 다른 체험자 및 관람자들과 공유할 수 있도록 하는 단계(142);
동기화 된 360도 3D XR 콘텐츠를 체험자의 HMD에 실시간으로 디스플레이하여 체험자가 사용자 컨트롤러를 통해 가상 객체와 인터랙션 할 수 있도록 하는 단계(143);
체험자의 인터랙션 정보는 다시 콘텐츠 연동 서버에 전달되어 다른 체험자 및 관람자들과 공유할 수 있도록 하는 단계(144);의 데이터 처리 프로세스를 포함하는 것을 특징으로 하는 다자간 확장현실 체험 서비스 플랫폼.
According to claim 1,
The backpack PC 140 among the experience equipment
Realizing the world in the extended reality by synthesizing the virtual object according to the scenario with the real world image input through the 3D recognition stereo camera worn by the experiencer (141);
When the base station sensor scans the user's location information and gesture information using the user controller,
synchronizing the corresponding content and transmitting the information to the content interworking server so that it can be shared with other users and spectators (142);
displaying the synchronized 360-degree 3D XR content on the HMD of the user in real time so that the user can interact with the virtual object through the user controller (143);
A multi-party extended reality experience service platform, comprising the data processing process of step (144), in which the user's interaction information is transmitted back to the content linkage server to be shared with other experienced users and spectators.
삭제delete 제1항에 있어서,
상기 다자간 확장현실 체험을 위한 체험 공간은 물리적 현실 세계 또는 시나리오에 따라 꾸며진 실내 체험 공간에서 플레이 중인 체험자들의 위치와 웅크림, 점프 등의 움직임 정보를 스캔하기 위하여 360도 상하 좌우 3D 공간 인식 기능이 포함된 사용자 컨트롤러(130)와;
실시간으로 체험자의 현실 세계속 위치와 사용자 컨트롤러를 활용한 제스처를 인식 할 수 있도록 현실 배경 공간 안에 사각형으로 배치된 적어도 4대의 베이스 스테이션 위치 센서(310)를 포함하여;
점프하고, 웅크리고, 가상 오브젝트를 피하는 등 사용자의 모든 행동을 위치 센서와 사용자 컨트롤러만으로 인식하고 공간 구조에 맞도록 가상 객체를 3차원으로 정합하여 화면에 반영할 수 있도록 함을 특징으로 하는 다자간 확장현실 체험 서비스 플랫폼.
According to claim 1,
The experience space for the multilateral extended reality experience includes a 360-degree up, down, left and right 3D space recognition function to scan the location and movement information such as crouching, jumping, etc. a user controller 130;
including at least four base station position sensors 310 arranged in a rectangle in the real background space to recognize the user's location in the real world and gestures using the user controller in real time;
Multi-party expansion, characterized in that all actions of the user, such as jumping, crouching, and avoiding virtual objects, are recognized only by the position sensor and user controller, and the virtual objects are matched in three dimensions to match the spatial structure and reflected on the screen Reality experience service platform.
삭제delete
KR1020200099984A 2020-08-10 2020-08-10 The service platform for multi-user supporting extended reality experience Active KR102358997B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200099984A KR102358997B1 (en) 2020-08-10 2020-08-10 The service platform for multi-user supporting extended reality experience

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200099984A KR102358997B1 (en) 2020-08-10 2020-08-10 The service platform for multi-user supporting extended reality experience

Publications (1)

Publication Number Publication Date
KR102358997B1 true KR102358997B1 (en) 2022-02-08

Family

ID=80252037

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200099984A Active KR102358997B1 (en) 2020-08-10 2020-08-10 The service platform for multi-user supporting extended reality experience

Country Status (1)

Country Link
KR (1) KR102358997B1 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114827476A (en) * 2022-05-25 2022-07-29 北京中科优辰星宇科技有限责任公司 Mixed-reality third person name shooting system and method
CN116016960A (en) * 2022-12-13 2023-04-25 乐视致新信息技术(武汉)有限公司 Third perspective shooting method and device for XR game scene
CN116597709A (en) * 2023-05-22 2023-08-15 河北科技大学 Virtual dismouting experimental system is cooperated to reduction gear many people based on VR technique
CN116597119A (en) * 2022-12-30 2023-08-15 北京津发科技股份有限公司 Human-computer interaction acquisition method, device and system for wearable extended reality equipment
KR20230142313A (en) 2022-04-01 2023-10-11 주식회사 레디메이드 Multi-user learning system and method based on extended reality
WO2024029695A1 (en) * 2022-08-05 2024-02-08 삼성전자주식회사 Electronic device for identifying control signal using motion information, and control method thereof
KR20240076872A (en) 2022-11-23 2024-05-31 주식회사 시어스랩 XR service device, method and system for completing a picture through collaboration among users in an XR environment
KR20240077538A (en) * 2022-11-22 2024-06-03 (주)뉴작 XR CAVE construction method and system capable of implementing XR contents
CN118233620A (en) * 2023-10-27 2024-06-21 影育(上海)科技有限公司 A three-dimensional space scene projection display method based on XR virtual-real fusion
JP2024171335A (en) * 2023-05-29 2024-12-11 佐臻股▲分▼有限公司 Smart Space System
US12236023B2 (en) 2022-08-05 2025-02-25 Samsung Electronics Co., Ltd. Electronic apparatus for identifying a control signal based on motion information and control method thereof
KR20250099488A (en) 2023-12-22 2025-07-02 주식회사 메타뷰 Time travel camera video output system using augmented reality
CN120276606A (en) * 2025-06-10 2025-07-08 上海合壹未来文化科技有限公司 Real-time object interaction method and system based on augmented reality

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150126938A (en) * 2013-03-11 2015-11-13 매직 립, 인코포레이티드 System and method for augmented and virtual reality
KR20160143213A (en) * 2015-06-05 2016-12-14 최대길 Safety training facility device using a virtual experience
KR20200008400A (en) * 2018-07-16 2020-01-28 모젼스랩(주) System for providing virtual experience space having contents generated by user
KR20200009648A (en) 2018-07-19 2020-01-30 국민대학교산학협력단 System and method for HMD using optical camera communication
KR20200033064A (en) 2018-09-19 2020-03-27 이의선 Platform service system for providing MR graphics support contents and Drive method of the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150126938A (en) * 2013-03-11 2015-11-13 매직 립, 인코포레이티드 System and method for augmented and virtual reality
KR20160143213A (en) * 2015-06-05 2016-12-14 최대길 Safety training facility device using a virtual experience
KR20200008400A (en) * 2018-07-16 2020-01-28 모젼스랩(주) System for providing virtual experience space having contents generated by user
KR20200009648A (en) 2018-07-19 2020-01-30 국민대학교산학협력단 System and method for HMD using optical camera communication
KR20200033064A (en) 2018-09-19 2020-03-27 이의선 Platform service system for providing MR graphics support contents and Drive method of the same

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230142313A (en) 2022-04-01 2023-10-11 주식회사 레디메이드 Multi-user learning system and method based on extended reality
CN114827476A (en) * 2022-05-25 2022-07-29 北京中科优辰星宇科技有限责任公司 Mixed-reality third person name shooting system and method
US12236023B2 (en) 2022-08-05 2025-02-25 Samsung Electronics Co., Ltd. Electronic apparatus for identifying a control signal based on motion information and control method thereof
WO2024029695A1 (en) * 2022-08-05 2024-02-08 삼성전자주식회사 Electronic device for identifying control signal using motion information, and control method thereof
KR102844544B1 (en) * 2022-11-22 2025-08-11 (주)뉴작 XR CAVE construction method and system capable of implementing XR contents
KR20240077538A (en) * 2022-11-22 2024-06-03 (주)뉴작 XR CAVE construction method and system capable of implementing XR contents
KR20240076872A (en) 2022-11-23 2024-05-31 주식회사 시어스랩 XR service device, method and system for completing a picture through collaboration among users in an XR environment
CN116016960A (en) * 2022-12-13 2023-04-25 乐视致新信息技术(武汉)有限公司 Third perspective shooting method and device for XR game scene
CN116597119A (en) * 2022-12-30 2023-08-15 北京津发科技股份有限公司 Human-computer interaction acquisition method, device and system for wearable extended reality equipment
CN116597709A (en) * 2023-05-22 2023-08-15 河北科技大学 Virtual dismouting experimental system is cooperated to reduction gear many people based on VR technique
JP2024171335A (en) * 2023-05-29 2024-12-11 佐臻股▲分▼有限公司 Smart Space System
CN118233620A (en) * 2023-10-27 2024-06-21 影育(上海)科技有限公司 A three-dimensional space scene projection display method based on XR virtual-real fusion
KR20250099488A (en) 2023-12-22 2025-07-02 주식회사 메타뷰 Time travel camera video output system using augmented reality
CN120276606A (en) * 2025-06-10 2025-07-08 上海合壹未来文化科技有限公司 Real-time object interaction method and system based on augmented reality

Similar Documents

Publication Publication Date Title
KR102358997B1 (en) The service platform for multi-user supporting extended reality experience
US10078917B1 (en) Augmented reality simulation
Schmalstieg et al. Augmented reality: principles and practice
KR102077108B1 (en) Apparatus and method for providing contents experience service
KR101692335B1 (en) System for augmented reality image display and method for augmented reality image display
JP6431198B2 (en) Head mounted display, method for tracking movement of head mounted display, and storage medium
US10701344B2 (en) Information processing device, information processing system, control method of an information processing device, and parameter setting method
US7445549B1 (en) Networked portable and console game systems
EP3531244A1 (en) Method, apparatus and system providing alternative reality environment
US10092838B2 (en) Electronic apparatus for controlling a multi-field-of-view display apparatus, electronic system and control method
US20110256927A1 (en) Projection of interactive game environment
CN107548470A (en) Pinch and Hold Gesture Navigation on Head Mounted Displays
JP2007042073A (en) Video presentation system, video presentation method, program for causing computer to execute video presentation method, and storage medium
JP2013008297A (en) Image processing apparatus, control method of image processing apparatus and program
JP2011259243A (en) Image processing program, image processing apparatus, image processing system, and image processing method
US20230368464A1 (en) Information processing system, information processing method, and information processing program
JPWO2019130374A1 (en) Terminal device, system, program and method
JP2020181263A (en) Image generator and information presentation method
CN108830944A (en) Optical perspective formula three-dimensional near-eye display system and display methods
US11907434B2 (en) Information processing apparatus, information processing system, and information processing method
WO2022107688A1 (en) Image generating device, image generating method, and program
JP7403256B2 (en) Video presentation device and program
CN110882536A (en) Chess and play game system based on AR equipment
WO2021200494A1 (en) Method for changing viewpoint in virtual space
JP5779735B1 (en) Program, game control method, and information processing apparatus

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20200810

PA0201 Request for examination
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20210730

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20220126

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20220128

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20220128

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20241231

Start annual number: 4

End annual number: 4

点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载