+

KR102502686B1 - Control method of electronic apparatus, server and system for non-face-to-face identification using speaker authentication and facial authentication - Google Patents

Control method of electronic apparatus, server and system for non-face-to-face identification using speaker authentication and facial authentication Download PDF

Info

Publication number
KR102502686B1
KR102502686B1 KR1020220113012A KR20220113012A KR102502686B1 KR 102502686 B1 KR102502686 B1 KR 102502686B1 KR 1020220113012 A KR1020220113012 A KR 1020220113012A KR 20220113012 A KR20220113012 A KR 20220113012A KR 102502686 B1 KR102502686 B1 KR 102502686B1
Authority
KR
South Korea
Prior art keywords
user
voice
face
server
authentication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020220113012A
Other languages
Korean (ko)
Inventor
홍동표
Original Assignee
페이스피에이팍 유한회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 페이스피에이팍 유한회사 filed Critical 페이스피에이팍 유한회사
Priority to KR1020220113012A priority Critical patent/KR102502686B1/en
Priority to KR1020230020861A priority patent/KR102640359B1/en
Priority to KR1020230020860A priority patent/KR102640358B1/en
Application granted granted Critical
Publication of KR102502686B1 publication Critical patent/KR102502686B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/45Structures or tools for the administration of authentication
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Collating Specific Patterns (AREA)
  • General Health & Medical Sciences (AREA)
  • Game Theory and Decision Science (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Bioethics (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Oral & Maxillofacial Surgery (AREA)

Abstract

본 발명은 상기 전자 장치가, 사용자 인증의 대상이 되는 사용자를 촬영하여 생성된 제1 사용자 이미지를 획득하는 단계; 상기 서버가, 사전 인증이 완료된 사용자의 제2 사용자 이미지의 사용자 안면 이미지가 나타내는 안면 및 상기 제1 사용자 이미지 내의 사용자 안면 이미지가 나타내는 안면 간에 안면 일치 값을 획득하는 단계; 상기 서버가, 상기 제1 사용자 이미지 내의 사용자 안면 이미지의 안면 라이브니스 값을 획득하는 단계; 상기 전자 장치가, 상기 사용자 인증의 대상이 되는 사용자의 음성을 녹음하여 생성된 제1 사용자 음성 데이터를 획득하는 단계; 상기 서버가, 상기 사전 인증이 완료된 사용자의 제2 사용자 음성 데이터의 화자 및 상기 제1 사용자 음성 데이터의 화자 간에 화자 일치 값을 획득하는 단계; 상기 서버가, 상기 제1 사용자 음성 데이터의 음성 라이브니스 값을 획득하는 단계; 및 상기 서버가, 상기 안면 일치 값, 상기 안면 라이브니스 값, 상기 화자 일치 값 및 상기 음성 라이브니스 값에 기초하여 사용자 인증을 수행하는 단계;를 포함할 수 있다.Obtaining, by the electronic device, a first user image generated by photographing a user to be authenticated; obtaining, by the server, a face matching value between a face represented by a user face image of a second user image of a user whose pre-authentication is completed and a face represented by a user face image in the first user image; obtaining, by the server, a facial liveness value of a user face image in the first user image; obtaining, by the electronic device, first user voice data generated by recording a voice of a user who is the target of the user authentication; obtaining, by the server, a speaker matching value between a speaker of the second user voice data and a speaker of the first user voice data of the user for whom the pre-authentication has been completed; obtaining, by the server, a voice liveness value of the first user voice data; and performing, by the server, user authentication based on the facial matching value, the facial liveness value, the speaker matching value, and the voice liveness value.

Description

화자 인증 및 안면 인증을 이용하여 비대면 본인 인증을 수행하는 전자 장치 및 서버를 포함하는 시스템의 제어 방법 { CONTROL METHOD OF ELECTRONIC APPARATUS, SERVER AND SYSTEM FOR NON-FACE-TO-FACE IDENTIFICATION USING SPEAKER AUTHENTICATION AND FACIAL AUTHENTICATION}Control method of a system including an electronic device and a server that performs non-face-to-face authentication using speaker authentication and face authentication AUTHENTICATION}

본 발명은 화자 인증 및 안면 인증을 이용하여 비대면 본인 인증을 수행하는 전자 장치 및 서버를 포함하는 시스템의 제어 방법에 관한 것으로, 보다 상세하게는, 화자 인증 결과와 안면 인증 결과에 기초하여 사용자에 대해 인증을 수행하는 전자 장치 및 서버를 포함하는 시스템의 제어 방법에 관한 것이다.The present invention relates to a control method for a system including an electronic device and a server that performs non-face-to-face authentication using speaker authentication and face authentication, and more particularly, to a user based on a speaker authentication result and a face authentication result. It relates to a control method of a system including an electronic device and a server that perform authentication for authentication.

바이오 인증이란, 타인이 모방할 수 없는 신체 정보를 기반으로 사용자를 식별하여 인증하는 기술을 의미한다. 다양한 바이오 인증 기술 중에서도 최근 음성인식 기술에 관한 연구가 활발히 진행되고 있다. 음성인식 기술은 크게 '음성 인식'과 '화자 인증'으로 나뉜다. 음성 인식은 어떤 사람이 이야기하든 상관없이 불특정 다수가 말한 '내용'을 알아듣는 것인 반면에 화자 인증은 '누가' 이 이야기를 했는지를 구별하는 것이다.Biometric authentication refers to a technology for identifying and authenticating a user based on body information that cannot be imitated by others. Among various biometric authentication technologies, research on voice recognition technology is currently being actively conducted. Voice recognition technology is largely divided into 'voice recognition' and 'speaker authentication'. Speech recognition is to understand the 'content' spoken by an unspecified number of people regardless of who is speaking, whereas speaker authentication is to distinguish 'who' said the story.

화자 인증 기술의 일 예시로, '목소리 인증 서비스'가 있다. 만약, 음성만으로 '누구'인지 주체를 정확하고 신속하게 확인할 수 있다면, 각종 분야에서 개인인증을 위해 필요했던 기존의 방법들, 예를 들어, 로그인 후 비밀번호 입력, 공인인증서 인증 등과 같은 번거로운 단계를 줄여 이용자의 편의를 제공할 수 있을 것이다.As an example of speaker authentication technology, there is a 'voice authentication service'. If the subject can be accurately and quickly identified as 'who' by voice alone, existing methods required for personal authentication in various fields, for example, by reducing cumbersome steps such as password input after login and public certificate authentication, etc. It can provide user convenience.

이때 화자 인증 기술은 최초 사용자의 음성을 등록한 뒤 이후, 인증 요청시마다 사용자가 발화한 음성과 등록된 음성을 비교하여 일치 여부로 인증을 수행한다. 사용자가 음성을 등록하면, 음성 데이터에서 특징점을 수초(ex, 10sec) 단위로 추출할 수 있다. 특징점은, 억양, 말 빠르기 등 다양한 유형으로 추출될 수 있고 이러한 특징점의 조합으로 사용자들을 식별할 수 있다.At this time, the speaker authentication technology registers the user's voice for the first time, and then compares the voice spoken by the user with the registered voice every time an authentication request is made, and performs authentication based on whether or not they match. When a user registers a voice, feature points may be extracted from voice data in units of several seconds (eg, 10 sec). Characteristic points may be extracted in various types such as intonation and speaking speed, and users may be identified by a combination of these characteristics points.

그러나 등록 사용자가 음성을 등록하거나 인증할 때 인근에 위치하는 제3자가 등록 사용자의 음성을 무단 녹음하고, 해당 녹음 파일로 화자 인증을 시도하는 상황이 발생 가능하므로 화장 인증 기술의 보안성이 문제될 수 있다. 이러한 상황이 발생한다면 사용자에게 막대한 피해가 발생하게 될 것이며, 화자 인증에 대한 신뢰도는 낮아질 수밖에 없다. 즉, 화자 인증 기술의 효용성이 저하되고, 음성 인증 데이터의 위조 또는 변조가 빈번히 발생할 수 있다.However, when a registered user registers or authenticates a voice, a third party located nearby may record the registered user's voice without permission and attempt speaker authentication with the recorded file, so the security of the makeup authentication technology may be problematic. can If this situation occurs, enormous damage will occur to the user, and the reliability of speaker authentication will inevitably be lowered. That is, the effectiveness of the speaker authentication technology is reduced, and forgery or alteration of voice authentication data may frequently occur.

한국공개특허 제10-2022-0081476호Korean Patent Publication No. 10-2022-0081476

본 발명이 해결하고자 하는 과제는 화자 인증 결과와 안면 인증 결과에 기초하여 사용자에 대해 인증을 수행하는 전자 장치 및 서버를 포함하는 시스템의 제어 방법을 제공하고자 한다.An object of the present invention is to provide a method for controlling a system including an electronic device and a server that authenticates a user based on a speaker authentication result and a face authentication result.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시 예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention not mentioned above can be understood by the following description and will be more clearly understood by the embodiments of the present invention. It will also be readily apparent that the objects and advantages of the present invention may be realized by means of the instrumentalities and combinations indicated in the claims.

상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 화자 인증 및 안면 인증을 이용하여 비대면 본인 인증을 수행하는 전자 장치 및 서버를 포함하는 시스템의 제어 방법에 있어서, 상기 전자 장치가, 사용자 인증의 대상이 되는 사용자를 촬영하여 생성된 제1 사용자 이미지를 획득하는 단계; 상기 서버가, 사전 인증이 완료된 사용자의 제2 사용자 이미지의 사용자 안면 이미지가 나타내는 안면 및 상기 제1 사용자 이미지 내의 사용자 안면 이미지가 나타내는 안면 간에 안면 일치 값을 획득하는 단계; 상기 서버가, 상기 제1 사용자 이미지 내의 사용자 안면 이미지의 안면 라이브니스 값을 획득하는 단계; 상기 전자 장치가, 상기 사용자 인증의 대상이 되는 사용자의 음성을 녹음하여 생성된 제1 사용자 음성 데이터를 획득하는 단계; 상기 서버가, 상기 사전 인증이 완료된 사용자의 제2 사용자 음성 데이터의 화자 및 상기 제1 사용자 음성 데이터의 화자 간에 화자 일치 값을 획득하는 단계; 상기 서버가, 상기 제1 사용자 음성 데이터의 음성 라이브니스 값을 획득하는 단계; 및 상기 서버가, 상기 안면 일치 값, 상기 안면 라이브니스 값, 상기 화자 일치 값 및 상기 음성 라이브니스 값에 기초하여 사용자 인증을 수행하는 단계;를 포함할 수 있다.In the control method of a system including an electronic device and a server for performing non-face-to-face authentication using speaker authentication and face authentication according to an aspect of the present invention for solving the above problems, the electronic device performs user authentication. acquiring a first user image generated by photographing a user who is a target of the; obtaining, by the server, a face matching value between a face represented by a user face image of a second user image of a user whose pre-authentication is completed and a face represented by a user face image in the first user image; obtaining, by the server, a facial liveness value of a user face image in the first user image; obtaining, by the electronic device, first user voice data generated by recording a voice of a user who is the target of the user authentication; obtaining, by the server, a speaker matching value between a speaker of the second user voice data and a speaker of the first user voice data of the user for whom the pre-authentication has been completed; obtaining, by the server, a voice liveness value of the first user voice data; and performing, by the server, user authentication based on the facial matching value, the facial liveness value, the speaker matching value, and the voice liveness value.

바람직하게, 상기 사용자 인증을 수행하는 단계는, 상기 서버가, 상기 안면 일치 값 및 상기 안면 라이브니스 값에 기초하여 상기 제1 사용자 이미지 내의 사용자 안면 이미지가 나타내는 안면이 상기 사용자의 안면인지를 판단하는 안면 인증을 수행하는 단계; 및 상기 서버가, 상기 화자 일치 값 및 상기 음성 라이브니스 값에 기초하여 상기 제1 사용자 음성 데이터의 화자가 상기 사용자인지를 판단하는 화자 인증을 수행하는 단계;를 포함할 수 있다.Preferably, the performing of the user authentication may include determining, by the server, whether a face represented by a user face image in the first user image is the face of the user based on the face matching value and the face liveness value. performing facial authentication; and performing, by the server, speaker authentication for determining whether a speaker of the first user's voice data is the user based on the speaker matching value and the voice liveness value.

바람직하게, 상기 안면 인증을 수행하는 단계는, 상기 서버가, 상기 안면 일치 값이 기준 안면 일치 값을 초과하는지 여부를 판단하는 단계; 상기 서버가, 상기 안면 라이브니스 값이 기준 안면 라이브니스 값을 초과하는지 여부를 판단하는 단계; 및 상기 서버가, 상기 안면 일치 값이 상기 기준 안면 일치 값을 초과하고, 상기 안면 라이브니스 값이 상기 기준 안면 라이브니스 값을 초과하면, 상기 제1 사용자 이미지 내의 사용자 안면 이미지가 나타내는 안면이 상기 사용자의 안면인 것으로 판단하는 단계;를 포함할 수 있다.Preferably, the performing of the face authentication may include: determining, by the server, whether the face match value exceeds a reference face match value; determining, by the server, whether the facial liveness value exceeds a reference facial liveness value; and if the face match value exceeds the reference face match value and the face liveness value exceeds the reference face liveness value, the server determines that the face represented by the user's face image in the first user image is the user's face. Determining that the face of the; may include.

바람직하게, 상기 화자 인증을 수행하는 단계는, 상기 서버가, 상기 화자 일치 값이 기준 화자 일치 값을 초과하는지 여부를 판단하는 단계; 상기 서버가, 상기 음성 라이브니스 값이 기준 음성 라이브니스 값을 초과하는지 여부를 판단하는 단계; 및 상기 서버가, 상기 화자 일치 값이 상기 기준 화자 일치 값을 초과하고, 상기 음성 라이브니스 값이 상기 기준 음성 라이브니스 값을 초과하면, 상기 제1 사용자 음성 데이터의 화자가 상기 사용자인 것으로 판단하는 단계;를 포함할 수 있다.Preferably, the performing of the speaker authentication may include: determining, by the server, whether the speaker matching value exceeds a reference speaker matching value; determining, by the server, whether the voice liveness value exceeds a reference voice liveness value; and determining, by the server, that the speaker of the first user's voice data is the user when the speaker matching value exceeds the reference speaker matching value and the voice liveness value exceeds the reference voice liveness value. step; may be included.

바람직하게, 상기 사용자 인증을 수행하는 단계는, 상기 서버가, 상기 안면 인증 결과, 상기 제1 사용자 이미지 내의 사용자 안면 이미지가 나타내는 안면이 상기 사용자의 안면인 것으로 판단되고, 상기 화자 인증 결과, 상기 제1 사용자 음성 데이터의 화자가 상기 사용자인 것으로 판단되면, 상기 사용자를 인증할 수 있다.Preferably, in the performing of the user authentication, the server determines, as a result of the face authentication, that a face represented by a user's face image in the first user image is the face of the user, and as a result of the speaker authentication, the first user If it is determined that the speaker of the first user's voice data is the user, the user may be authenticated.

상기 시스템의 제어 방법은 상기 전자 장치 또는 상기 서버가, 상기 신분증 이미지로부터 문자를 인식하여 신분증 정보를 추출하는 단계; 상기 전자 장치가, 상기 사용자 인증을 시도하는 사용자의 위치 정보를 획득하는 단계; 및 상기 서버가, 상기 신분증 정보 중에서 주소 정보가 나타내는 주소의 위치에 대응되는 국가 정보를 확인하고, 상기 위치 정보가 나타내는 사용자의 위치가 상기 국가 정보가 나타내는 국가 내에 포함되는지 여부를 판단하는 단계;를 포함할 수 있다.The control method of the system may include extracting, by the electronic device or the server, ID information by recognizing text from the ID image; obtaining, by the electronic device, location information of a user attempting the user authentication; and determining, by the server, country information corresponding to the location of the address indicated by the address information among the ID information, and determining whether the location of the user indicated by the location information is included in the country indicated by the country information. can include

상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 화자 인증 및 안면 인증을 이용하여 비대면 본인 인증을 수행하는 서버의 제어 방법에 있어서 상기 서버가, 사전 인증이 완료된 사용자의 제2 사용자 이미지의 사용자 안면 이미지가 나타내는 안면 및 사용자 인증의 대상이 되는 사용자를 촬영하여 생성된 제1 사용자 이미지 내의 사용자 안면 이미지가 나타내는 안면 간에 안면 일치 값을 획득하는 단계; 상기 서버가, 상기 제1 사용자 이미지 내의 사용자 안면 이미지의 안면 라이브니스 값을 획득하는 단계; 상기 서버가, 상기 사전 인증이 완료된 사용자의 제2 사용자 음성 데이터의 화자 및 상기 사용자 인증의 대상이 되는 사용자의 음성을 녹음하여 생성된 제1 사용자 음성 데이터의 화자 간에 화자 일치 값을 획득하는 단계; 상기 서버가, 상기 제1 사용자 음성 데이터의 음성 라이브니스 값을 획득하는 단계; 및 상기 서버가, 상기 안면 일치 값, 상기 안면 라이브니스 값, 상기 화자 일치 값 및 상기 음성 라이브니스 값에 기초하여 사용자 인증을 수행하는 단계;를 포함할 수 있다.In the method for controlling a server that performs non-face-to-face identity authentication using speaker authentication and face authentication according to an aspect of the present invention for solving the above problems, the server controls a second user image of a user whose pre-authentication has been completed. obtaining a facial matching value between a face represented by the user's face image and a face represented by a user's face image in a first user image generated by photographing a user subject to user authentication; obtaining, by the server, a facial liveness value of a user face image in the first user image; obtaining, by the server, a speaker match value between a speaker of the second user voice data of the user whose pre-authentication is completed and a speaker of the first user voice data generated by recording the voice of the user subject to the user authentication; obtaining, by the server, a voice liveness value of the first user voice data; and performing, by the server, user authentication based on the facial matching value, the facial liveness value, the speaker matching value, and the voice liveness value.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

본 발명에 따른 전자 장치 및 서버를 포함하는 시스템의 제어 방법은 화자 인증 결과와 안면 인증 결과에 기초하여 사용자에 대해 인증을 수행함으로써, 인증 정확도가 향상된 인증 프로세스가 가능하게 한다.A control method of a system including an electronic device and a server according to the present invention performs authentication on a user based on a speaker authentication result and a face authentication result, thereby enabling an authentication process with improved authentication accuracy.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 개시의 일 실시예에 따른 시스템의 구성도이다.
도 2는 본 개시의 일 실시예에 따른 시스템에 포함된 전자 장치 및 서버의 구성도이다.
도 3은 본 개시의 일 실시예에 따른 사용자 인증 과정에 대한 흐름도이다.
도 4는 본 개시의 일 실시예에 따른 전자 장치가 신분증 이미지를 획득하는 모습에 대한 예시도이다.
도 5 및 도 6은 본 개시의 일 실시예에 따른 전자 장치가 사용자 이미지를 획득하는 모습에 대한 예시도이다.
도 7은 본 개시의 일 실시예에 따른 서버가 인공지능 모델을 이용하여 안면 이미지에 대한 안면 라이브니스 값을 획득하는 과정을 설명하기 위한 도면이다.
도 8은 본 개시의 일 실시예에 따른 서버가 인공지능 모델을 이용하여 두 안면 이미지 각각이 나타내는 안면 간의 안면 일치 값을 획득하는 과정을 설명하기 위한 도면이다.
도 9 및 도 10은 본 개시의 일 실시예에 따른 전자 장치가 사용자 음성 데이터를 획득하는 모습에 대한 예시도이다.
도 11은 본 개시의 일 실시예에 따른 서버가 인공지능 모델을 이용하여 사용자 음성 데이터에 대한 음성 라이브니스 값을 획득하는 과정을 설명하기 위한 도면이다.
도 12는 본 개시의 일 실시예에 따른 서버가 인공지능 모델을 이용하여 두 음성 각각의 화자 간의 화자 일치 값을 획득하는 과정을 설명하기 위한 도면이다.
1 is a configuration diagram of a system according to an embodiment of the present disclosure.
2 is a configuration diagram of an electronic device and a server included in a system according to an embodiment of the present disclosure.
3 is a flowchart of a user authentication process according to an embodiment of the present disclosure.
4 is an exemplary view of how an electronic device acquires an ID image according to an embodiment of the present disclosure.
5 and 6 are exemplary diagrams of obtaining a user image by an electronic device according to an embodiment of the present disclosure.
7 is a diagram for explaining a process in which a server obtains a face liveness value for a face image using an artificial intelligence model according to an embodiment of the present disclosure.
8 is a diagram for explaining a process in which a server obtains a facial matching value between faces represented by two facial images by using an artificial intelligence model according to an embodiment of the present disclosure.
9 and 10 are exemplary diagrams of obtaining user voice data by an electronic device according to an embodiment of the present disclosure.
11 is a diagram for explaining a process in which a server obtains a voice liveness value for user voice data using an artificial intelligence model according to an embodiment of the present disclosure.
12 is a diagram for explaining a process in which a server obtains a speaker matching value between speakers of each of two voices using an artificial intelligence model according to an embodiment of the present disclosure.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, only these embodiments are intended to complete the disclosure of the present invention, and are common in the art to which the present invention belongs. It is provided to fully inform the person skilled in the art of the scope of the invention, and the invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.Terminology used herein is for describing the embodiments and is not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase. As used herein, "comprises" and/or "comprising" does not exclude the presence or addition of one or more other elements other than the recited elements. Like reference numerals throughout the specification refer to like elements, and “and/or” includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various components, these components are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first element mentioned below may also be the second element within the technical spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings commonly understood by those skilled in the art to which the present invention belongs. In addition, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless explicitly specifically defined.

명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.The term "unit" or "module" used in the specification means a hardware component such as software, FPGA or ASIC, and "unit" or "module" performs certain roles. However, "unit" or "module" is not meant to be limited to software or hardware. A “unit” or “module” may be configured to reside in an addressable storage medium and may be configured to reproduce one or more processors. Thus, as an example, a “unit” or “module” may refer to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. Functions provided within components and "units" or "modules" may be combined into smaller numbers of components and "units" or "modules" or may be combined into additional components and "units" or "modules". can be further separated.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓일 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.The spatially relative terms "below", "beneath", "lower", "above", "upper", etc. It can be used to easily describe a component's correlation with other components. Spatially relative terms should be understood as including different orientations of elements in use or operation in addition to the orientations shown in the drawings. For example, if you flip a component that is shown in a drawing, a component described as "below" or "beneath" another component will be placed "above" the other component. can Thus, the exemplary term “below” may include directions of both below and above. Components may also be oriented in other orientations, and thus spatially relative terms may be interpreted according to orientation.

본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.In this specification, a computer means any kind of hardware device including at least one processor, and may be understood as encompassing a software configuration operating in a corresponding hardware device according to an embodiment. For example, a computer may be understood as including a smartphone, a tablet PC, a desktop computer, a laptop computer, and user clients and applications running on each device, but is not limited thereto.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 개시의 일 실시예에 따른 시스템의 구성도이다.1 is a configuration diagram of a system according to an embodiment of the present disclosure.

도 1에 도시된 바와 같이, 본 발명의 일 면에 따른 시스템은 전자 장치(100) 및 서버(200)를 포함할 수 있다.As shown in FIG. 1 , a system according to an aspect of the present invention may include an electronic device 100 and a server 200 .

전자 장치(100) 및 서버(200)는 생성된 값에 대한 정보, 판단 결과에 대한 정보, 데이터 및 신호를 송수신하며 사용자에 대해 사용자 인증을 수행할 수 있다.The electronic device 100 and the server 200 transmit and receive information on generated values, information on judgment results, data, and signals, and perform user authentication for users.

여기서, 사용자 인증은 계정에 로그인을 시도하는 사용자가 해당 계정에 로그인이 허용된 사용자인지를 판단하는 과정일 수 있다.Here, user authentication may be a process of determining whether a user attempting to log in to an account is a user permitted to log in to the account.

전자 장치(100)는 스마트폰, 태블릿 PC, TV, 콘솔 기기, 셋탑 박스, 기타 제어 기기 등으로 구현될 수 있다.The electronic device 100 may be implemented as a smart phone, tablet PC, TV, console device, set-top box, or other control device.

서버(200)는 전자 장치(100)로부터 수신되는 생성된 값에 대한 정보, 판단 결과에 대한 정보, 데이터 및 신호를 기초로 사용자에 대해 사용자 인증을 수행하고, 사용자 인증 결과를 전자 장치(100)로 송신할 수 있다.The server 200 performs user authentication on the user based on information on the generated value received from the electronic device 100, information on the determination result, data, and signals, and the user authentication result is transmitted to the electronic device 100. can be sent to

도 2는 본 개시의 일 실시예에 따른 시스템에 포함된 전자 장치 및 서버의 구성도이다.2 is a configuration diagram of an electronic device and a server included in a system according to an embodiment of the present disclosure.

도 2를 참조하면, 전자 장치(100)는, 메모리(110), 카메라(120), 마이크(130), 디스플레이(140), 프로세서(150) 및 통신부(160)를 포함할 수 있다.Referring to FIG. 2 , the electronic device 100 may include a memory 110, a camera 120, a microphone 130, a display 140, a processor 150, and a communication unit 160.

메모리(110)는 전자 장치(100)의 동작에 필요한 각종 프로그램 및 데이터를 저장할 수 있다. 메모리(110)는 비휘발성 메모리(110), 휘발성 메모리(110), 플래시메모리(110)(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등으로 구현될 수 있다.The memory 110 may store various programs and data necessary for the operation of the electronic device 100 . The memory 110 may be implemented as a non-volatile memory 110, a volatile memory 110, a flash-memory, a hard disk drive (HDD), or a solid state drive (SSD).

프로세서(150)는 메모리(110)에 저장된 각종 프로그램을 이용하여 전자 장치(100)의 전반적인 동작을 제어할 수 있다. 프로세서(150)는 RAM, ROM, 그래픽 처리부, 메인 CPU, 제1 내지 n 인터페이스 및 버스로 구성될 수 있다. 이때, RAM, ROM, 그래픽 처리부, 메인 CPU, 제1 내지 n 인터페이스 등은 버스를 통해 서로 연결될 수 있다.The processor 150 may control overall operations of the electronic device 100 using various programs stored in the memory 110 . The processor 150 may include a RAM, a ROM, a graphic processing unit, a main CPU, first through n interfaces, and a bus. At this time, the RAM, ROM, graphic processing unit, main CPU, first to n interfaces, etc. may be connected to each other through a bus.

RAM은 O/S 및 어플리케이션 프로그램을 저장한다. 구체적으로, 전자 장치(100)가 부팅되면 O/S가 RAM에 저장되고, 사용자가 선택한 각종 어플리케이션 데이터가 RAM에 저장될 수 있다.RAM stores O/S and application programs. Specifically, when the electronic device 100 is booted, O/S is stored in RAM, and various application data selected by the user may be stored in RAM.

ROM에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴 온 명령이 입력되어 전원이 공급되면, 메인 CPU는 ROM에 저장된 명령어에 따라 메모리(110)에 저장된 O/S를 RAM에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU는 메모리(110)에 저장된 각종 어플리케이션 프로그램을 RAM에 복사하고, RAM에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다.The ROM stores instruction sets for system booting. When a turn-on command is input and power is supplied, the main CPU copies the O/S stored in the memory 110 to the RAM according to the command stored in the ROM, and executes the O/S to boot the system. When booting is completed, the main CPU copies various application programs stored in the memory 110 to RAM, and executes the application programs copied to RAM to perform various operations.

그래픽 처리부는 연산부(미도시) 및 렌더링부(미도시)를 이용하여 아이템, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다. 여기서, 연산부는 입력부로부터 수신된 제어 명령을 이용하여 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산하는 구성일 수 있다. 그리고, 렌더링부는 연산부에서 연산한 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성하는 구성이 일 수 있다. 이러한 렌더링부에서 생성된 화면은 디스플레이(140)의 디스플레이 영역 내에 표시될 수 있다.The graphic processing unit uses a calculation unit (not shown) and a rendering unit (not shown) to create a screen including various objects such as items, images, and text. Here, the calculation unit may be configured to calculate attribute values such as coordinate values, shape, size, color, etc. of each object to be displayed according to the layout of the screen by using a control command received from the input unit. And, the rendering unit may be configured to generate screens of various layouts including objects based on the attribute values calculated by the calculation unit. The screen created by the rendering unit may be displayed within the display area of the display 140 .

메인 CPU는 메모리(110)에 액세스하여, 메모리(110)에 저장된 OS를 이용하여 부팅을 수행한다. 그리고, 메인 CPU는 메모리(110)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다.The main CPU accesses the memory 110 and performs booting using the OS stored in the memory 110 . And, the main CPU performs various operations using various programs, contents, data, etc. stored in the memory 110 .

제1 내지 n 인터페이스는 상술한 각종 구성요소들과 연결된다. 제1 내지 n 인터페이스 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.The first through n interfaces are connected to the various components described above. One of the first through n interfaces may be a network interface connected to an external device through a network.

한편, 프로세서(150)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.Meanwhile, the processor 150 may include one or more cores (not shown) and a graphic processing unit (not shown) and/or a connection path (eg, a bus) for transmitting and receiving signals to and from other components. can

일 실시예에 따른 프로세서(150)는 메모리(110)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 본 발명과 관련하여 설명된 방법을 수행한다.Processor 150 according to one embodiment performs a method described in connection with the present invention by executing one or more instructions stored in memory 110 .

예를 들어, 프로세서(150)는 메모리(110)에 저장된 하나 이상의 인스트럭션을 실행함으로써 신규 학습용 데이터를 획득하고, 학습된 모델을 이용하여, 획득된 신규 학습용 데이터에 대한 테스트를 수행하고, 테스트 결과, 라벨링된 정보가 소정의 제1 기준값 이상의 정확도로 획득되는 제1 학습용 데이터를 추출하고, 추출된 제1 학습용 데이터를 신규 학습용 데이터로부터 삭제하고, 추출된 학습용 데이터가 삭제된 신규 학습용 데이터를 이용하여 학습된 모델을 다시 학습시킬 수 있다.For example, the processor 150 acquires new training data by executing one or more instructions stored in the memory 110, performs a test on the acquired new training data using the learned model, and the test result, First training data in which the labeled information is obtained with accuracy equal to or higher than a predetermined first reference value is extracted, the extracted first training data is deleted from the new training data, and learning is performed using the new training data from which the extracted training data is deleted. The model can be re-trained.

한편, 프로세서(150)는 프로세서(150) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(150)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.Meanwhile, the processor 150 includes RAM (Random Access Memory, not shown) and ROM (Read-Only Memory) that temporarily and/or permanently store signals (or data) processed in the processor 150. , not shown) may be further included. In addition, the processor 150 may be implemented in the form of a system on chip (SoC) including at least one of a graphic processing unit, RAM, and ROM.

메모리(110)에는 프로세서(150)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(110)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.The memory 110 may store programs (one or more instructions) for processing and control of the processor 150 . Programs stored in the memory 110 may be divided into a plurality of modules according to functions.

카메라(120)는 적어도 하나의 피사체를 촬영하기 위한 구성으로, 사용자를 촬영하여 사용자의 안면이 포함된 사용자 이미지를 생성하고, 신분증을 촬영하여 신분증 이미지를 생성할 수 있다.The camera 120 is configured to photograph at least one subject, and may generate a user image including the face of the user by photographing the user and generate an ID image by photographing an identification card.

마이크(130)는 소리를 녹음하기 위한 구성으로, 사용자로부터 발화된 음성을 녹음하여 사용자 음성 데이터를 생성할 수 있다.The microphone 130 is a component for recording sound, and may generate user voice data by recording a voice spoken by a user.

디스플레이(140)는 다양한 정보를 시각적으로 출력하기 위한 구성으로, LCD(Liquid Crystal Display), PDP(Plasma Display Panel), OLED(Organic Light Emitting Diodes), TOLED(Transparent OLED), Micro LED 등으로 구현될 수 있으나, 이에 한정되는 것은 아니고 이밖에 종래 알려진 다양한 형태의 디스플레이를 포함할 수 있다.The display 140 is a configuration for visually outputting various information, and may be implemented as a Liquid Crystal Display (LCD), Plasma Display Panel (PDP), Organic Light Emitting Diodes (OLED), Transparent OLED (TOLED), Micro LED, etc. However, it is not limited thereto, and other types of conventionally known displays may be included.

실시예로, 디스플레이(140)는, 사용자의 터치 조작을 감지할 수 있는 터치스크린 형태로 구현될 수 있으며, 접히거나 구부러질 수 있는 플렉서블 디스플레이로 구현될 수도 있다.As an example, the display 140 may be implemented in the form of a touch screen capable of detecting a user's touch manipulation, or may be implemented as a flexible display capable of being folded or bent.

통신부(160)는 서버(200)와 통신을 수행할 수 있다. 특히, 통신부(160)는 와이파이 칩, 블루투스 칩, 무선 통신 칩, NFC칩, 저전력 블루투스 칩(BLE 칩) 등과 같은 다양한 통신 칩을 포함할 수 있다. 이때, 와이파이 칩, 블루투스 칩, NFC 칩은 각각 LAN 방식, WiFi 방식, 블루투스 방식, NFC 방식으로 통신을 수행한다. 와이파이 칩이나 블루투스칩을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신 하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신칩은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), 5G(5th Generation) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다.The communication unit 160 may communicate with the server 200 . In particular, the communication unit 160 may include various communication chips such as a Wi-Fi chip, a Bluetooth chip, a wireless communication chip, an NFC chip, and a low energy Bluetooth chip (BLE chip). At this time, the Wi-Fi chip, the Bluetooth chip, and the NFC chip perform communication in a LAN method, a WiFi method, a Bluetooth method, and an NFC method, respectively. In the case of using a Wi-Fi chip or a Bluetooth chip, various connection information such as an SSID and a session key is first transmitted and received, and various information can be transmitted and received after communication is connected using this. The wireless communication chip refers to a chip that performs communication according to various communication standards such as IEEE, ZigBee, 3rd Generation (3G), 3rd Generation Partnership Project (3GPP), Long Term Evolution (LTE), and 5th Generation (5G).

도 2를 참조하면, 서버(200)는, 메모리(210), 프로세서(220) 및 통신부(230)를 포함할 수 있다.Referring to FIG. 2 , the server 200 may include a memory 210 , a processor 220 and a communication unit 230 .

메모리(210)는 서버(200)의 동작에 필요한 각종 프로그램 및 데이터를 저장할 수 있다. 메모리(210)는 비휘발성 메모리(210), 휘발성 메모리(210), 플래시메모리(210)(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등으로 구현될 수 있다.The memory 210 may store various programs and data necessary for the operation of the server 200 . The memory 210 may be implemented as a non-volatile memory 210, a volatile memory 210, a flash-memory, a hard disk drive (HDD), or a solid state drive (SSD).

프로세서(220)는 메모리(210)에 저장된 각종 프로그램을 이용하여 서버(200)의 전반적인 동작을 제어할 수 있다. 프로세서(220)는 RAM, ROM, 그래픽 처리부, 메인 CPU, 제1 내지 n 인터페이스 및 버스로 구성될 수 있다. 이때, RAM, ROM, 그래픽 처리부, 메인 CPU, 제1 내지 n 인터페이스 등은 버스를 통해 서로 연결될 수 있다.The processor 220 may control overall operations of the server 200 using various programs stored in the memory 210 . The processor 220 may include a RAM, a ROM, a graphic processing unit, a main CPU, first through n interfaces, and a bus. At this time, the RAM, ROM, graphic processing unit, main CPU, first to n interfaces, etc. may be connected to each other through a bus.

RAM은 O/S 및 어플리케이션 프로그램을 저장한다. 구체적으로, 서버(200)가 부팅되면 O/S가 RAM에 저장되고, 사용자가 선택한 각종 어플리케이션 데이터가 RAM에 저장될 수 있다.RAM stores O/S and application programs. Specifically, when the server 200 is booted, O/S is stored in RAM, and various application data selected by the user may be stored in RAM.

ROM에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴 온 명령이 입력되어 전원이 공급되면, 메인 CPU는 ROM에 저장된 명령어에 따라 메모리(210)에 저장된 O/S를 RAM에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU는 메모리(210)에 저장된 각종 어플리케이션 프로그램을 RAM에 복사하고, RAM에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다.The ROM stores instruction sets for system booting. When a turn-on command is input and power is supplied, the main CPU copies the O/S stored in the memory 210 to the RAM according to the command stored in the ROM, and executes the O/S to boot the system. When booting is completed, the main CPU copies various application programs stored in the memory 210 to RAM, and executes the application programs copied to RAM to perform various operations.

메인 CPU는 메모리(210)에 액세스하여, 메모리(210)에 저장된 OS를 이용하여 부팅을 수행한다. 그리고, 메인 CPU는 메모리(210)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다.The main CPU accesses the memory 210 and performs booting using the OS stored in the memory 210 . In addition, the main CPU performs various operations using various programs, contents, data, etc. stored in the memory 210 .

제1 내지 n 인터페이스는 상술한 각종 구성요소들과 연결된다. 제1 내지 n 인터페이스 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.The first through n interfaces are connected to the various components described above. One of the first through n interfaces may be a network interface connected to an external device through a network.

한편, 나아가, 프로세서(220)는 인공지능 모델을 제어할 수 있다. 이 경우, 프로세서(220)는 인공지능 모델을 제어하기 위한 그래픽 전용 프로세서(예: GPU)를 포함할 수 있음은 물론이다.Meanwhile, furthermore, the processor 220 may control the artificial intelligence model. In this case, of course, the processor 220 may include a dedicated graphics processor (eg, GPU) for controlling the artificial intelligence model.

한편, 본 발명에 따른 인공지능 모델은 교사 지도학습(supervised learning) 또는 비교사 지도학습(unsupervised learning)기반의 모델일 수 있다. 나아가, 본 발명에 따른 인공지능 모델은 SVM(support vector machine), Decision tree, neural network 등 및 이들이 응용된 방법론을 포함할 수 있다.Meanwhile, the artificial intelligence model according to the present invention may be a model based on supervised learning or unsupervised learning. Furthermore, the artificial intelligence model according to the present invention may include a support vector machine (SVM), a decision tree, a neural network, and the like, and methodologies to which they are applied.

일 실시예로, 본 발명에 따른 인공지능 모델은 학습데이터를 입력하여 학습된 합성곱 신경망(Convolutional deep Neural Networks, CNN) 기반의 인공지능 모델일 수 있다. 다만, 이에 한정되는 것은 아니며, 다양한 인공지능 모델이 본 발명에 적용될 수 있음은 물론이다. 예컨대, DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Deep Neural Network)과 같은 모델이 인공지능 모델로서 사용될 수 있으나, 이에 한정되지 않는다.As an embodiment, the artificial intelligence model according to the present invention may be an artificial intelligence model based on convolutional deep neural networks (CNN) learned by inputting training data. However, it is not limited thereto, and it goes without saying that various artificial intelligence models can be applied to the present invention. For example, models such as a deep neural network (DNN), a recurrent neural network (RNN), and a bidirectional recurrent deep neural network (BRDNN) may be used as an artificial intelligence model, but are not limited thereto.

이때, 합성곱 신경망(Convolutional deep Neural Networks, CNN)은 최소한의 전처리(preprocess)를 사용하도록 설계된 다계층 퍼셉트론(multilayer perceptrons)의 한 종류이다. 합성곱 신경망은 하나 또는 여러개의 합성곱 계층(convolutional layer)과 그 위에 올려진 일반적인 인공신경망 계층들로 이루어져 있으며, 가중치와 통합 계층(pooling layer)들을 추가로 활용한다. 이러한 구조 덕분에 합성곱 신경망은 2차원 구조의 입력 데이터를 충분히 활용할 수 있다. 또한, 합성곱 신경망은 표준 역전달을 통해 훈련될 수 있다. 합성곱 신경망은 다른 피드포워드 인공신경망 기법들보다 쉽게 훈련되는 편이고 적은 수의 매개변수를 사용한다는 이점이 있다.At this time, convolutional deep neural networks (CNNs) are a type of multilayer perceptrons designed to use a minimum of preprocessing. A convolutional neural network consists of one or several convolutional layers and general artificial neural network layers placed on top of them, and additionally utilizes weights and pooling layers. Thanks to this structure, convolutional neural networks can fully utilize input data with a two-dimensional structure. Also, convolutional neural networks can be trained via standard back-propagation. Convolutional neural networks are easier to train than other feedforward artificial neural network techniques and have the advantage of using fewer parameters.

또한, 심층 신경망(Deep Neural Networks, DNN)은 입력 계층(input layer)과 출력 계층(output layer) 사이에 복수개의 은닉 계층(hidden layer)들로 이뤄진 인공신경망(Artificial Neural Network, ANN)이다.In addition, deep neural networks (DNNs) are artificial neural networks (ANNs) consisting of a plurality of hidden layers between an input layer and an output layer.

이때, 심층 신경망의 구조는 퍼셉트론(perceptron)으로 구성될 수 있다. 퍼셉트론은 여러 개의 입력 값(input)과 하나의 프로세서(prosessor), 하나의 출력 값으로 구성된다. 프로세서는 여러 개의 입력 값에 각각 가중치를 곱한 후, 가중치가 곱해진 입력 값들을 모두 합한다. 그 다음 프로세서는 합해진 값을 활성화함수에 대입하여 하나의 출력 값을 출력한다. 만약 활성화함수의 출력 값으로 특정한 값이 나오기를 원하는 경우, 각 입력 값에 곱해지는 가중치를 수정하고, 수정된 가중치를 이용하여 출력 값을 다시 계산할 수 있다. 이때, 각각의 퍼셉트론은 서로 다른 활성화함수를 사용할 수 있다. 또한 각각의 퍼셉트론은 이전 계층에서 전달된 출력들을 입력으로 받아들인 다음, 활성화 함수를 이용해서 출력을 구한다. 구해진 출력은 다음 계층의 입력으로 전달된다. 상술한 바와 같은 과정을 거치면 최종적으로 몇 개의 출력 값을 얻을 수 있다.At this time, the structure of the deep neural network may be composed of a perceptron. Perceptron consists of several inputs, one processor, and one output value. The processor multiplies each of a plurality of input values by a weight, and then sums all the input values multiplied by the weight. Then, the processor substitutes the summed value into the activation function and outputs one output value. If a specific value is desired as an output value of the activation function, a weight value multiplied with each input value may be modified, and an output value may be recalculated using the corrected weight value. At this time, each perceptron may use a different activation function. In addition, each perceptron accepts the outputs passed from the previous layer as inputs, and then obtains the outputs using the activation function. The obtained output is passed as input to the next layer. Through the process as described above, several output values can finally be obtained.

순환 신경망(Reccurent Neural Network, RNN)은 인공신경망을 구성하는 유닛 사이의 연결이 Directed cycle을 구성하는 신경망을 말한다. 순환 신경망은 앞먹임 신경망과 달리, 임의의 입력을 처리하기 위해 신경망 내부의 메모리를 활용할 수 있다.Recurrent Neural Network (RNN) refers to a neural network in which the connections between units constituting an artificial neural network constitute a directed cycle. Unlike feed-forward neural networks, recurrent neural networks can utilize the memory inside the neural network to process arbitrary inputs.

심층 신뢰 신경망(Deep Belief Networks, DBN)이란 기계학습에서 사용되는 그래프 생성 모형(generative graphical model)으로, 딥 러닝에서는 잠재변수(latent variable)의 다중계층으로 이루어진 심층 신경망을 의미한다. 계층 간에는 연결이 있지만 계층 내의 유닛 간에는 연결이 없다는 특징이 있다.Deep Belief Networks (DBN) is a generative graphical model used in machine learning. In deep learning, it means a deep neural network consisting of multiple layers of latent variables. There are connections between layers, but there is no connection between units within a layer.

심층 신뢰 신경망은 생성 모형이라는 특성상 선행학습에 사용될 수 있고, 선행학습을 통해 초기 가중치를 학습한 후 역전파 혹은 다른 판별 알고리즘을 통해 가중치의 미조정을 할 수 있다. 이러한 특성은 훈련용 데이터가 적을 때 굉장히 유용한데, 이는 훈련용 데이터가 적을수록 가중치의 초기값이 결과적인 모델에 끼치는 영향이 세지기 때문이다. 선행학습된 가중치 초기값은 임의로 설정된 가중치 초기값에 비해 최적의 가중치에 가깝게 되고 이는 미조정 단계의 성능과 속도향상을 가능케 한다.Due to the characteristics of a generative model, the deep trust neural network can be used for prior learning, and after learning initial weights through prior learning, the weights can be fine-tuned through backpropagation or other discrimination algorithms. This characteristic is very useful when there is little training data, because the smaller the training data, the stronger the influence of the initial weight values on the resulting model. The pre-learned initial value of the weight becomes closer to the optimal weight than the arbitrarily set initial value of the weight, which enables the performance and speed of the fine-tuning step to be improved.

상술한 인공지능 및 그 학습방법에 관한 내용은 예시를 위하여 서술된 것이며, 상술한 실시 예들에서 이용되는 인공지능 및 그 학습방법은 제한되지 않는다. 예를 들어, 당 업계의 통상의 기술자가 동일한 과제해결을 위하여 적용할 수 있는 모든 종류의 인공지능 기술 및 그 학습방법이 개시된 실시 예에 따른 시스템을 구현하는 데 활용될 수 있다.The above-described artificial intelligence and its learning method are described for illustrative purposes, and the artificial intelligence and its learning method used in the above-described embodiments are not limited. For example, all kinds of artificial intelligence technologies and learning methods that can be applied by a person skilled in the art to solve the same problem can be used to implement the system according to the disclosed embodiment.

한편, 프로세서(220)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.Meanwhile, the processor 220 may include one or more cores (not shown) and a graphic processing unit (not shown) and/or a connection path (eg, a bus) for transmitting and receiving signals to and from other components. can

일 실시예에 따른 프로세서(220)는 메모리(210)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 본 발명과 관련하여 설명된 방법을 수행한다.Processor 220 according to one embodiment performs a method described in connection with the present invention by executing one or more instructions stored in memory 210 .

예를 들어, 프로세서(220)는 메모리(210)에 저장된 하나 이상의 인스트럭션을 실행함으로써 신규 학습용 데이터를 획득하고, 학습된 모델을 이용하여, 획득된 신규 학습용 데이터에 대한 테스트를 수행하고, 테스트 결과, 라벨링된 정보가 소정의 제1 기준값 이상의 정확도로 획득되는 제1 학습용 데이터를 추출하고, 추출된 제1 학습용 데이터를 신규 학습용 데이터로부터 삭제하고, 추출된 학습용 데이터가 삭제된 신규 학습용 데이터를 이용하여 학습된 모델을 다시 학습시킬 수 있다.For example, the processor 220 acquires new training data by executing one or more instructions stored in the memory 210, performs a test on the acquired new training data using the learned model, and the test result, First training data in which the labeled information is obtained with accuracy equal to or higher than a predetermined first reference value is extracted, the extracted first training data is deleted from the new training data, and learning is performed using the new training data from which the extracted training data is deleted. The model can be re-trained.

한편, 프로세서(220)는 프로세서(220) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(220)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.Meanwhile, the processor 220 includes RAM (Random Access Memory, not shown) and ROM (Read-Only Memory) that temporarily and/or permanently store signals (or data) processed in the processor 220. , not shown) may be further included. In addition, the processor 220 may be implemented in the form of a system on chip (SoC) including at least one of a graphics processing unit, RAM, and ROM.

메모리(210)에는 프로세서(220)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(210)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.The memory 210 may store programs (one or more instructions) for processing and control of the processor 220 . Programs stored in the memory 210 may be divided into a plurality of modules according to functions.

통신부(230)는 전자 장치(100)와 통신을 수행할 수 있다. 특히, 통신부(230)는 와이파이 칩, 블루투스 칩, 무선 통신 칩, NFC칩, 저전력 블루투스 칩(BLE 칩) 등과 같은 다양한 통신 칩을 포함할 수 있다. 이때, 와이파이 칩, 블루투스 칩, NFC 칩은 각각 LAN 방식, WiFi 방식, 블루투스 방식, NFC 방식으로 통신을 수행한다. 와이파이 칩이나 블루투스칩을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신 하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신칩은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), 5G(5th Generation) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다.The communication unit 230 may communicate with the electronic device 100 . In particular, the communication unit 230 may include various communication chips such as a Wi-Fi chip, a Bluetooth chip, a wireless communication chip, an NFC chip, and a low energy Bluetooth chip (BLE chip). At this time, the Wi-Fi chip, the Bluetooth chip, and the NFC chip perform communication in a LAN method, a WiFi method, a Bluetooth method, and an NFC method, respectively. In the case of using a Wi-Fi chip or a Bluetooth chip, various connection information such as an SSID and a session key is first transmitted and received, and various information can be transmitted and received after communication is connected using this. The wireless communication chip refers to a chip that performs communication according to various communication standards such as IEEE, ZigBee, 3rd Generation (3G), 3rd Generation Partnership Project (3GPP), Long Term Evolution (LTE), and 5th Generation (5G).

도 3은 본 개시의 일 실시예에 따른 사용자 인증 과정에 대한 흐름도이다.3 is a flowchart of a user authentication process according to an embodiment of the present disclosure.

도 3에 도시된 바와 같이, 본 발명의 일 면에 따른 화자 인증 및 안면 인증을 이용하여 비대면 본인 인증을 수행하는 시스템은, 서버(200)가, 사전 인증이 완료된 사용자의 사용자 이미지로부터 생성된 안면 템플릿 데이터를 등록(S1)하고, 사전 인증이 완료된 사용자의 사용자 음성 데이터로부터 생성된 음성 템플릿 데이터를 등록(S2)하고, 안면 템플릿 데이터를 이용하여 안면 인증을 수행(S3)하며, 음성 템플릿 데이터를 이용하여 화자 인증을 수행(S4)하고, 안면 인증의 결과와 화자 인증의 결과에 기초하여 사용자 인증을 수행(S5)할 수 있다.As shown in FIG. 3, in a system for performing non-face-to-face identity authentication using speaker authentication and face authentication according to an aspect of the present invention, the server 200 generates a user image of a user for whom pre-authentication has been completed. Face template data is registered (S1), voice template data generated from user voice data of a user whose pre-authentication is completed is registered (S2), face authentication is performed using the face template data (S3), and voice template data The speaker authentication may be performed using (S4), and the user authentication may be performed (S5) based on the face authentication result and the speaker authentication result.

구체적으로, 본 발명의 일 면에 따른 화자 인증 및 안면 인증을 이용하여 비대면 본인 인증을 수행하는 시스템은, 우선 사전 인증이 완료된 사용자의 사용자 이미지를 획득하고, 획득된 사용자 이미지로부터 생성된 안면 템플릿 데이터를 서버(200)에 등록(S1)할 수 있다.Specifically, a system for performing non-face-to-face identity authentication using speaker authentication and face authentication according to an aspect of the present invention first acquires a user image of a user for whom pre-authentication has been completed, and a face template created from the obtained user image. Data may be registered in the server 200 (S1).

또한, 본 발명의 일 면에 따른 화자 인증 및 안면 인증을 이용하여 비대면 본인 인증을 수행하는 시스템은, 사전 인증이 완료된 사용자의 사용자 음성 데이터를 획득하고, 획득된 사용자 음성 데이터로부터 생성된 음성 템플릿 데이터를 서버(200)에 등록(S2)할 수 있다.In addition, a system for performing non-face-to-face identity authentication using speaker authentication and facial authentication according to an aspect of the present invention obtains user voice data of a user for whom pre-authentication has been completed, and a voice template generated from the obtained user voice data. Data may be registered in the server 200 (S2).

이후, 본 발명의 일 면에 따른 화자 인증 및 안면 인증을 이용하여 비대면 본인 인증을 수행하는 시스템은, 미리 등록된 안면 템플릿 데이터와 사용자 인증을 위해 획득된 안면 템플릿 데이터에 기초하여 안면 인증을 수행(S3)할 수 있다.Thereafter, the system for performing non-face-to-face authentication using speaker authentication and face authentication according to an aspect of the present invention performs face authentication based on face template data registered in advance and face template data obtained for user authentication. (S3) Yes.

이어서, 본 발명의 일 면에 따른 화자 인증 및 안면 인증을 이용하여 비대면 본인 인증을 수행하는 시스템은, 미리 등록된 음성 템플릿 데이터와 사용자 인증을 위해 획득된 음성 템플릿 데이터에 기초하여 화자 인증을 수행(S4)할 수 있다.Subsequently, the system for non-face-to-face authentication using speaker authentication and face authentication according to an aspect of the present invention performs speaker authentication based on pre-registered voice template data and voice template data obtained for user authentication. (S4) Yes.

이때, 본 발명의 일 면에 따른 화자 인증 및 안면 인증을 이용하여 비대면 본인 인증을 수행하는 시스템은, 단계 S3에서 안면 인증이 완료된 이후 단계 S4를 수행하거나, 단계 S4에서 화자 인증이 완료된 이후 단계 S3를 수행하거나, 단계 S3와 단계 S4를 동시 수행할 수 있다.At this time, the system for performing non-face-to-face authentication using speaker authentication and face authentication according to an aspect of the present invention performs step S4 after face authentication is completed in step S3 or step S4 after speaker authentication is completed in step S4. S3 may be performed, or steps S3 and S4 may be performed simultaneously.

본 발명의 일 면에 따른 화자 인증 및 안면 인증을 이용하여 비대면 본인 인증을 수행하는 시스템은, 안면 인증 및 화자 인증이 모두 완료되는 경우 사용자 인증을 완료처리할 수 있다.A system for performing non-face-to-face authentication using speaker authentication and face authentication according to an aspect of the present invention may complete user authentication when face authentication and speaker authentication are both completed.

이하에서는, 상술된 사전 인증, 안면 인증 및 화자 인증 각각의 과정에 대해서 설명하고, 사전 인증, 안면 인증 및 화자 인증를 포함하는 사용자 인증에 대해서 설명하도록한다.Hereinafter, each of the above-described processes of pre-authentication, face authentication, and speaker authentication will be described, and user authentication including pre-authentication, face authentication, and speaker authentication will be described.

우선, 상술된 사전 인증에 대해서 설명하도록 한다.First, the above-described pre-authentication will be described.

사전 인증은 신분을 나타내는 정보를 이용하여 해당 신원이 사용자인지를 판단하는 것 일 수 있다. 여기서, 신분을 나타내는 정보는 신분증을 촬영한 신분증 이미지로부터 획득되는 정보이거나 은행 계좌의 소유주와 계좌 번호에 대한 정보일 수 있다.The pre-authentication may be to determine whether the corresponding identity is a user by using information representing the identity. Here, the information representing the identity may be information obtained from an ID image obtained by photographing the ID card or information on the owner and account number of the bank account.

예를 들어, 사전 인증은 신분증이 나타내는 신원이 사용자 인지를 판단하는 신분증 본인 인증이거나, 특정 은행 계좌의 소유주가 사용자인지를 판단하는 계좌 인증일 수 있다.For example, the pre-authentication may be authentication of an ID card that determines whether an identity indicated by an ID card is a user, or account authentication that determines whether an owner of a specific bank account is a user.

본 발명의 일 면에 따른 화자 인증 및 안면 인증을 이용하여 비대면 본인 인증을 수행하는 시스템은, 사용자에 대해 상술된 사전 인증을 직접 수행하거나 사전 인증의 결과를 외부 서버로부터 수신할 수 있다.A system for performing non-face-to-face identity authentication using speaker authentication and face authentication according to an aspect of the present invention may directly perform the above-described pre-authentication for a user or receive a result of the pre-authentication from an external server.

즉, 본 발명의 일 면에 따른 화자 인증 및 안면 인증을 이용하여 비대면 본인 인증을 수행하는 시스템은, 사전 인증이 완료된 사용자의 사용자 이미지와 사용자 음성 데이터를 각각 획득하는데 있어서, 선단계로 사용자에 대해 상술된 사전 인증을 직접 수행하거나 사전 인증의 결과를 외부 서버로부터 수신하여 사전 인증이 완료된 사용자로부터 사용자 이미지와 사용자 음성 데이터를 각각 획득할 수 있다.That is, in the system for performing non-face-to-face identity authentication using speaker authentication and face authentication according to an aspect of the present invention, in obtaining a user image and user voice data of a user for which pre-authentication has been completed, the user is identified as a first step. The above-described pre-authentication may be performed directly or the result of the pre-authentication may be received from an external server to acquire a user image and user voice data from a user who has completed pre-authentication.

이하, 본 발명의 일 면에 따른 화자 인증 및 안면 인증을 이용하여 비대면 본인 인증을 수행하는 시스템이 신분증 이미지를 이용하여 상술된 사전 인증을 직접 수행하는 과정에 대해 설명하도록 한다.Hereinafter, a process in which the system for performing non-face-to-face authentication using speaker authentication and face authentication according to an aspect of the present invention directly performs the above-described pre-authentication using an ID card image will be described.

본 발명의 일 면에 따른 화자 인증 및 안면 인증을 이용하여 비대면 본인 인증을 수행하는 시스템은, 해당 신분증에 대해 신분증 진위 여부를 확인하고, 신분증 진위 여부가 확인되면, 사전 인증을 수행하고자 하는 사용자의 사용자 안면 이미지에 대해 라이브니스 여부를 판단할 수 있다.A system for performing non-face-to-face authentication using speaker authentication and facial authentication according to an aspect of the present invention checks the authenticity of a corresponding ID card, and when the authenticity of the ID card is confirmed, a user who wants to perform pre-authentication Liveness can be determined for the user's face image.

이때, 본 발명의 일 면에 따른 화자 인증 및 안면 인증을 이용하여 비대면 본인 인증을 수행하는 시스템은, 사전 인증 과정에서 획득된 사용자 안면 이미지가 라이브니스를 가지는 것으로 판단되면 신분증 이미지 내의 신분증 안면 이미지와 사용자 안면 이미지 각각이 나타내는 안면 간의 일치 여부를 판단할 수 있다.At this time, the system for performing non-face-to-face identity authentication using speaker authentication and face authentication according to an aspect of the present invention determines that the user's facial image acquired in the pre-authentication process has liveness, the facial image of the identity card in the identity card image. It is possible to determine whether there is a match between the face represented by each of the user's face images.

최종적으로, 본 발명의 일 면에 따른 화자 인증 및 안면 인증을 이용하여 비대면 본인 인증을 수행하는 시스템은, 신분증 이미지 내의 신분증 안면 이미지와 사용자 안면 이미지 각각이 나타내는 안면이 일치하는 것으로 판단되면, 사전 인증을 완료 처리할 수 있다.Finally, in the system for performing non-face-to-face authentication using speaker authentication and face authentication according to one aspect of the present invention, if it is determined that the facial image of the ID card in the ID image and the face represented by each user's facial image match, Authentication can be completed.

이하에서, 상술된 신분증 진위 여부를 확인하는 과정에 대해 구체적으로 설명하도록 한다.Hereinafter, the process of confirming the authenticity of the above-described identification card will be described in detail.

도 4는 본 개시의 일 실시예에 따른 전자 장치가 신분증 이미지를 획득하는 모습에 대한 예시도이다.4 is an exemplary view of how an electronic device acquires an ID image according to an embodiment of the present disclosure.

전자 장치(100)는, 디스플레이에 사용자가 신분증(ID)을 촬영하도록 하는 신분증 촬영 UI를 출력하여, 사용자가 신분증(ID)을 촬영하도록 할 수 있다.The electronic device 100 may allow the user to photograph the identification card (ID) by outputting an ID photographing UI on the display to allow the user to photograph the identification card (ID).

이때, 전자 장치(100)는 카메라로부터 촬영되는 이미지로부터 신분증이 인식되면 해당 이미지를 신분증 이미지로 획득하는 오토스캔 기능을 통해 신분증 이미지를 획득할 수 있다.At this time, the electronic device 100 may acquire an ID image through an auto scan function that acquires the ID card image as an ID image when the ID card is recognized from an image captured by the camera.

다른 실시 예에 따르면, 전자 장치(100)는 촬영 버튼을 디스플레이에 표시하고, 사용자로부터 촬영 버튼이 선택 입력되면, 촬영 버튼이 선택 입력된 입력 시점에 카메라를 이용하여 신분증 이미지를 획득할 수 있다.According to another embodiment, the electronic device 100 may display a photographing button on the display, and when the photographing button is selected and input by the user, an ID image may be obtained using a camera at the time when the photographing button is selected and inputted.

이후, 전자 장치(100)는 신분증(ID)을 촬영하여 생성된 신분증 이미지(ID-I)로부터 문자(ID-C)를 인식하여 신분증 정보를 생성할 수 있다.Thereafter, the electronic device 100 may generate ID information by recognizing the text ID-C from the ID image ID-I generated by photographing the ID card ID.

이를 위해, 전자 장치(100)는 문자 판독 모듈을 이용하여 문자(ID-C)를 인식할 수 있다.To this end, the electronic device 100 may recognize the character ID-C using a character reading module.

여기서, 신분증 정보는 신분증 종류 정보, 신분증 고유 정보(예를 들어, 주민등록번호), 신분증 유효일 정보, 신분증 발급일 정보, 신분증이 나타내는 신원의 이름 정보 및 주소 정보 중 하나 이상을 포함할 수 있다.Here, the ID information may include at least one of ID type information, ID unique information (eg, resident registration number), ID valid date information, ID card issuance date information, and name information and address information of an identity indicated by the ID card.

한편, 전자 장치(100)는 신분증 이미지(ID-I)로부터 신분증 외곽선을 인식하고, 상술된 신분증 정보 중 일부 정보를 신분증 이미지(ID-I)에서 블라인드 처리할 수 있다.Meanwhile, the electronic device 100 may recognize the outline of the ID card from the ID image ID-I, and blind-process some of the above-described ID information from the ID image ID-I.

여기서, 신분증은 실물의 주민등록증, 운전면허증, 여권 중 어느 하나일 수 있다.Here, the identification card may be any one of a real resident registration card, a driver's license, and a passport.

한편, 신분증은 모바일 운전면허증, 모바일 주민등록증, 전자 여권 중 어느 하나 일 수도 있다. 이때, 전자 장치(100)는 신분증을 촬영하지 않고, 전자적 방법을 통해 모바일 운전면허증, 모바일 주민등록증, 전자 여권으로부터 신분증 정보를 획득할 수 있다.Meanwhile, the ID may be any one of a mobile driver's license, a mobile resident registration card, and an electronic passport. In this case, the electronic device 100 may acquire ID information from a mobile driver's license, a mobile resident registration card, or an electronic passport through an electronic method without photographing the ID card.

전자 장치(100)는 생성된 신분증 정보를 서버(200)로 송신할 수 있다.The electronic device 100 may transmit the generated ID information to the server 200 .

한편, 전자 장치(100)를 대신하여 서버(200)가 상술된 문자 인식을 통한 신분증 정보의 생성을 수행할 수 있다.Meanwhile, instead of the electronic device 100, the server 200 may generate ID information through the above-described text recognition.

이를 위해, 전자 장치(100)는 신분증(ID)을 촬영하여 생성된 신분증 이미지(ID-I)를 서버(200)로 송신하고, 서버(200)는 신분증 이미지(ID-I)로부터 문자(ID-C)를 인식하여 신분증 정보를 생성할 수 있다.To this end, the electronic device 100 transmits the ID image (ID-I) generated by photographing the ID card (ID) to the server 200, and the server 200 transmits the character (ID) from the ID image (ID-I). -C) can be recognized to generate ID information.

이를 위해, 서버(200)는 문자 판독 모듈을 이용하여 문자(ID-C)를 인식할 수 있다.To this end, the server 200 may recognize a character ID-C using a character reading module.

서버(200)는 신분증 정보에 기초하여 신분증의 진위 여부를 확인 기관 서버에 확인 요청할 수 있다.The server 200 may request confirmation of authenticity of the ID card to the server of the verification agency based on the ID information.

이를 위해, 서버(200)는 확인 기관 서버로 신분증 정보와 함께 진위 여부 확인 요청 신호를 송신할 수 있다.To this end, the server 200 may transmit an authenticity confirmation request signal together with ID information to the confirmation authority server.

이후, 서버(200)는 신분증의 진위 여부 확인 요청에 대한 응답으로 신분증의 진위 여부를 나타내는 신분증 진위 정보를 확인 기관 서버로부터 수신할 수 있다.Thereafter, the server 200 may receive ID authenticity information indicating authenticity of the ID card from the verification authority server in response to the request for verifying the authenticity of the ID card.

여기서, 확인 기관 서버는 신분증을 발급한 기관이 해당 신분증의 진위 여부에 대한 확인 결과를 제공하기 위해 운영하는 서버일 수 있다.Here, the verification authority server may be a server operated by an institution that issued an identification card to provide a verification result on whether the identification card is genuine or not.

서버(200)는 수신된 신분증 진위 정보를 전자 장치(100)로 송신할 수 있다.The server 200 may transmit the received ID authenticity information to the electronic device 100 .

전자 장치(100)는 수신된 신분증 진위 정보가 신분증이 진짜임을 나타내면 신분증이 가짜임을 알리는 메시지를 출력할 수 있다.The electronic device 100 may output a message informing that the ID is fake when the received ID authenticity information indicates that the ID is genuine.

또한, 전자 장치(100)는 수신된 신분증 진위 정보가 신분증이 진짜임을 나타내면 후속되는 사용자 안면 이미지에 대해 라이브니스 여부를 판단하는 과정에서 요구되는 이미지, 데이터 및 값을 획득하거나 생성할 수 있다.In addition, when the received authenticity information of the ID card indicates that the ID card is genuine, the electronic device 100 may acquire or create images, data, and values required in a process of determining liveness of a subsequent user's face image.

반대로, 전자 장치(100)는 수신된 신분증 진위 정보가 신분증이 가짜임을 나타내면 신분증이 가짜임을 알리는 메시지와 진짜인 신분증의 촬영을 요청하는 메시지를 출력할 수 있다.Conversely, if the received authenticity information of the ID indicates that the ID is fake, the electronic device 100 may output a message informing that the ID is fake and a message requesting a photograph of the real ID.

또한, 전자 장치(100)는 수신된 신분증 진위 정보가 신분증이 가짜임을 나타내면 신분증 촬영 및 신분증 정보 생성을 재수행하여 서버(200)로 신분증 정보를 송신할 수 있다.In addition, if the received authenticity information of the ID card indicates that the ID card is fake, the electronic device 100 may transmit the ID information to the server 200 by re-performing the photo ID and generating the ID information.

도 5 및 도 6은 본 개시의 일 실시예에 따른 전자 장치가 사용자 이미지를 획득하는 모습에 대한 예시도이다.5 and 6 are exemplary diagrams of obtaining a user image by an electronic device according to an embodiment of the present disclosure.

전자 장치(100)는 디스플레이에 사용자가 사용자 자신을 촬영하도록 하는 사용자 촬영 UI를 출력하여, 사용자(U)가 자기 자신을 촬영하도록 할 수 있다.The electronic device 100 may output a user photographing UI on the display to allow the user U to photograph himself.

이때, 전자 장치(100)는 사용자가 특정 포즈 및 특정 표정을 취하도록 유도하지 않고 임의의 포즈 및 임의의 표정을 취한 사용자를 촬영하여 패시브 라이브니스 여부를 판단할 수 있다. In this case, the electronic device 100 may determine passive liveness by photographing a user taking a specific pose and facial expression without inducing the user to take a specific pose and facial expression.

이후, 전자 장치(100)는 사전 인증을 위해 사용자를 촬영하여 생성된 제2 사용자 이미지(U-I) 내의 사용자 안면 이미지(U-FI)로부터 복수의 제2 안면 특징점을 추출하고, 복수의 제2 안면 특징점으로 구성된 제2 안면 특징점 데이터를 생성할 수 있다.Thereafter, the electronic device 100 extracts a plurality of second facial feature points from the user facial image U-FI in the second user image U-I generated by photographing the user for pre-authentication, and extracts a plurality of second facial feature points. Second facial feature point data composed of feature points may be generated.

여기서, 복수의 제2 안면 특징점은 제2 사용자 안면 이미지(U-FI)가 나타내는 안면의 특징에 대한 정보일 수 있다. 예를 들어, 복수의 제2 안면 특징점은 안면 세부 부위(눈꼬리, 입꼬리, 코끝 등) 각각의 좌표 정보, 각 좌표 정보에 대응되는 위치의 단위 이미지의 색상값, 각 좌표 정보에 대응되는 위치의 단위 이미지의 노출값, 각 좌표 정보의 변화값, 각 좌표 정보에 대응되는 이미지의 깊이값(카메라와 객체 간의 거리), 깊이값의 변화값, 색상값의 변화값, 노출값의 변화값을 포함할 수 있다.Here, the plurality of second facial feature points may be information about facial features represented by the second user facial image U-FI. For example, the plurality of second facial feature points include coordinate information of each facial detail (eye corners, mouth corners, nose tip, etc.), color values of unit images at positions corresponding to each coordinate information, and units of positions corresponding to each coordinate information. It may include the exposure value of the image, the change value of each coordinate information, the depth value of the image corresponding to each coordinate information (the distance between the camera and the object), the change value of the depth value, the change value of the color value, and the change value of the exposure value. .

이를 위해, 전자 장치(100)는 사전에 학습된 3D 얼굴 기하 모델을 이용하여 사용자 안면 이미지(U-FI)로부터 10,000개 이상의 안면 특징점을 추출할 수 있다.To this end, the electronic device 100 may extract 10,000 or more facial feature points from the user's facial image U-FI by using a previously learned 3D facial geometric model.

전자 장치(100)는 제2 안면 특징점 데이터를 암호화 및 토큰화하여 제2 안면 템플릿 데이터를 생성할 수 있다.The electronic device 100 may generate second facial template data by encrypting and tokenizing the second facial feature point data.

이때, 전자 장치(100)는 암호화 처리 모듈을 이용하여 제2 안면 특징점 데이터를 암호화시켜 제2 안면 템플릿 데이터를 생성하거나, 토큰화 처리 모듈을 이용하여 제2 안면 특징점 데이터를 토큰화시켜 제2 안면 템플릿 데이터를 생성하거나, 암호화 처리 모듈을 이용하여 제2 안면 특징점 데이터를 암호화시킨 후 토큰화 처리 모듈을 이용하여 암호화된 제2 안면 특징점 데이터를 토큰화시켜 제2 안면 템플릿 데이터를 생성하거나, 토큰화 처리 모듈을 이용하여 제2 안면 특징점 데이터를 토큰화시킨 후 암호화 처리 모듈을 이용하여 토큰화된 제2 안면 특징점 데이터를 암호화시켜 제2 안면 템플릿 데이터를 생성할 수 있다.At this time, the electronic device 100 generates second facial template data by encrypting the second facial feature point data using the encryption processing module, or tokenizes the second facial feature point data using the tokenization processing module to create the second facial feature point data. Template data is generated, or the second facial feature point data is encrypted using the encryption processing module, and then the encrypted second facial feature point data is tokenized using the tokenization processing module to generate the second facial template data, or the second facial feature point data is tokenized. After tokenizing the second facial feature data using the processing module, second facial template data may be generated by encrypting the tokenized second facial feature data using the encryption processing module.

이후, 전자 장치(100)는 제2 안면 템플릿 데이터를 서버(200)로 송신할 수 있다.Then, the electronic device 100 may transmit second face template data to the server 200 .

도 7은 본 개시의 일 실시예에 따른 서버가 인공지능 모델을 이용하여 안면 이미지에 대한 안면 라이브니스 값을 획득하는 과정을 설명하기 위한 도면이다.7 is a diagram for explaining a process in which a server obtains a face liveness value for a face image using an artificial intelligence model according to an embodiment of the present disclosure.

도 7을 더 참조하면, 서버(200)는 전자 장치(100)로부터 제2 안면 템플릿 데이터(U-FT)를 수신하면, 제2 인공지능 모델(M2)에 제2 안면 템플릿 데이터(U-FT)를 입력하여, 제2 사용자 이미지(U-I) 내의 사용자 안면 이미지(U-FI)의 안면 라이브니스 값을 획득할 수 있다.Referring further to FIG. 7 , when the server 200 receives the second facial template data U-FT from the electronic device 100, the second artificial intelligence model M2 has the second facial template data U-FT. ), the facial liveness value of the user face image U-FI in the second user image U-I may be obtained.

여기서, 이미지에 대한 라이브니스 여부는 실제 대상으로부터 획득된 이미지인지를 나타내는 것으로써, 라이브니스 값은 실제 대상으로부터 획득되었을 확률을 나타내는 값일 수 있다.Here, the liveness of an image indicates whether the image is obtained from a real object, and the liveness value may be a value indicating a probability that the image is obtained from a real object.

이에 따라, 안면 라이브니스 값은 해당 안면 템플릿 데이터에 대응되는 안면 이미지가 실제 대상(사용자)으로부터 획득되었을 확률을 나타내는 값일 수 있다.Accordingly, the face liveness value may be a value indicating a probability that a face image corresponding to the corresponding face template data is acquired from an actual target (user).

예를 들어, 안면 라이브니스 값이 100%에 가까울수록 해당 안면 템플릿 데이터에 대응되는 안면 이미지가 실제 대상(사용자)으로부터 획득되었을 확률이 높음을 나타낼 수 있다.For example, the closer the face liveness value is to 100%, the higher the probability that the face image corresponding to the corresponding face template data is obtained from a real object (user).

반대로, 안면 라이브니스 값이 0%에 가까울수록 해당 안면 템플릿 데이터에 대응되는 안면 이미지가 실제 대상(사용자)이 아닌 사용자 안면이 쵤영된 사진, 영상 및 사용자 안면 형상의 가면 등으로부터 획득되었을 확률이 높음을 나타낼 수 있다.Conversely, the closer the face liveness value is to 0%, the higher the probability that the face image corresponding to the face template data was obtained from a photo or video of the user's face, and a mask in the shape of the user's face, rather than the actual subject (user). can represent

한편, 제2 인공지능 모델(M2)은 안면 이미지의 안면 라이브니스 값을 결정하도록 훈련된 인공지능 모델일 수 있다.Meanwhile, the second artificial intelligence model M2 may be an artificial intelligence model trained to determine a face liveness value of a face image.

이를 위해, 서버(200)는 안면 라이브니스 값을 출력하는 제2 인공지능 모델을 훈련시키는 인공지능 훈련 모듈을 구비할 수 있다.To this end, the server 200 may include an artificial intelligence training module that trains a second artificial intelligence model that outputs facial liveness values.

구체적으로, 서버(200)는 안면 이미지로부터 생성된 안면 템플릿 데이터 및 안면 템플릿 데이터에 대해 미리 정해진 안면 라이브니스 값으로 구성된 학습 데이터를 이용하여 제2 인공지능 모델(M2)을 학습시킬 수 있다.Specifically, the server 200 may train the second artificial intelligence model M2 using training data composed of face template data generated from a face image and facial liveness values predetermined for the face template data.

이를 통해, 서버(200)는 제2 인공지능 모델(M2)에 입력 데이터로써 제2 안면 템플릿 데이터(U-FT)를 입력하고, 제2 인공지능 모델(M2)의 출력 데이터로써 안면 라이브니스 값을 획득할 수 있다.Through this, the server 200 inputs the second facial template data U-FT as input data to the second artificial intelligence model M2, and the facial liveness value as output data of the second artificial intelligence model M2. can be obtained.

서버(200)는 획득된 안면 라이브니스 값이 기준 안면 라이브니스 값을 초과하면 제2 사용자 이미지(U-I) 내의 사용자 안면 이미지(U-FI)가 실제 사용자로부터 촬영된 이미지인 것으로 판단하여 제2 사용자 이미지(U-I) 내의 사용자 안면 이미지(U-FI)가 라이브니스를 가지는 것으로 판단할 수 있다.When the obtained facial liveness value exceeds the reference facial liveness value, the server 200 determines that the user's facial image U-FI in the second user image U-I is an image taken from an actual user, and determines that the second user's face image U-FI is an image taken from a real user. It may be determined that the user face image U-FI in the image U-I has liveness.

반대로, 서버(200)는 획득된 안면 라이브니스 값이 기준 안면 라이브니스 값을 초과하지 않으면 제2 사용자 이미지(U-I) 내의 사용자 안면 이미지(U-FI)가 실제 사용자로부터 촬영된 이미지가 아닌 것으로 판단하여 제2 사용자 이미지(U-I) 내의 사용자 안면 이미지(U-FI)가 라이브니스를 가지지 않는 것으로 판단할 수 있다.Conversely, if the obtained facial liveness value does not exceed the reference facial liveness value, the server 200 determines that the user's facial image U-FI in the second user image U-I is not an image taken from an actual user. Accordingly, it may be determined that the user face image U-FI in the second user image U-I does not have liveness.

서버(200)는 안면 라이브니스 값에 따른 제2 사용자 이미지(U-I) 내의 사용자 안면 이미지(U-FI)의 라이브니스 여부에 대한 판단 결과를 전자 장치(100)로 송신할 수 있다.The server 200 may transmit to the electronic device 100 a result of determining whether the user face image U-FI in the second user image U-I has liveness according to the face liveness value.

전자 장치(100)는 제2 사용자 이미지(U-I) 내의 사용자 안면 이미지(U-FI)의 라이브니스 여부에 대한 판단 결과가 라이브니스를 가짐을 나타내면, 제2 사용자 이미지(U-I) 내의 사용자 안면 이미지(U-FI)가 라이브니스를 가짐을 알리는 메시지를 출력할 수 있다.When the result of determining whether the user's face image (U-FI) in the second user image (U-I) has liveness indicates that the electronic device 100 has liveness, the electronic device 100 determines the user's face image in the second user image (U-I) ( U-FI) may output a message indicating that it has liveness.

또한, 전자 장치(100)는 제2 사용자 이미지(U-I) 내의 사용자 안면 이미지(U-FI)의 라이브니스 여부에 대한 판단 결과가 라이브니스를 가짐을 나타내면, 후속되는 신분증 이미지가 나타내는 안면과 제2 사용자 이미지가 나타내는 안면 간의 일치 여부를 판단하는 과정에서 요구되는 이미지, 데이터 및 값을 획득하거나 생성할 수 있다.In addition, when the result of determining whether the user's face image U-FI in the second user image U-I has liveness indicates that it has liveness, the electronic device 100 determines whether or not the user's face image U-FI in the second user image U-I has liveness. In the process of determining whether the faces represented by the user images match, required images, data, and values may be obtained or generated.

반대로, 전자 장치(100)는 제2 사용자 이미지(U-I) 내의 사용자 안면 이미지(U-FI)의 라이브니스 여부에 대한 판단 결과가 라이브니스를 가지지 않음을 나타내면, 제2 사용자 이미지(U-I) 내의 사용자 안면 이미지(U-FI)가 라이브니스를 가지지 않음을 알리는 메시지를 출력할 수 있다.Conversely, when the result of determining whether the user's face image U-FI in the second user image U-I has liveness indicates that it does not have liveness, the electronic device 100 determines whether or not the user's face image U-FI in the second user image U-I has liveness. A message indicating that the facial image U-FI does not have liveness may be output.

또한, 전자 장치(100)는 제2 사용자 이미지(U-I) 내의 사용자 안면 이미지(U-FI)의 라이브니스 여부에 대한 판단 결과가 라이브니스를 가지지 않음을 나타내면 사용자의 안면을 재촬영 요청하는 메시지를 출력하고, 사용자 안면 이미지(U-FI)가 포함된 제2 사용자 이미지(U-I)를 재촬영하며, 제2 안면 템플릿 데이터(U-FT)의 생성을 재수행하여 서버(200)로 송신할 수 있다.In addition, when the result of determining whether the user's face image U-FI in the second user image U-I has liveness indicates that it does not have liveness, the electronic device 100 sends a message requesting rephotographing of the user's face. output, the second user image U-I including the user face image U-FI is recaptured, and the second face template data U-FT is regenerated and transmitted to the server 200. .

한편, 도 4를 다시 참조하면, 전자 장치(100)는 상술된 신분증 진위 여부의 확인 결과, 진짜인 것으로 확인된 신분증(ID)의 신분증 이미지(ID-I) 내의 신분증 안면 이미지(ID-FI)로부터 복수의 제1 안면 특징점을 추출하고, 복수의 제1 안면 특징점으로 구성된 제1 안면 특징점 데이터를 생성할 수 있다.Meanwhile, referring to FIG. 4 again, the electronic device 100, as a result of verifying the authenticity of the above-described ID card, identifies the ID face image (ID-FI) in the ID image ID-I of the ID card ID confirmed to be genuine. A plurality of first facial feature points may be extracted from, and first facial feature point data composed of the plurality of first facial feature points may be generated.

여기서, 복수의 제1 안면 특징점은 신분증 안면 이미지(ID-FI)가 나타내는 안면의 특징에 대한 정보일 수 있다. 예를 들어, 복수의 제1 안면 특징점은 안면 세부 부위(눈꼬리, 입꼬리, 코끝 등) 각각의 좌표 정보, 각 좌표 정보에 대응되는 위치의 단위 이미지의 색상값, 각 좌표 정보에 대응되는 위치의 단위 이미지의 노출값, 각 좌표 정보의 변화값, 각 좌표 정보에 대응되는 이미지의 깊이값(카메라와 객체 간의 거리), 깊이값의 변화값, 색상값의 변화값, 노출값의 변화값을 포함할 수 있다.Here, the plurality of first facial feature points may be information about facial features indicated by the ID facial image (ID-FI). For example, the plurality of first facial feature points include coordinate information of each facial detail (eye corners, mouth corners, nose tip, etc.), color values of unit images at positions corresponding to each coordinate information, and unit positions corresponding to each coordinate information. It may include the exposure value of the image, the change value of each coordinate information, the depth value (distance between the camera and the object) of the image corresponding to each coordinate information, the change value of the depth value, the change value of the color value, and the change value of the exposure value. .

이를 위해, 전자 장치(100)는 사전에 학습된 3D 얼굴 기하 모델을 이용하여 신분증 안면 이미지(ID-FI)로부터 10,000개 이상의 안면 특징점을 추출할 수 있다.To this end, the electronic device 100 may extract 10,000 or more facial feature points from the ID facial image (ID-FI) using a 3D facial geometric model learned in advance.

전자 장치(100)는 제1 안면 특징점 데이터를 암호화 및 토큰화하여 제1 안면 템플릿 데이터를 생성할 수 있다.The electronic device 100 may generate first facial template data by encrypting and tokenizing the first facial feature point data.

이때, 전자 장치(100)는 암호화 처리 모듈을 이용하여 제1 안면 특징점 데이터를 암호화시켜 제1 안면 템플릿 데이터를 생성하거나, 토큰화 처리 모듈을 이용하여 제1 안면 특징점 데이터를 토큰화시켜 제1 안면 템플릿 데이터를 생성하거나, 암호화 처리 모듈을 이용하여 제1 안면 특징점 데이터를 암호화시킨 후 토큰화 처리 모듈을 이용하여 암호화된 제1 안면 특징점 데이터를 토큰화시켜 제1 안면 템플릿 데이터를 생성하거나, 토큰화 처리 모듈을 이용하여 제1 안면 특징점 데이터를 토큰화시킨 후 암호화 처리 모듈을 이용하여 토큰화된 제1 안면 특징점 데이터를 암호화시켜 제1 안면 템플릿 데이터를 생성할 수 있다.At this time, the electronic device 100 generates first facial template data by encrypting the first facial feature point data using an encryption processing module, or tokenizes the first facial feature point data using a tokenization processing module to create the first facial feature point data. Template data is generated, or the first facial feature point data is encrypted using the encryption processing module, and then the encrypted first facial feature point data is tokenized using the tokenization processing module to generate the first facial template data, or the first facial feature point data is tokenized. After tokenizing the first facial feature data using the processing module, first facial template data may be generated by encrypting the tokenized first facial feature data using the encryption processing module.

이후, 전자 장치(100)는 제1 안면 템플릿 데이터를 서버(200)로 송신할 수 있다.Then, the electronic device 100 may transmit the first face template data to the server 200 .

도 8은 본 개시의 일 실시예에 따른 서버가 인공지능 모델을 이용하여 두 안면 이미지 각각이 나타내는 안면 간의 안면 일치 값을 획득하는 과정을 설명하기 위한 도면이다.8 is a diagram for explaining a process in which a server obtains a facial matching value between faces represented by two facial images by using an artificial intelligence model according to an embodiment of the present disclosure.

서버(200)는 전자 장치(100)로부터 제1 안면 템플릿 데이터(ID-FT)를 수신하면, 수신된 제1 안면 템플릿 데이터(ID-FT)와 라이브니스를 가지는 것으로 판단된 제2 안면 템플릿 데이터(U-FT)를 제1 인공지능 모델(M1)에 입력하여, 신분증 안면 이미지(ID-FI)가 나타내는 안면 및 제2 사용자 안면 이미지(U-FI)가 나타내는 제2 안면 간에 안면 일치 값을 획득할 수 있다.When the server 200 receives the first face template data ID-FT from the electronic device 100, the second face template data determined to have liveness with the received first face template data ID-FT. (U-FT) is input into the first artificial intelligence model (M1) to determine the facial matching value between the face represented by the ID card facial image (ID-FI) and the second face represented by the second user facial image (U-FI). can be obtained

여기서, 안면 일치 여부는 두 안면 이미지가 각각 나타내는 안면이 동일한 안면인지를 나타내는 것으로써, 안면 일치 값은 두 안면 이미지가 각각 나타내는 안면이 동일한 정도를 나타내는 값일 수 있다.Here, the face match indicates whether the faces represented by the two face images are the same face, and the face match value may be a value indicating the degree to which the faces represented by the two face images are identical.

예를 들어, 안면 일치 값이 100%에 가까울수록 두 안면 이미지가 각각 나타내는 안면이 동일한 안면일 확률이 높음을 나타낼 수 있다.For example, the closer the face match value is to 100%, the higher the probability that the faces represented by the two face images are the same face.

반대로, 안면 일치 값이 0%에 가까울수록 두 안면 이미지가 각각 나타내는 안면이 동일하지 않은 안면일 확률이 높음을 나타낼 수 있다.Conversely, the closer the face match value is to 0%, the higher the probability that the faces represented by the two face images are unequal faces.

한편, 제1 인공지능 모델(M1)은 안면 이미지의 안면 일치 값을 결정하도록 훈련된 인공지능 모델일 수 있다.Meanwhile, the first artificial intelligence model M1 may be an artificial intelligence model trained to determine a face matching value of a face image.

이를 위해, 서버(200)는 안면 일치 값을 출력하는 제1 인공지능 모델을 훈련시키는 인공지능 훈련 모듈을 구비할 수 있다.To this end, the server 200 may include an artificial intelligence training module that trains a first artificial intelligence model that outputs a face matching value.

구체적으로, 서버(200)는 두 안면 이미지로부터 각각 생성된 안면 템플릿 데이터 및 두 안면 이미지에 대해 미리 정해진 안면 일치 값으로 구성된 학습 데이터를 이용하여 제1 인공지능 모델(M1)을 학습시킬 수 있다.Specifically, the server 200 may train the first artificial intelligence model M1 using face template data generated from two face images and training data composed of predetermined face match values for the two face images.

이를 통해, 서버(200)는 제1 인공지능 모델(M1)에 입력 데이터로써 제1 안면 템플릿 데이터(ID-FT) 및 제2 안면 템플릿 데이터(U-FT)를 입력하고, 제1 인공지능 모델(M1)의 출력 데이터로써 안면 일치 값을 획득할 수 있다.Through this, the server 200 inputs the first facial template data (ID-FT) and the second facial template data (U-FT) as input data to the first artificial intelligence model (M1), and the first artificial intelligence model (M1). As the output data of (M1), a face match value can be obtained.

서버(200)는 획득된 안면 일치 값이 기준 안면 일치 값을 초과하면 신분증 안면 이미지(ID-FI)가 나타내는 안면과 사용자 안면 이미지(U-FI)가 나타내는 안면이 동일 즉, 일치하는 것으로 판단할 수 있다.The server 200 determines that the face represented by the ID facial image (ID-FI) and the face represented by the user facial image (U-FI) are the same, that is, match when the obtained facial matching value exceeds the reference facial matching value. can

반대로, 서버(200)는 획득된 안면 일치 값이 기준 안면 일치 값을 초과하지 않으면 신분증 안면 이미지(ID-FI)가 나타내는 안면과 사용자 안면 이미지(U-FI)가 나타내는 안면이 동일하지 않는 즉, 불일치하는 것으로 판단할 수 있다.Conversely, the server 200 determines that if the obtained facial matching value does not exceed the reference facial matching value, the face represented by the ID facial image (ID-FI) and the face represented by the user facial image (U-FI) are not the same, that is, can be judged to be inconsistent.

서버(200)는 안면 일치 값에 따른 신분증 안면 이미지(ID-FI)가 나타내는 안면과 사용자 안면 이미지(U-FI)가 나타내는 안면 간의 일치 여부에 대한 판단 결과를 전자 장치(100)로 송신할 수 있다.The server 200 may transmit to the electronic device 100 a result of determining whether a face represented by an identification card facial image (ID-FI) matches a face represented by a user facial image (U-FI) according to a face matching value. there is.

전자 장치(100)는 안면 일치 값에 따른 신분증 안면 이미지(ID-FI)가 나타내는 안면과 사용자 안면 이미지(U-FI)가 나타내는 안면 간의 일치 여부에 대한 판단 결과를 메시지로 출력할 수 있다.The electronic device 100 may output as a message a result of determining whether the face represented by the ID facial image (ID-FI) and the face represented by the user's facial image (U-FI) match according to the facial matching value.

서버(200)는 안면 일치 값 및 안면 라이브니스 값에 기초하여 신분증의 신원이 사용자인지를 판단하는 사전 인증을 수행할 수 있다.The server 200 may perform pre-authentication to determine whether the identity of the ID card is a user based on the face matching value and the face liveness value.

또한, 서버(200)는 신분증 진위 정보에 더 기초하여 신분증의 신원이 사용자인지를 판단하는 사전 인증을 수행할 수 있다.In addition, the server 200 may perform pre-authentication to determine whether the identity of the ID card is a user based on authenticity information of the ID card.

구체적으로, 서버(200)는 촬영된 신분증이 신분증 발급 기관에서 발급된 신분증이며 위조 신분증이 아님이 확인되고, 제2 사용자 이미지의 사용자 안면 이미지가 라이브니스를 가지는 것으로 판단되고, 신분증 안면 이미지의 안면과 제2 사용자 이미지의 사용자 안면 이미지의 안면이 일치하는 것으로 판단되면 신분증의 신원이 사용자인 것으로 판단하여 사전 인증을 수행할 수 있다.Specifically, the server 200 confirms that the photographed ID is an ID issued by an ID issuing institution and is not a fake ID, determines that the user's face image of the second user image has liveness, and determines that the face of the ID card is the face of the ID. If it is determined that the face of the user's face image of the second user image matches the face of the user, the identity of the ID card is determined to be the user, and pre-authentication may be performed.

서버(200)는 수행된 사전 인증 결과를 전자 장치(100)로 송신하고, 전자 장치(100)는 수신된 사전 인증 결과를 메시지로 출력할 수 있다.The server 200 transmits the performed pre-authentication result to the electronic device 100, and the electronic device 100 may output the received pre-authentication result as a message.

또한, 서버(200)는 수행된 사전 인증 결과를 인증 요청 서버로 송신할 수 있다. 인증 요청 서버는 사용자에 대해 사전 인증을 요청한 주체가 운영하는 서버일 수 있다. 예를 들어, 인증 요청 서버는 금융사 서버일 수 있다.In addition, the server 200 may transmit the result of the pre-authentication to the authentication request server. The authentication request server may be a server operated by a subject who has requested pre-authentication for a user. For example, the authentication request server may be a financial company server.

이상에서, 본 발명의 일 면에 따른 화자 인증 및 안면 인증을 이용하여 비대면 본인 인증을 수행하는 시스템이 신분증 이미지를 이용하여 상술된 사전 인증을 직접 수행하는 과정에 대해 설명하였다.In the above, the process of directly performing the above-described pre-authentication using an ID image in the system for performing non-face-to-face authentication using speaker authentication and face authentication according to an aspect of the present invention has been described.

상술한 바와 같이, 본 발명의 일 면에 따른 화자 인증 및 안면 인증을 이용하여 비대면 본인 인증을 수행하는 시스템은 사전 인증을 직접 수행하거나 외부 서버로부터 사전 인증의 결과에 대해 수신할 수 있다.As described above, the system for performing non-face-to-face identity authentication using speaker authentication and facial authentication according to an aspect of the present invention may directly perform pre-authentication or receive a pre-authentication result from an external server.

S1 단계를 설명하면, 서버(200)는 상술된 과정을 통해 사용자에 대해 사전 인증이 완료되거나 사전 인증의 완료가 확인되면, 사전 인증이 완료된 사용자의 제2 사용자 이미지로부터 생성된 제2 안면 템플릿 데이터를 사용자의 계정에 등록할 수 있다.Describing step S1, when the pre-authentication of the user is completed through the above-described process or the completion of the pre-authentication is confirmed, the server 200 generates second face template data from the second user image of the pre-authenticated user. can be registered to the user's account.

즉, 서버(200)는 사전 인증을 수행하여 사전 인증이 완료되면, 사전 인증 과정에서 생성된 제2 안면 템플릿 데이터를 사용자의 계정에 등록할 수 있다.That is, when the pre-authentication is completed by performing the pre-authentication, the server 200 may register the second face template data generated in the pre-authentication process to the user's account.

다른 실시 예에 따르면, 서버(200)는 사전 인증을 직접 수행하지 않고 외부 서버로부터 사전 인증의 결과에 대해 수신하여 사용자에 대한 사전 인증의 완료가 확인되면, 서버(200)는 전자 장치(100)로 제2 안면 템플릿 데이터를 생성 요청하는 생성 요청 신호를 송신하고, 생성 요청 신호를 수신한 전자 장치(100)는 상술된 사전 인증 과정에서 제2 안면 템플릿 데이터를 생성하는 과정과 동일한 과정을 수행하여 제2 안면 템플릿 데이터를 생성 후, 서버(200)로 제2 템플릿 데이터를 송신하며, 서버(200)는 제2 안면 템플릿 데이터를 수신하여 사용자의 계정에 등록할 수 있다.According to another embodiment, the server 200 receives a result of the pre-authentication from an external server without directly performing the pre-authentication, and when the completion of the pre-authentication for the user is confirmed, the server 200 sends the electronic device 100 The electronic device 100, which transmits a generation request signal for requesting generation of second face template data and receives the generation request signal, performs the same process as the process of generating second face template data in the above-described pre-authentication process, After generating the second face template data, the second template data is transmitted to the server 200, and the server 200 may receive the second face template data and register it in the user's account.

이후, S2 단계를 설명하면, 서버(200)는 상술된 과정을 통해 사용자에 대해 사전 인증이 완료되거나 사전 인증의 완료가 확인되면, 사전 인증이 완료된 사용자의 제2 사용자 음성 데이터로부터 제2 음성 템플릿 데이터를 사용자의 계정에 등록할 수 있다.Subsequently, step S2 will be described. When the pre-authentication of the user is completed through the above-described process or the completion of the pre-authentication is confirmed, the server 200 obtains the second voice template from the second user voice data of the pre-authenticated user. Data can be registered to the user's account.

도 9 및 도 10은 본 개시의 일 실시예에 따른 전자 장치가 사용자 음성 데이터를 획득하는 모습에 대한 예시도이다.9 and 10 are exemplary diagrams of obtaining user voice data by an electronic device according to an embodiment of the present disclosure.

전자 장치(100)는 사전 인증이 완료된 이후, 디스플레이에 사용자가 사용자 자신의 음성을 녹음하도록 하는 녹음 UI를 출력하여, 사용자(U)가 자기 자신의 음성을 녹음하도록 할 수 있다.After the pre-authentication is completed, the electronic device 100 may output a recording UI on the display to allow the user U to record his/her own voice by outputting a recording UI on the display.

이때, 전자 장치(100)는 사용자가 특정 키워드(KEY)를 발화하여 사용자의 음성을 녹음하도록 유도할 수도 있고, 특정 키워드가 아닌 임의의 키워드를 발화하여 사용자의 음성을 녹음하도록 유도할 수도 있다. In this case, the electronic device 100 may induce the user to utter a specific keyword (KEY) to record the user's voice, or utter a certain keyword other than a specific keyword to record the user's voice.

이후, 전자 장치(100)는 사전 인증이 완료된 사용자의 음성을 녹음하여 생성된 제2 사용자 음성 데이터로부터 복수의 제2 음성 특징점을 추출하고, 복수의 제2 음성 특징점으로 구성된 제2 음성 특징점 데이터를 생성할 수 있다.Thereafter, the electronic device 100 extracts a plurality of second voice feature points from the second user voice data generated by recording the voice of the user whose pre-authentication has been completed, and generates second voice feature point data composed of the plurality of second voice feature points. can create

여기서, 복수의 제2 음성 특징점은 제2 사용자 음성 데이터가 나타내는 음성의 특징에 대한 정보일 수 있다. 예를 들어, 복수의 제2 음성 특징점은 음성의 주파수, 음성의 세기, 특정 키워드의 반복 빈도, 음성의 높낮이, 주파수 변화 패턴, 음성 높†F이 변화 패턴을 포함할 수 있다.Here, the plurality of second voice feature points may be information about voice characteristics represented by the second user voice data. For example, the plurality of second voice feature points may include voice frequency, voice strength, repetition frequency of a specific keyword, voice pitch, frequency change pattern, and voice pitch change pattern.

전자 장치(100)는 제2 음성 특징점 데이터를 암호화 및 토큰화하여 제2 음성 템플릿 데이터를 생성할 수 있다.The electronic device 100 may generate second voice template data by encrypting and tokenizing the second voice feature point data.

이때, 전자 장치(100)는 암호화 처리 모듈을 이용하여 제2 음성 특징점 데이터를 암호화시켜 제2 음성 템플릿 데이터를 생성하거나, 토큰화 처리 모듈을 이용하여 제2 음성 특징점 데이터를 토큰화시켜 제2 음성 템플릿 데이터를 생성하거나, 암호화 처리 모듈을 이용하여 제2 음성 특징점 데이터를 암호화시킨 후 토큰화 처리 모듈을 이용하여 암호화된 제2 음성 특징점 데이터를 토큰화시켜 제2 음성 템플릿 데이터를 생성하거나, 토큰화 처리 모듈을 이용하여 제2 음성 특징점 데이터를 토큰화시킨 후 암호화 처리 모듈을 이용하여 토큰화된 제2 음성 특징점 데이터를 암호화시켜 제2 음성 템플릿 데이터를 생성할 수 있다.At this time, the electronic device 100 generates second voice template data by encrypting the second voice feature point data using the encryption processing module, or tokenizes the second voice feature point data using the tokenization processing module to generate the second voice feature point data. Template data is generated, or the second voice feature point data is encrypted using the encryption processing module, and then the encrypted second voice feature point data is tokenized using the tokenization processing module to generate the second voice template data, or the second voice feature point data is tokenized. After tokenizing the second voice feature point data using the processing module, second voice template data may be generated by encrypting the tokenized second voice feature point data using the encryption processing module.

이후, 전자 장치(100)는 제2 음성 템플릿 데이터를 서버(200)로 송신할 수 있다.Then, the electronic device 100 may transmit second voice template data to the server 200 .

상술된 바와 같이, 서버(200)는 상술된 과정을 통해 사용자에 대해 사전 인증이 완료되거나 사전 인증의 완료가 확인되면, 전자 장치(100)로부터 사전 인증이 완료된 사용자의 제2 사용자 음성 데이터로부터 제2 음성 템플릿 데이터를 생성하여 사용자의 계정에 등록할 수 있다.As described above, when the pre-authentication of the user is completed or the completion of the pre-authentication is confirmed through the above-described process, the server 200 obtains information from the second user voice data of the pre-authenticated user from the electronic device 100. 2 Voice template data can be created and registered in the user's account.

S3 단계를 설명하면, 전자 장치(100)는 사전 인증이 완료되거나 사전 인증의 완료가 확인된 사용자에 대해 안면 인증을 수행하기 위해, 사용자 인증의 대상이 되는 사용자를 촬영하여 제1 사용자 이미지를 획득할 수 있다.Describing step S3, the electronic device 100 acquires a first user image by photographing a user who is subject to user authentication in order to perform face authentication on a user for whom pre-authentication has been completed or completion of pre-authentication has been confirmed. can do.

이때, 사전 인증 과정 동안 또는 사전 인증의 완료가 확인된 이후에 획득된 제2 사용자 이미지와 사용자 인증을 위해 획득된 제1 사용자 이미지는 촬영 시점이 상이한 다른 이미지일 수 있으나, 제1 사용자 이미지 및 제2 사용자 이미지 모두 사용자를 촬영하여 획득되는 이미지로써, 생성 및 획득되는 과정이 동일할 수 있다.In this case, the second user image acquired during the pre-authentication process or after the completion of the pre-authentication is confirmed and the first user image obtained for user authentication may be different images at different photographing times, but the first user image and the first user image may be different from each other. Both of the two user images are images obtained by photographing the user, and the process of generating and acquiring them may be the same.

제1 사용자 이미지를 획득하기 위하여, 전자 장치(100)는 디스플레이에 사용자가 사용자 자신을 촬영하도록 하는 사용자 촬영 UI를 출력하여, 사용자(U)가 자기 자신을 촬영하도록 할 수 있다.In order to obtain the first user image, the electronic device 100 may output a user photographing UI to the display to allow the user U to photograph himself.

이때, 전자 장치(100)는 사용자가 특정 포즈 및 특정 표정을 취하도록 유도하지 않고 임의의 포즈 및 임의의 표정을 취한 사용자를 촬영하여 패시브 라이브니스 여부를 판단할 수 있다. In this case, the electronic device 100 may determine passive liveness by photographing a user taking a specific pose and facial expression without inducing the user to take a specific pose and facial expression.

이후, 전자 장치(100)는 사용자 인증을 위해 사용자를 촬영하여 생성된 제1 사용자 이미지(U-I) 내의 사용자 안면 이미지(U-FI)로부터 복수의 제3 안면 특징점을 추출하고, 복수의 제3 안면 특징점으로 구성된 제3 안면 특징점 데이터를 생성할 수 있다.Thereafter, the electronic device 100 extracts a plurality of third facial feature points from the user facial image U-FI in the first user image U-I generated by photographing the user for user authentication, and extracts a plurality of third facial feature points. Third facial feature point data composed of feature points may be generated.

여기서, 복수의 제3안면 특징점은 제1 사용자 안면 이미지(U-FI)가 나타내는 안면의 특징에 대한 정보일 수 있다. 예를 들어, 복수의 제3 안면 특징점은 안면 세부 부위(눈꼬리, 입꼬리, 코끝 등) 각각의 좌표 정보, 각 좌표 정보의 변화값, 각 좌표 정보에 대응되는 이미지의 깊이값(카메라와 객체 간의 거리) 및 깊이값의 변화값을 포함할 수 있다.Here, the plurality of third facial feature points may be information about facial features represented by the first user facial image U-FI. For example, the plurality of third facial feature points include coordinate information of each facial detail (corner of the eye, corner of the mouth, tip of the nose, etc.), a change value of each coordinate information, and a depth value of the image corresponding to each coordinate information (the distance between the camera and the object). ) and a change value of the depth value.

이를 위해, 전자 장치(100)는 사전에 학습된 3D 얼굴 기하 모델을 이용하여 사용자 안면 이미지(U-FI)로부터 10,000개 이상의 안면 특징점을 추출할 수 있다.To this end, the electronic device 100 may extract 10,000 or more facial feature points from the user's facial image U-FI by using a previously learned 3D facial geometric model.

전자 장치(100)는 제3 안면 특징점 데이터를 암호화 및 토큰화하여 제3 안면 템플릿 데이터를 생성할 수 있다.The electronic device 100 may generate third facial template data by encrypting and tokenizing the third facial feature point data.

이때, 전자 장치(100)는 암호화 처리 모듈을 이용하여 제3 안면 특징점 데이터를 암호화시켜 제3 안면 템플릿 데이터를 생성하거나, 토큰화 처리 모듈을 이용하여 제3 안면 특징점 데이터를 토큰화시켜 제3 안면 템플릿 데이터를 생성하거나, 암호화 처리 모듈을 이용하여 제3 안면 특징점 데이터를 암호화시킨 후 토큰화 처리 모듈을 이용하여 암호화된 제3 안면 특징점 데이터를 토큰화시켜 제3 안면 템플릿 데이터를 생성하거나, 토큰화 처리 모듈을 이용하여 제3 안면 특징점 데이터를 토큰화시킨 후 암호화 처리 모듈을 이용하여 토큰화된 제3 안면 특징점 데이터를 암호화시켜 제3 안면 템플릿 데이터를 생성할 수 있다.In this case, the electronic device 100 generates third facial template data by encrypting the third facial feature point data using an encryption processing module, or tokenizes the third facial feature point data using a tokenization processing module to create a third facial feature point data. Template data is generated, or the third facial feature point data is encrypted using the encryption processing module, and then the encrypted third facial feature point data is tokenized using the tokenization processing module to generate the third facial template data, or the third facial feature point data is tokenized. After tokenizing the third facial feature data using the processing module, third facial template data may be generated by encrypting the tokenized third facial feature data using the encryption processing module.

이후, 전자 장치(100)는 제3 안면 템플릿 데이터를 서버(200)로 송신할 수 있다.Then, the electronic device 100 may transmit third face template data to the server 200 .

이어서, 서버(200)는 전자 장치(100)로부터 제3 안면 템플릿 데이터(U-FT)를 수신하면, 제2 인공지능 모델(M2)에 제3 안면 템플릿 데이터(U-FT)를 입력하여, 제1 사용자 이미지(U-I) 내의 사용자 안면 이미지(U-FI)의 안면 라이브니스 값을 획득할 수 있다.Then, upon receiving the third facial template data (U-FT) from the electronic device 100, the server 200 inputs the third facial template data (U-FT) to the second artificial intelligence model (M2), A facial liveness value of the user face image U-FI in the first user image U-I may be obtained.

서버(200)는 획득된 안면 라이브니스 값이 기준 안면 라이브니스 값을 초과하면 제1 사용자 이미지(U-I) 내의 사용자 안면 이미지(U-FI)가 실제 사용자로부터 촬영된 이미지인 것으로 판단하여 제1 사용자 이미지(U-I) 내의 사용자 안면 이미지(U-FI)가 라이브니스를 가지는 것으로 판단할 수 있다.When the obtained facial liveness value exceeds the reference facial liveness value, the server 200 determines that the user facial image U-FI in the first user image U-I is an image taken from an actual user, and determines that the first user face image U-FI is an image taken from a real user. It may be determined that the user face image U-FI in the image U-I has liveness.

반대로, 서버(200)는 획득된 안면 라이브니스 값이 기준 안면 라이브니스 값을 초과하지 않으면 제1 사용자 이미지(U-I) 내의 사용자 안면 이미지(U-FI)가 실제 사용자로부터 촬영된 이미지가 아닌 것으로 판단하여 제1 사용자 이미지(U-I) 내의 사용자 안면 이미지(U-FI)가 라이브니스를 가지는 않는 것으로 판단할 수 있다.Conversely, if the obtained facial liveness value does not exceed the reference facial liveness value, the server 200 determines that the user facial image U-FI in the first user image U-I is not an image taken from an actual user. Accordingly, it may be determined that the user face image U-FI in the first user image U-I does not have liveness.

서버(200)는 안면 라이브니스 값에 따른 제1 사용자 이미지(U-I) 내의 사용자 안면 이미지(U-FI)의 라이브니스 여부에 대한 판단 결과를 전자 장치(100)로 송신할 수 있다.The server 200 may transmit to the electronic device 100 a result of determining whether the user face image U-FI in the first user image U-I has liveness according to the face liveness value.

전자 장치(100)는 제1 사용자 이미지(U-I) 내의 사용자 안면 이미지(U-FI)의 라이브니스 여부에 대한 판단 결과가 라이브니스를 가짐을 나타내면, 제1 사용자 이미지(U-I) 내의 사용자 안면 이미지(U-FI)가 라이브니스를 가짐을 알리는 메시지를 출력할 수 있다.The electronic device 100 determines whether the user's face image (U-FI) in the first user image (U-I) has liveness, if the determination result indicates that the user's face image (U-FI) has liveness, the user's face image in the first user image (U-I) ( U-FI) may output a message indicating that it has liveness.

또한, 전자 장치(100)는 제1 사용자 이미지(U-I) 내의 사용자 안면 이미지(U-FI)의 라이브니스 여부에 대한 판단 결과가 라이브니스를 가짐을 나타내면, 후속되는 제1 사용자 이미지(U-I)와 제2 사용자 이미지(U-I) 각각이 나타내는 안면 간의 일치 여부를 판단하는 과정에서 요구되는 이미지, 데이터 및 값을 획득하거나 생성할 수 있다.In addition, when the result of determining whether the user face image U-FI in the first user image U-I has liveness indicates that it has liveness, the electronic device 100 determines whether the first user image U-I and the subsequent first user image U-I have liveness. In a process of determining whether the faces represented by each of the second user images U-I match, required images, data, and values may be obtained or generated.

반대로, 전자 장치(100)는 제1 사용자 이미지(U-I) 내의 사용자 안면 이미지(U-FI)의 라이브니스 여부에 대한 판단 결과가 라이브니스를 가지지 않음을 나타내면, 제1 사용자 이미지(U-I) 내의 사용자 안면 이미지(U-FI)가 라이브니스를 가지지 않음을 알리는 메시지를 출력할 수 있다.Conversely, the electronic device 100 determines whether the user's facial image U-FI in the first user image U-I has liveness or not, when the result of determining whether or not the user's face image U-FI in the first user image U-I has no liveness indicates that the user in the first user image U-I has no liveness. A message indicating that the facial image U-FI does not have liveness may be output.

또한, 전자 장치(100)는 제1 사용자 이미지(U-I) 내의 사용자 안면 이미지(U-FI)의 라이브니스 여부에 대한 판단 결과가 라이브니스를 가지지 않음을 나타내면 사용자의 안면을 재촬영 요청하는 메시지를 출력하고, 사용자 안면 이미지(U-FI)가 포함된 제1 사용자 이미지(U-I)를 재촬영하며, 제3 안면 템플릿 데이터(U-FT)의 생성을 재수행하여 서버(200)로 송신할 수 있다.In addition, the electronic device 100 sends a message requesting rephotographing of the user's face when a result of determining whether the user's face image U-FI in the first user image U-I has liveness indicates that the user's face image U-FI does not have liveness. output, the first user image U-I including the user face image U-FI is recaptured, and the third face template data U-FT is generated again and transmitted to the server 200. .

서버(200)는 전자 장치(100)로부터 제3 안면 템플릿 데이터(U-FT)를 수신하면, 수신된 제3 안면 템플릿 데이터(U-FT)와 사용자 계정에 등록된 제2 안면 템플릿 데이터(U-FT)를 제1 인공지능 모델(M1)에 입력하여, 제1 사용자 이미지 및 제2 사용자 이미지 각각 내의 사용자 안면 이미지 각각이 나타내는 안면 간에 안면 일치 값을 획득할 수 있다.When the server 200 receives the third facial template data U-FT from the electronic device 100, the server 200 receives the third facial template data U-FT and the second facial template data U-FT registered in the user account (U-FT). -FT) may be input to the first artificial intelligence model M1 to obtain a face matching value between faces represented by each user face image in each of the first user image and the second user image.

서버(200)는 획득된 안면 일치 값이 기준 안면 일치 값을 초과하면 제1 사용자 이미지 및 제2 사용자 이미지 각각 내의 사용자 안면 이미지 각각이 나타내는 안면이 동일 즉, 일치하는 것으로 판단하고, 안면 인증을 완료처리할 수 있다.When the obtained facial matching value exceeds the reference facial matching value, the server 200 determines that the faces represented by each of the user face images in each of the first user image and the second user image are the same, that is, they match, and completes face authentication. can be dealt with

반대로, 서버(200)는 획득된 안면 일치 값이 기준 안면 일치 값을 초과하지 않으면 제1 사용자 이미지 및 제2 사용자 이미지 각각 내의 사용자 안면 이미지 각각이 나타내는 안면이 동일하지 않는 즉, 불일치하는 것으로 판단할 수 있다.Conversely, if the obtained face matching value does not exceed the reference face matching value, the server 200 determines that the faces represented by the respective user face images in the first user image and the second user image are not the same, that is, do not match. can

서버(200)는 제1 사용자 이미지의 안면 라이브니스 값이 기준 안면 라이브니스 값을 초과하고, 제1 사용자 이미지 및 제2 사용자 이미지 각각의 안면 간에 안면 일치 값이 기준 안면 일치 값을 초과하는 경우, 안면이 인증된 것으로 안면 인증을 완료처리할 수 있다.The server 200 determines whether the face liveness value of the first user image exceeds the reference face liveness value and the face match value between the faces of the first user image and the second user image exceeds the reference face match value; When the face is authenticated, face authentication may be completed.

안면 인증의 결과를 전자 장치(100)로 송신할 수 있다.A result of facial authentication may be transmitted to the electronic device 100 .

전자 장치(100)는 안면 인증의 결과를 메시지로 출력할 수 있다.The electronic device 100 may output a result of facial authentication as a message.

S4 단계를 설명하면, 전자 장치(100)는 사전 인증이 완료되거나 사전 인증의 완료가 확인된 사용자에 대해 화자 인증을 수행하기 위해, 사용자 인증의 대상이 되는 사용자의 제1 사용자 음성 데이터를 획득할 수 있다.Describing step S4, the electronic device 100 acquires first user voice data of a user subject to user authentication in order to perform speaker authentication on a user whose pre-authentication has been completed or has been confirmed. can

이를 위해, 전자 장치(100)는 디스플레이에 사용자가 사용자 자신의 음성을 녹음하도록 하는 녹음 UI를 출력하여, 사용자(U)가 자기 자신의 음성을 녹음하도록 할 수 있다.To this end, the electronic device 100 may output a recording UI on the display to allow the user U to record his or her own voice, thereby enabling the user U to record his or her own voice.

이때, 전자 장치(100)는 사용자가 특정 키워드(KEY)를 발화하여 사용자의 음성을 녹음하도록 유도할 수도 있고, 특정 키워드가 아닌 임의의 키워드를 발화하여 사용자의 음성을 녹음하도록 유도할 수도 있다. In this case, the electronic device 100 may induce the user to utter a specific keyword (KEY) to record the user's voice, or utter a certain keyword other than a specific keyword to record the user's voice.

이후, 전자 장치(100)는 사전 인증이 완료된 사용자의 음성을 녹음하여 생성된 제1 사용자 음성 데이터로부터 복수의 제1 음성 특징점을 추출하고, 복수의 제1 음성 특징점으로 구성된 제1 음성 특징점 데이터를 생성할 수 있다.Thereafter, the electronic device 100 extracts a plurality of first voice feature points from first user voice data generated by recording the voice of a user whose pre-authentication has been completed, and extracts first voice feature point data composed of the plurality of first voice feature points. can create

여기서, 복수의 제1 음성 특징점은 제1 사용자 음성 데이터가 나타내는 음성의 특징에 대한 정보일 수 있다. 예를 들어, 복수의 제1 음성 특징점은 음성의 주파수, 음성의 세기, 특정 키워드의 반복 빈도, 음성의 높낮이, 주파수 변화 패턴, 음성 높†F이 변화 패턴을 포함할 수 있다.Here, the plurality of first voice feature points may be information about voice characteristics represented by the first user voice data. For example, the plurality of first voice feature points may include voice frequency, voice strength, repetition frequency of a specific keyword, voice pitch, frequency change pattern, and voice pitch change pattern.

전자 장치(100)는 제1 음성 특징점 데이터를 암호화 및 토큰화하여 제1 음성 템플릿 데이터를 생성할 수 있다.The electronic device 100 may generate first voice template data by encrypting and tokenizing the first voice feature point data.

이때, 전자 장치(100)는 암호화 처리 모듈을 이용하여 제1 음성 특징점 데이터를 암호화시켜 제1 음성 템플릿 데이터를 생성하거나, 토큰화 처리 모듈을 이용하여 제1 음성 특징점 데이터를 토큰화시켜 제1 음성 템플릿 데이터를 생성하거나, 암호화 처리 모듈을 이용하여 제1 음성 특징점 데이터를 암호화시킨 후 토큰화 처리 모듈을 이용하여 암호화된 제1 음성 특징점 데이터를 토큰화시켜 제1 음성 템플릿 데이터를 생성하거나, 토큰화 처리 모듈을 이용하여 제1 음성 특징점 데이터를 토큰화시킨 후 암호화 처리 모듈을 이용하여 토큰화된 제1 음성 특징점 데이터를 암호화시켜 제1 음성 템플릿 데이터를 생성할 수 있다.At this time, the electronic device 100 generates first voice template data by encrypting the first voice feature point data using an encryption processing module, or tokenizes the first voice feature point data using a tokenization processing module to generate the first voice feature point data. Template data is generated, or the first voice feature point data is encrypted using the encryption processing module, and then the encrypted first voice feature point data is tokenized using the tokenization processing module to generate the first voice template data, or the first voice template data is tokenized. First voice template data may be generated by tokenizing the first voice feature point data using the processing module and then encrypting the tokenized first voice feature point data using the encryption processing module.

이후, 전자 장치(100)는 제1 음성 템플릿 데이터를 서버(200)로 송신할 수 있다.Then, the electronic device 100 may transmit the first voice template data to the server 200 .

도 11은 본 개시의 일 실시예에 따른 서버가 인공지능 모델을 이용하여 사용자 음성 데이터에 대한 음성 라이브니스 값을 획득하는 과정을 설명하기 위한 도면이다.11 is a diagram for explaining a process in which a server obtains a voice liveness value for user voice data using an artificial intelligence model according to an embodiment of the present disclosure.

도 11을 더 참조하면, 서버(200)는 전자 장치(100)로부터 제1 음성 템플릿 데이터(VT1)를 수신하면, 제4 인공지능 모델(M4)에 제1 음성 템플릿 데이터(VT1)를 입력하여, 제1 사용자 음성 데이터의 음성 라이브니스 값을 획득할 수 있다.11, when receiving the first voice template data VT1 from the electronic device 100, the server 200 inputs the first voice template data VT1 to the fourth artificial intelligence model M4, , a voice liveness value of the first user voice data may be obtained.

여기서, 음성 데이터에 대한 라이브니스 여부는 음성 데이터가 실제 대상으로부터 획득된 음성 데이터인지를 나타내는 것으로써, 라이브니스 값은 실제 대상으로부터 음성 데이터가 획득되었을 확률을 나타내는 값일 수 있다.Here, the liveness of the voice data indicates whether the voice data is obtained from a real object, and the liveness value may be a value indicating a probability that the voice data is obtained from the real object.

이에 따라, 음성 라이브니스 값은 해당 음성 템플릿 데이터에 대응되는 음성 데이터가 실제 대상(사용자)으로부터 획득되었을 확률을 나타내는 값일 수 있다.Accordingly, the voice liveness value may be a value representing a probability that voice data corresponding to the corresponding voice template data is acquired from an actual subject (user).

예를 들어, 음성 라이브니스 값이 100%에 가까울수록 해당 음성 템플릿 데이터에 대응되는 음성 데이터가 실제 대상(사용자)으로부터 획득되었을 확률이 높음을 나타낼 수 있다.For example, the closer the voice liveness value is to 100%, the higher the probability that voice data corresponding to the corresponding voice template data is acquired from a real object (user).

반대로, 음성 라이브니스 값이 0%에 가까울수록 해당 음성 템플릿 데이터에 대응되는 음성 데이터가 실제 대상(사용자)이 아닌 사용자 음성이 미리 녹음된 영상 또는 음향 등으로부터 획득되었을 확률이 높음을 나타낼 수 있다.Conversely, the closer the voice liveness value is to 0%, the higher the probability that the voice data corresponding to the corresponding voice template data is obtained from a pre-recorded image or sound rather than a real object (user).

한편, 제4 인공지능 모델(M4)은 사용자 음성 데이터의 음성 라이브니스 값을 결정하도록 훈련된 인공지능 모델일 수 있다.Meanwhile, the fourth artificial intelligence model M4 may be an artificial intelligence model trained to determine a voice liveness value of user voice data.

이를 위해, 서버(200)는 음성 라이브니스 값을 출력하는 제4 인공지능 모델을 훈련시키는 인공지능 훈련 모듈을 구비할 수 있다.To this end, the server 200 may include an artificial intelligence training module for training a fourth artificial intelligence model that outputs a voice liveness value.

구체적으로, 서버(200)는 사용자 음성 데이터로부터 생성된 음성 템플릿 데이터 및 음성 템플릿 데이터에 대해 미리 정해진 음성 라이브니스 값으로 구성된 학습 데이터를 이용하여 제4 인공지능 모델(M4)을 학습시킬 수 있다.Specifically, the server 200 may train the fourth artificial intelligence model M4 using training data composed of voice template data generated from user voice data and voice liveness values predetermined for the voice template data.

이를 통해, 서버(200)는 제4 인공지능 모델(M4)에 입력 데이터로써 제1 음성 템플릿 데이터(VT1)를 입력하고, 제4 인공지능 모델(M4)의 출력 데이터로써 음성 라이브니스 값을 획득할 수 있다.Through this, the server 200 inputs the first voice template data VT1 as input data to the fourth artificial intelligence model M4, and obtains a voice liveness value as output data of the fourth artificial intelligence model M4. can do.

서버(200)는 획득된 음성 라이브니스 값이 기준 음성 라이브니스 값을 초과하면 제1 사용자 음성 데이터가 실제 사용자로부터 녹음되어 생성된 음성 데이터인 것으로 판단하여 제1 사용자 음성 데이터가 라이브니스를 가지는 것으로 판단할 수 있다.If the obtained voice liveness value exceeds the reference voice liveness value, the server 200 determines that the first user voice data is voice data generated by recording from a real user, and determines that the first user voice data has liveness. can judge

반대로, 서버(200)는 획득된 음성 라이브니스 값이 기준 음성 라이브니스 값을 초과하지 않으면 제1 사용자 음성 데이터가 실제 사용자로부터 녹음되어 생성된 음성 데이터가 아닌 것으로 판단하여 제1 사용자 음성 데이터가 라이브니스를 가지는 않는 것으로 판단할 수 있다.Conversely, if the obtained voice liveness value does not exceed the reference voice liveness value, the server 200 determines that the first user voice data is not voice data generated by recording from a real user, and determines that the first user voice data is live. It can be judged that it does not have varnish.

서버(200)는 음성 라이브니스 값에 따른 제1 사용자 음성 데이터의 라이브니스 여부에 대한 판단 결과를 전자 장치(100)로 송신할 수 있다.The server 200 may transmit to the electronic device 100 a result of determining whether the first user's voice data has liveness according to the voice liveness value.

전자 장치(100)는 제1 사용자 음성 데이터의 라이브니스 여부에 대한 판단 결과가 라이브니스를 가짐을 나타내면, 제1 사용자 음성 데이터가 라이브니스를 가짐을 알리는 메시지를 출력할 수 있다.When the result of determining whether the first user voice data has liveness indicates that the first user voice data has liveness, the electronic device 100 may output a message informing that the first user voice data has liveness.

또한, 전자 장치(100)는 제1 사용자 음성 데이터의 라이브니스 여부에 대한 판단 결과가 라이브니스를 가짐을 나타내면, 화자 인증 과정에서 요구되는 데이터 및 값을 획득하거나 생성할 수 있다.In addition, when the result of determining whether the first user's voice data has liveness indicates that it has liveness, the electronic device 100 may obtain or generate data and values required in the speaker authentication process.

반대로, 전자 장치(100)는 제1 사용자 음성 데이터의 라이브니스 여부에 대한 판단 결과가 라이브니스를 가지지 않음을 나타내면, 제1 사용자 음성 데이터가 라이브니스를 가지지 않음을 알리는 메시지를 출력할 수 있다.Conversely, if the result of determining whether the first user's voice data has liveness indicates that it does not have liveness, the electronic device 100 may output a message informing that the first user's voice data does not have liveness.

또한, 전자 장치(100)는 제1 사용자 음성 데이터의 라이브니스 여부에 대한 판단 결과가 라이브니스를 가지지 않음을 나타내면 사용자의 음성을 재녹음 요청하는 메시지를 출력하고, 사용자의 음성을 재녹음하며, 제1 음성 템플릿 데이터(VT1)의 생성을 재수행하여 서버(200)로 송신할 수 있다.In addition, if the result of determining whether the first user's voice data has liveness indicates that it does not have liveness, the electronic device 100 outputs a message requesting re-recording of the user's voice and re-records the user's voice; Generation of the first voice template data VT1 may be performed again and transmitted to the server 200 .

도 12는 본 개시의 일 실시예에 따른 서버가 인공지능 모델을 이용하여 두 음성 각각의 화자 간의 화자 일치 값을 획득하는 과정을 설명하기 위한 도면이다.12 is a diagram for explaining a process in which a server obtains a speaker matching value between speakers of each of two voices using an artificial intelligence model according to an embodiment of the present disclosure.

S4 단계를 설명하면, 서버(200)는 전자 장치(100)로부터 제1 음성 템플릿 데이터(VT1)를 수신하면, 수신된 제1 음성 템플릿 데이터(VT1)와 사용자의 계정에 등록된 제2 음성 템플릿 데이터(VT2)를 제3 인공지능 모델(M3)에 입력하여, 제1 사용자 음성 데이터의 화자와 제2 사용자 음성 데이터의 화자 간에 화자 일치 값을 획득할 수 있다.In step S4, when the server 200 receives the first voice template data VT1 from the electronic device 100, the received first voice template data VT1 and the second voice template registered in the user's account. By inputting the data VT2 to the third artificial intelligence model M3, a speaker matching value between a speaker of the first user voice data and a speaker of the second user voice data may be obtained.

여기서, 화자 일치 여부는 두 사용자 음성 데이터 각각의 화자가 동일한 화자인지를 나타내는 것으로써, 화자 일치 값은 두 사용자 음성 데이터 각각의 화자가 동일한 정도를 나타내는 값일 수 있으며, 화자 인증이 완료됨이란 사용자 계정에 등록된 제2 음성 템플릿 데이터(VT2)에 대응되는 화자와 제1 음성 템플릿 데이터(VT1)에 대응되는 화자가 동일한 것으로 판단됨을 의미할 수 있다.Here, speaker matching indicates whether the speakers of each of the two user voice data are the same speaker. The speaker matching value may be a value indicating the degree to which the speakers of the two user voice data are identical, and speaker authentication is completed. It may mean that the speaker corresponding to the second voice template data VT2 registered in and the speaker corresponding to the first voice template data VT1 are determined to be the same.

예를 들어, 화자 일치 값이 100%에 가까울수록 두 사용자 음성 데이터 각각의 화자가 동일한 화자일 확률이 높음을 나타낼 수 있다.For example, the closer the speaker matching value is to 100%, the higher the probability that the speakers of the two user voice data are the same speaker.

반대로, 화자 일치 값이 0%에 가까울수록 두 사용자 음성 데이터 각각의 화자가 동일하지 않은 화자일 확률이 높음을 나타낼 수 있다.Conversely, the closer the speaker matching value is to 0%, the higher the probability that the speakers of the two user voice data are different speakers.

한편, 제3 인공지능 모델(M3)은 두 사용자 음성 데이터 간의 화자 일치 값을 결정하도록 훈련된 인공지능 모델일 수 있다.Meanwhile, the third artificial intelligence model M3 may be an artificial intelligence model trained to determine a speaker matching value between two user voice data.

이를 위해, 서버(200)는 화자 일치 값을 출력하는 제3 인공지능 모델을 훈련시키는 인공지능 훈련 모듈을 구비할 수 있다.To this end, the server 200 may include an artificial intelligence training module that trains a third artificial intelligence model that outputs speaker matching values.

구체적으로, 서버(200)는 두 사용자 음성 데이터로부터 각각 생성된 화자 템플릿 데이터 및 두 사용자 음성 데이터에 대해 미리 정해진 화자 일치 값으로 구성된 학습 데이터를 이용하여 제3 인공지능 모델(M3)을 학습시킬 수 있다.Specifically, the server 200 may train the third artificial intelligence model M3 using speaker template data generated from two user voice data and learning data composed of speaker matching values predetermined for the two user voice data. there is.

이를 통해, 서버(200)는 제3 인공지능 모델(M3)에 입력 데이터로써 제1 음성 템플릿 데이터(VT1) 및 제2 음성 템플릿 데이터(VT2)를 입력하고, 제3 인공지능 모델(M3)의 출력 데이터로써 화자 일치 값을 획득할 수 있다.Through this, the server 200 inputs the first voice template data VT1 and the second voice template data VT2 as input data to the third artificial intelligence model M3, and the third artificial intelligence model M3 A speaker matching value may be obtained as output data.

서버(200)는 획득된 화자 일치 값이 기준 화자 일치 값을 초과하면 제1 사용자 음성 데이터의 화자와 제2 사용자 음성 데이터의 화자가 동일 즉, 일치하는 것으로 판단할 수 있다.If the acquired speaker matching value exceeds the reference speaker matching value, the server 200 may determine that the speaker of the first user voice data and the speaker of the second user voice data are the same, that is, they match.

반대로, 서버(200)는 획득된 화자 일치 값이 기준 화자 일치 값을 초과하지 않으면 제1 사용자 음성 데이터의 화자와 제2 사용자 음성 데이터의 화자가 동일하지 않는 즉, 불일치하는 것으로 판단할 수 있다.Conversely, if the acquired speaker matching value does not exceed the reference speaker matching value, the server 200 may determine that the speaker of the first user voice data and the speaker of the second user voice data are not the same, that is, they do not match.

서버(200)는 음성 라이브니스 값이 기준 음성 라이브니스 값을 초과하고, 화자 일치 값이 기준 화자 일치 값을 초과하는 경우, 화자가 인증된 것으로 화자인증을 완료 처리할 수 있다.When the voice liveness value exceeds the reference voice liveness value and the speaker matching value exceeds the reference speaker matching value, the server 200 may conclude that the speaker is authenticated and complete speaker authentication.

서버(200)는 화자 인증의 결과를 전자 장치(100)로 송신할 수 있다.The server 200 may transmit a speaker authentication result to the electronic device 100 .

전자 장치(100)는 화자 인증의 결과를 메시지로 출력할 수 있다.The electronic device 100 may output a speaker authentication result as a message.

S5 단계를 설명하면, 서버(200)는 안면 인증 및 화자 인증이 모두 완료되는 경우 사용자 인증을 완료처리할 수 있다.Describing step S5, the server 200 may complete user authentication when face authentication and speaker authentication are both completed.

서버(200)는 사용자 인증의 완료처리를 전자 장치(100) 및 인증 요청 서버로 송신할 수 있다. 인증 요청 서버는 사용자에 대해 사용자 인증을 요청한 주체가 운영하는 서버일 수 있다. 예를 들어, 인증 요청 서버는 금융사 서버일 수 있다.The server 200 may transmit the user authentication completion process to the electronic device 100 and the authentication request server. The authentication request server may be a server operated by a subject who has requested user authentication for a user. For example, the authentication request server may be a financial company server.

한편, 다른 실시 예에 따른 전자 장치(100)는 사용자 인증을 시도하는 사용자의 위치 정보를 획득하고, 획득된 사용자의 위치 정보를 서버(200)로 송신할 수 있다.Meanwhile, the electronic device 100 according to another embodiment may acquire location information of a user attempting user authentication and transmit the obtained location information of the user to the server 200 .

이후, 다른 실시 예에 따른 서버(100)는 신분증 정보 중에서 주소 정보가 나타내는 주소의 위치에 대응되는 국가 정보를 확인할 수 있다.Thereafter, the server 100 according to another embodiment may check country information corresponding to the location of the address indicated by the address information among ID information.

이후, 다른 실시 예에 따른 서버(100)는 위치 정보가 나타내는 사용자의 위치가 국가 정보가 나타내는 국가 내에 포함되는지 여부를 판단할 수 있다.Then, the server 100 according to another embodiment may determine whether the location of the user indicated by the location information is included in the country indicated by the country information.

이를 위해, 다른 실시 예에 따른 서버(100)는 국가 별 영역 정보 및 국가 별 주소 정보를 미리 참조 데이터를 획득해둘 수 있다.To this end, the server 100 according to another embodiment may pre-obtain reference data for area information for each country and address information for each country.

다른 실시 예에 따른 서버(100)는 위치 정보가 나타내는 사용자의 위치가 국가 정보가 나타내는 국가 내에 포함되는 경우에만 상술된 안면 인증, 음성 인증 및 사용자 인증을 수행할 수 있다.The server 100 according to another embodiment may perform the above-described face authentication, voice authentication, and user authentication only when the user's location indicated by the location information is included in the country indicated by the country information.

이에 따라, 다른 실시 예에 따른 서버(100)는 안면 템플릿 데이터의 등록(S1 단계) 및 음성 템플릿 데이터의 등록(S2 단계)을 수행한 이후, 위치 정보가 나타내는 사용자의 위치가 국가 정보가 나타내는 국가 내에 포함되는지 여부를 판단할 수 있다.Accordingly, after the server 100 according to another embodiment registers face template data (step S1) and voice template data (step S2), the location of the user indicated by the location information is the country indicated by the country information. It can be determined whether or not it is included.

이후, 다른 실시 예에 따른 서버(100)는 위치 정보가 나타내는 사용자의 위치가 국가 정보가 나타내는 국가 내에 포함되지 않는 경우, 상술된 안면 인증, 음성 인증 및 사용자 인증을 수행하지 않을 수 있다.Thereafter, the server 100 according to another embodiment may not perform the above-described face authentication, voice authentication, and user authentication when the user's location indicated by the location information is not included in the country indicated by the country information.

반대로, 다른 실시 예에 따른 서버(100)는 위치 정보가 나타내는 사용자의 위치가 국가 정보가 나타내는 국가 내에 포함되는 경우, 상술된 안면 인증, 음성 인증 및 사용자 인증을 수행할 수 있다.Conversely, the server 100 according to another embodiment may perform the above-described face authentication, voice authentication, and user authentication when the user's location indicated by the location information is included in the country indicated by the country information.

한편, 또 다른 실시 예에 따른 서버(100)는 주소 정보가 나타내는 주소의 위치와 위치 정보가 나타내는 사용자의 위치 간의 이격 거리에 기초하여 기준 안면 일치 값, 기준 안면 라이브니스 값, 기준 화자 일치 값 및 기준 음성 라이브니스 값 중 하나 이상을 보정할 수 있다.Meanwhile, the server 100 according to another embodiment may obtain a reference face matching value, a reference facial liveness value, a reference speaker matching value and a reference speaker matching value based on a separation distance between the location of the address indicated by the address information and the location of the user indicated by the location information. One or more of the reference voice liveness values may be calibrated.

구체적으로, 또 다른 실시 예에 따른 서버(100)는 이격 거리가 길수록 기준 안면 일치 값, 기준 안면 라이브니스 값, 기준 화자 일치 값 및 기준 음성 라이브니스 값 중 하나 이상이 상향되도록 보정할 수 있다.Specifically, the server 100 according to another embodiment may correct one or more of the reference facial matching value, the reference facial liveness value, the reference speaker matching value, and the reference voice liveness value to increase as the separation distance increases.

이를 통해, 주소의 위치와 사용자의 위치가 먼 경우, 인증의 난도를 높혀 보안성을 향상시킬 수 있다.Through this, when the location of the address is far from the location of the user, it is possible to improve security by increasing the difficulty of authentication.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.Steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, implemented in a software module executed by hardware, or implemented by a combination thereof. A software module may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art to which the present invention pertains.

또한, 본 발명의 서로 다른 실시예들은 상호 보완되거나 결합될 수 있다.Also, different embodiments of the present invention may complement each other or be combined.

본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler), 파이썬(Python) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다.Components of the present invention may be implemented as a program (or application) to be executed in combination with a computer, which is hardware, and stored in a medium. Components of the present invention may be implemented as software programming or software elements; similarly, embodiments may include various algorithms implemented as data structures, processes, routines, or combinations of other programming constructs, such as C, C++ , Java (Java), assembler (assembler), may be implemented in a programming or scripting language such as Python (Python). Functional aspects may be implemented in an algorithm running on one or more processors.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.Although the embodiments of the present invention have been described with reference to the accompanying drawings, those skilled in the art to which the present invention pertains can be implemented in other specific forms without changing the technical spirit or essential features of the present invention. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

100 : 전자 장치
200 : 서버
100: electronic device
200: server

Claims (7)

전자 장치 및 서버를 포함하는 시스템의 제어 방법에 있어서,
상기 전자 장치가, 사용자 인증의 대상이 되는 사용자를 촬영하여 생성된 제1 사용자 이미지를 획득하는 단계;
상기 서버가, 사전 인증이 완료된 사용자의 제2 사용자 이미지의 사용자 안면 이미지가 나타내는 안면 및 상기 제1 사용자 이미지 내의 사용자 안면 이미지가 나타내는 안면 간에 안면 일치 값을 획득하는 단계;
상기 서버가, 상기 제1 사용자 이미지 내의 사용자 안면 이미지의 안면 라이브니스 값을 획득하는 단계;
상기 서버가, 상기 사전 인증이 완료된 사용자의 음성을 녹음하여 생성된 제2 사용자 음성 데이터로부터 복수의 제2 음성 특징점을 추출하고, 상기 복수의 제2 음성 특징점을 포함하는 제2 음성 특징점 데이터를 암호화 및 토큰화하여 제2 음성 템플릿 데이터를 생성하는 단계;
상기 전자 장치가, 상기 사용자 인증의 대상이 되는 사용자의 음성을 녹음하여 생성된 제1 사용자 음성 데이터를 획득하는 단계;
상기 서버가, 상기 제1 사용자 음성 데이터로부터 복수의 제1 음성 특징점을 추출하고, 상기 복수의 제1 음성 특징점을 포함하는 제1 음성 특징점 데이터를 암호화 및 토큰화하여 제1 음성 템플릿 데이터를 생성하는 단계;
상기 서버가, 두 사용자 음성 데이터 간의 화자 일치 값을 결정하도록 훈련된 제3 인공지능 모델에 상기 제1 음성 템플릿 데이터 및 상기 제2 음성 템플릿 데이터를 입력하여, 상기 사전 인증이 완료된 사용자의 상기 제2 사용자 음성 데이터의 화자 및 상기 제1 사용자 음성 데이터의 화자 간에 화자 일치 값을 획득하는 단계;
상기 서버가, 사용자 음성 데이터의 음성 라이브니스 값을 결정하도록 훈련된 제4 인공지능 모델에 상기 제1 음성 템플릿 데이터를 입력하여, 상기 제1 사용자 음성 데이터의 음성 라이브니스 값을 획득하는 단계; 및
상기 서버가, 상기 안면 일치 값, 상기 안면 라이브니스 값, 상기 화자 일치 값 및 상기 음성 라이브니스 값에 기초하여 사용자 인증을 수행하는 단계;를 포함하고,
상기 제1 음성 특징점은
상기 사용자 인증의 대상이 되는 사용자의 음성의 주파수, 음성의 세기, 특정 키워드의 반복 빈도, 음성의 높낮이, 주파수 변화 패턴, 음성 높†F이 변화 패턴을 포함하고,
상기 제2 음성 특징점은
상기 사전 인증이 완료된 사용자의 음성의 주파수, 음성의 세기, 특정 키워드의 반복 빈도, 음성의 높낮이, 주파수 변화 패턴, 음성 높†F이 변화 패턴을 포함하고,
상기 시스템의 제어 방법은
상기 서버가, 두 사용자 음성 데이터로부터 각각 생성된 음성 템플릿 데이터 및 두 사용자 음성 데이터에 대해 미리 정해진 화자 일치 값으로 구성된 학습 데이터를 이용하여 상기 제3 인공지능 모델을 학습시키는 단계; 및
상기 서버가, 사용자 음성 데이터로부터 음성 템플릿 데이터 및 음성 템플릿 데이터에 대해 미리 정해진 음성 라이브니스 값으로 구성된 학습 데이터를 이용하여 상기 제3 인공지능 모델을 학습시키는 단계;를 더 포함하고,
상기 사용자 인증을 수행하는 단계는,
상기 서버가, 상기 안면 일치 값 및 상기 안면 라이브니스 값에 기초하여 상기 제1 사용자 이미지 내의 사용자 안면 이미지가 나타내는 안면이 상기 사용자의 안면인지를 판단하는 안면 인증을 수행하는 단계; 및
상기 서버가, 상기 화자 일치 값 및 상기 음성 라이브니스 값에 기초하여 상기 제1 사용자 음성 데이터의 화자가 상기 사용자인지를 판단하는 화자 인증을 수행하는 단계;를 포함하는, 시스템의 제어 방법.
In the control method of a system including an electronic device and a server,
obtaining, by the electronic device, a first user image generated by photographing a user subject to user authentication;
obtaining, by the server, a face matching value between a face represented by a user face image of a second user image of a user whose pre-authentication is completed and a face represented by a user face image in the first user image;
obtaining, by the server, a facial liveness value of a user face image in the first user image;
The server extracts a plurality of second voice feature points from second user voice data generated by recording the voice of the user for whom the pre-authentication has been completed, and encrypts the second voice feature point data including the plurality of second voice feature points. and tokenizing to generate second voice template data;
obtaining, by the electronic device, first user voice data generated by recording a voice of a user who is the target of the user authentication;
The server extracts a plurality of first voice feature points from the first user voice data, encrypts and tokenizes the first voice feature point data including the plurality of first voice feature points, and generates first voice template data. step;
The server inputs the first voice template data and the second voice template data to a third artificial intelligence model trained to determine a speaker matching value between two user voice data, acquiring a speaker matching value between a speaker of the user voice data and a speaker of the first user voice data;
obtaining, by the server, a voice liveness value of the first user voice data by inputting the first voice template data into a fourth artificial intelligence model trained to determine a voice liveness value of the user voice data; and
Performing, by the server, user authentication based on the face match value, the face liveness value, the speaker match value, and the voice liveness value;
The first voice feature point is
The frequency of the user's voice, the intensity of the voice, the repetition frequency of a specific keyword, the pitch of the voice, the frequency change pattern, and the change pattern of the voice pitch † F of the user subject to the user authentication,
The second voice feature point is
The user's voice frequency, voice strength, repetition frequency of a specific keyword, voice pitch, frequency change pattern, voice pitch † F change pattern of the user for whom the pre-authentication has been completed,
The control method of the system is
learning, by the server, the third artificial intelligence model using voice template data generated from two user voice data and training data consisting of speaker matching values predetermined for the two user voice data; and
Further comprising, by the server, learning the third artificial intelligence model using training data composed of voice template data from user voice data and a voice liveness value predetermined for the voice template data;
Performing the user authentication step,
performing, by the server, face authentication to determine whether a face represented by a user's face image in the first user image is the face of the user based on the face matching value and the face liveness value; and
and performing, by the server, speaker authentication to determine whether a speaker of the first user's voice data is the user based on the speaker matching value and the voice liveness value.
삭제delete 제1항에 있어서,
상기 안면 인증을 수행하는 단계는,
상기 서버가, 상기 안면 일치 값이 기준 안면 일치 값을 초과하는지 여부를 판단하는 단계;
상기 서버가, 상기 안면 라이브니스 값이 기준 안면 라이브니스 값을 초과하는지 여부를 판단하는 단계; 및
상기 서버가, 상기 안면 일치 값이 상기 기준 안면 일치 값을 초과하고, 상기 안면 라이브니스 값이 상기 기준 안면 라이브니스 값을 초과하면, 상기 제1 사용자 이미지 내의 사용자 안면 이미지가 나타내는 안면이 상기 사용자의 안면인 것으로 판단하는 단계;를 포함하는, 시스템의 제어 방법.
According to claim 1,
The step of performing the face authentication,
determining, by the server, whether the face match value exceeds a reference face match value;
determining, by the server, whether the facial liveness value exceeds a reference facial liveness value; and
When the face match value exceeds the reference face match value and the face liveness value exceeds the reference face liveness value, the server determines that the face represented by the user face image in the first user image is the user's face. Determining that it is a face; including, the control method of the system.
◈청구항 4은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 4 was abandoned when the registration fee was paid.◈ 제1항에 있어서,
상기 화자 인증을 수행하는 단계는,
상기 서버가, 상기 화자 일치 값이 기준 화자 일치 값을 초과하는지 여부를 판단하는 단계;
상기 서버가, 상기 음성 라이브니스 값이 기준 음성 라이브니스 값을 초과하는지 여부를 판단하는 단계; 및
상기 서버가, 상기 화자 일치 값이 상기 기준 화자 일치 값을 초과하고, 상기 음성 라이브니스 값이 상기 기준 음성 라이브니스 값을 초과하면, 상기 제1 사용자 음성 데이터의 화자가 상기 사용자인 것으로 판단하는 단계;를 포함하는, 시스템의 제어 방법.
According to claim 1,
The step of performing the speaker authentication,
determining, by the server, whether the speaker agreement value exceeds a reference speaker agreement value;
determining, by the server, whether the voice liveness value exceeds a reference voice liveness value; and
determining, by the server, that the speaker of the first user's voice data is the user, when the speaker matching value exceeds the reference speaker matching value and the voice liveness value exceeds the reference voice liveness value; ; Including, the control method of the system.
◈청구항 5은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 5 was abandoned when the registration fee was paid.◈ 제1항에 있어서,
상기 사용자 인증을 수행하는 단계는,
상기 서버가, 상기 안면 인증 결과, 상기 제1 사용자 이미지 내의 사용자 안면 이미지가 나타내는 안면이 상기 사용자의 안면인 것으로 판단되고, 상기 화자 인증 결과, 상기 제1 사용자 음성 데이터의 화자가 상기 사용자인 것으로 판단되면, 상기 사용자를 인증하는, 시스템의 제어 방법.
According to claim 1,
Performing the user authentication step,
As a result of the face authentication, the server determines that the face represented by the user's face image in the first user image is the face of the user, and as a result of the speaker authentication, it is determined that the speaker of the first user's voice data is the user. , the system control method of authenticating the user.
제3항에 있어서,
상기 전자 장치 또는 상기 서버가, 상기 사용자의 신분증 이미지로부터 문자를 인식하여 신분증 정보를 추출하는 단계;
상기 전자 장치가, 상기 사용자 인증을 시도하는 사용자의 위치 정보를 획득하는 단계;
상기 서버가, 상기 신분증 정보 중에서 주소 정보가 나타내는 주소의 위치에 대응되는 국가 정보를 확인하고, 상기 위치 정보가 나타내는 사용자의 위치가 상기 국가 정보가 나타내는 국가 내에 포함되는지 여부를 판단하는 단계;를 포함하는, 시스템의 제어 방법.
According to claim 3,
extracting, by the electronic device or the server, identification information by recognizing text from the user's identification card image;
obtaining, by the electronic device, location information of a user attempting the user authentication;
The server checks country information corresponding to the location of the address indicated by the address information among the identification information, and determines whether the user's location indicated by the location information is included in the country indicated by the country information. , how to control the system.
서버의 제어 방법에 있어서,
상기 서버가, 사전 인증이 완료된 사용자의 제2 사용자 이미지의 사용자 안면 이미지가 나타내는 안면 및 사용자 인증의 대상이 되는 사용자를 촬영하여 생성된 제1 사용자 이미지 내의 사용자 안면 이미지가 나타내는 안면 간에 안면 일치 값을 획득하는 단계;
상기 서버가, 상기 제1 사용자 이미지 내의 사용자 안면 이미지의 안면 라이브니스 값을 획득하는 단계;
상기 서버가, 상기 사전 인증이 완료된 사용자의 음성을 녹음하여 생성된 제2 사용자 음성 데이터로부터 복수의 제2 음성 특징점을 추출하고, 상기 복수의 제2 음성 특징점을 포함하는 제1 음성 특징점 데이터를 암호화 및 토큰화하여 제2 음성 템플릿 데이터를 생성하는 단계;
상기 서버가, 상기 사용자 인증의 대상이 되는 사용자의 음성을 녹음하여 생성된 제1 사용자 음성 데이터로부터 복수의 제1 음성 특징점을 추출하고, 상기 복수의 제1 음성 특징점을 포함하는 제1 음성 특징점 데이터를 암호화 및 토큰화하여 제1 음성 템플릿 데이터를 생성하는 단계;
상기 서버가, 두 사용자 음성 데이터 간의 화자 일치 값을 결정하도록 훈련된 제3 인공지능 모델에 상기 제1 음성 템플릿 데이터 및 상기 제2 음성 템플릿 데이터를 입력하여, 상기 사전 인증이 완료된 사용자의 상기 제2 사용자 음성 데이터의 화자 및 상기 제1 사용자 음성 데이터의 화자 간에 화자 일치 값을 획득하는 단계;
상기 서버가, 사용자 음성 데이터의 음성 라이브니스 값을 결정하도록 훈련된 제4 인공지능 모델에 상기 제1 음성 템플릿 데이터를 입력하여, 상기 제1 사용자 음성 데이터의 음성 라이브니스 값을 획득하는 단계; 및
상기 서버가, 상기 안면 일치 값, 상기 안면 라이브니스 값, 상기 화자 일치 값 및 상기 음성 라이브니스 값에 기초하여 사용자 인증을 수행하는 단계;를 포함하고,
상기 제1 음성 특징점은
상기 사용자 인증의 대상이 되는 사용자의 음성의 주파수, 음성의 세기, 특정 키워드의 반복 빈도, 음성의 높낮이, 주파수 변화 패턴, 음성 높†F이 변화 패턴을 포함하고,
상기 제2 음성 특징점은
상기 사전 인증이 완료된 사용자의 음성의 주파수, 음성의 세기, 특정 키워드의 반복 빈도, 음성의 높낮이, 주파수 변화 패턴, 음성 높†F이 변화 패턴을 포함하고,
상기 서버의 제어 방법은
상기 서버가, 두 사용자 음성 데이터로부터 각각 생성된 음성 템플릿 데이터 및 두 사용자 음성 데이터에 대해 미리 정해진 화자 일치 값으로 구성된 학습 데이터를 이용하여 상기 제3 인공지능 모델을 학습시키는 단계; 및
상기 서버가, 사용자 음성 데이터로부터 음성 템플릿 데이터 및 음성 템플릿 데이터에 대해 미리 정해진 음성 라이브니스 값으로 구성된 학습 데이터를 이용하여 상기 제3 인공지능 모델을 학습시키는 단계;를 더 포함하고,
상기 사용자 인증을 수행하는 단계는,
상기 서버가, 상기 안면 일치 값 및 상기 안면 라이브니스 값에 기초하여 상기 제1 사용자 이미지 내의 사용자 안면 이미지가 나타내는 안면이 상기 사용자의 안면인지를 판단하는 안면 인증을 수행하는 단계; 및
상기 서버가, 상기 화자 일치 값 및 상기 음성 라이브니스 값에 기초하여 상기 제1 사용자 음성 데이터의 화자가 상기 사용자인지를 판단하는 화자 인증을 수행하는 단계;를 포함하는, 서버의 제어 방법.
In the server control method,
The server sets a facial matching value between a face represented by a user face image of a second user image of a user whose pre-authentication is completed and a face represented by a user face image in a first user image generated by photographing a user subject to user authentication. obtaining;
obtaining, by the server, a facial liveness value of a user face image in the first user image;
The server extracts a plurality of second voice feature points from second user voice data generated by recording the voice of the user for whom the pre-authentication is completed, and encrypts the first voice feature point data including the plurality of second voice feature points. and tokenizing to generate second voice template data;
The server extracts a plurality of first voice feature points from first user voice data generated by recording the voice of the user subject to user authentication, and first voice feature point data including the plurality of first voice feature points Encrypting and tokenizing to generate first voice template data;
The server inputs the first voice template data and the second voice template data to a third artificial intelligence model trained to determine a speaker matching value between two user voice data, acquiring a speaker matching value between a speaker of the user voice data and a speaker of the first user voice data;
obtaining, by the server, a voice liveness value of the first user voice data by inputting the first voice template data into a fourth artificial intelligence model trained to determine a voice liveness value of the user voice data; and
Performing, by the server, user authentication based on the face match value, the face liveness value, the speaker match value, and the voice liveness value;
The first voice feature point is
The frequency of the user's voice, the intensity of the voice, the repetition frequency of a specific keyword, the pitch of the voice, the frequency change pattern, and the voice pitch † F change pattern of the user who is the target of the user authentication,
The second voice feature point is
The user's voice frequency, voice strength, repetition frequency of a specific keyword, voice pitch, frequency change pattern, voice pitch † F change pattern of the user for whom the pre-authentication has been completed,
The server control method
learning, by the server, the third artificial intelligence model using voice template data generated from two user voice data and training data consisting of speaker matching values predetermined for the two user voice data; and
Further comprising, by the server, learning the third artificial intelligence model using training data composed of voice template data from user voice data and a voice liveness value predetermined for the voice template data;
Performing the user authentication step,
performing, by the server, face authentication to determine whether a face represented by a user's face image in the first user image is the face of the user based on the face matching value and the face liveness value; and
and performing, by the server, speaker authentication to determine whether a speaker of the first user's voice data is the user based on the speaker matching value and the voice liveness value.
KR1020220113012A 2022-09-06 2022-09-06 Control method of electronic apparatus, server and system for non-face-to-face identification using speaker authentication and facial authentication Active KR102502686B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020220113012A KR102502686B1 (en) 2022-09-06 2022-09-06 Control method of electronic apparatus, server and system for non-face-to-face identification using speaker authentication and facial authentication
KR1020230020861A KR102640359B1 (en) 2022-09-06 2023-02-16 Control method of system for non-face-to-face identification using keyword repetition frequency and voice characteristics
KR1020230020860A KR102640358B1 (en) 2022-09-06 2023-02-16 Control method of system for non-face-to-face identification based artificial intelligence model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220113012A KR102502686B1 (en) 2022-09-06 2022-09-06 Control method of electronic apparatus, server and system for non-face-to-face identification using speaker authentication and facial authentication

Related Child Applications (2)

Application Number Title Priority Date Filing Date
KR1020230020861A Division KR102640359B1 (en) 2022-09-06 2023-02-16 Control method of system for non-face-to-face identification using keyword repetition frequency and voice characteristics
KR1020230020860A Division KR102640358B1 (en) 2022-09-06 2023-02-16 Control method of system for non-face-to-face identification based artificial intelligence model

Publications (1)

Publication Number Publication Date
KR102502686B1 true KR102502686B1 (en) 2023-02-23

Family

ID=85329878

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020220113012A Active KR102502686B1 (en) 2022-09-06 2022-09-06 Control method of electronic apparatus, server and system for non-face-to-face identification using speaker authentication and facial authentication
KR1020230020860A Active KR102640358B1 (en) 2022-09-06 2023-02-16 Control method of system for non-face-to-face identification based artificial intelligence model
KR1020230020861A Active KR102640359B1 (en) 2022-09-06 2023-02-16 Control method of system for non-face-to-face identification using keyword repetition frequency and voice characteristics

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020230020860A Active KR102640358B1 (en) 2022-09-06 2023-02-16 Control method of system for non-face-to-face identification based artificial intelligence model
KR1020230020861A Active KR102640359B1 (en) 2022-09-06 2023-02-16 Control method of system for non-face-to-face identification using keyword repetition frequency and voice characteristics

Country Status (1)

Country Link
KR (3) KR102502686B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220016873A (en) * 2019-05-17 2022-02-10 큐5아이디, 아이엔씨. Identity verification and management system
KR20220081476A (en) 2020-12-09 2022-06-16 도시공유플랫폼 주식회사 Abnormal behavior sensing system for user authentication with artificial intelligent camera

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE1851630A1 (en) * 2018-12-20 2020-06-21 Precise Biometrics Ab Methods for biometrics verification using a mobile device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220016873A (en) * 2019-05-17 2022-02-10 큐5아이디, 아이엔씨. Identity verification and management system
KR20220081476A (en) 2020-12-09 2022-06-16 도시공유플랫폼 주식회사 Abnormal behavior sensing system for user authentication with artificial intelligent camera

Also Published As

Publication number Publication date
KR102640358B1 (en) 2024-02-26
KR102640359B1 (en) 2024-02-28

Similar Documents

Publication Publication Date Title
US11797659B2 (en) Authentication device, authentication system, and authentication method
US12388649B2 (en) Systems and methods for secure tokenized credentials
US20230188521A1 (en) Secure authorization for access to private data in virtual reality
US10482230B2 (en) Face-controlled liveness verification
JP2021508870A (en) Systems and methods for user authentication by biometric authentication
US10275672B2 (en) Method and apparatus for authenticating liveness face, and computer program product thereof
CN106850648B (en) Identity verification method, client and service platform
KR102640356B1 (en) Control method of system for non-face-to-face identification using artificial intelligence model leareed with face template data
JP2021517303A (en) Remote user identity verification with threshold-based matching
US12069047B2 (en) Using an enrolled biometric dataset to detect adversarial examples in biometrics-based authentication system
JP2017530387A (en) Voiceprint login method and device based on artificial intelligence
US11704937B2 (en) Iris authentication device, iris authentication method and recording medium
US20230290354A1 (en) Systems and apparatus for multifactor authentication using bone conduction and audio signals
US12019728B2 (en) AdHoc enrollment process
WO2022022346A1 (en) Secure interaction method and apparatus
CN108875335A (en) The method and authenticating device and non-volatile memory medium of face unlock and typing expression and facial expressions and acts
KR102502686B1 (en) Control method of electronic apparatus, server and system for non-face-to-face identification using speaker authentication and facial authentication
CN113378134A (en) Identity authentication method and device
Upadhyaya Advancements in Computer Vision for Biometrics Enhancing Security and Identification
Salice et al. Foundations and Opportunities of Biometrics
Elmir et al. Model-View-Controller based Online Face Recognition System.
WO2023274933A1 (en) Method and system for automatic proofing of a remote recording
CN117892277A (en) Login authentication method and device

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20220906

PA0201 Request for examination
PA0302 Request for accelerated examination

Patent event date: 20220907

Patent event code: PA03022R01D

Comment text: Request for Accelerated Examination

Patent event date: 20220906

Patent event code: PA03021R01I

Comment text: Patent Application

PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20221026

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20230207

A107 Divisional application of patent
PA0107 Divisional application

Comment text: Divisional Application of Patent

Patent event date: 20230216

Patent event code: PA01071R01D

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20230217

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20230217

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载