+

WO2018190152A1 - 情報処理装置、情報処理方法、及び、プログラム - Google Patents

情報処理装置、情報処理方法、及び、プログラム Download PDF

Info

Publication number
WO2018190152A1
WO2018190152A1 PCT/JP2018/013631 JP2018013631W WO2018190152A1 WO 2018190152 A1 WO2018190152 A1 WO 2018190152A1 JP 2018013631 W JP2018013631 W JP 2018013631W WO 2018190152 A1 WO2018190152 A1 WO 2018190152A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
risk
driving
unit
degree
Prior art date
Application number
PCT/JP2018/013631
Other languages
English (en)
French (fr)
Inventor
亮介 古川
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201880021809.9A priority Critical patent/CN110505837B/zh
Priority to JP2019512430A priority patent/JP7092116B2/ja
Priority to EP18784023.6A priority patent/EP3610785B1/en
Priority to US16/498,629 priority patent/US11040712B2/en
Publication of WO2018190152A1 publication Critical patent/WO2018190152A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0953Predicting travel path or likelihood of collision the prediction being responsive to vehicle dynamic parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/085Changing the parameters of the control units, e.g. changing limit values, working points by control input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/10Interpretation of driver requests or demands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/08Insurance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4833Assessment of subject's compliance to treatment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/486Biofeedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7282Event detection, e.g. detecting unique waveforms indicative of a medical condition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0863Inactivity or incapacity of driver due to erroneous selection or response of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/22Psychological state; Stress level or workload
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/223Posture, e.g. hand, foot, or seat position, turned or inclined
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/227Position in the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/24Drug level, e.g. alcohol
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/26Incapacity
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/30Driving style
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data

Definitions

  • the present technology relates to an information processing device, an information processing method, and a program, and more particularly, to an information processing device, an information processing method, and a program suitable for use when presenting a risk avoidance plan to a user.
  • the driver's biological information is used to detect the driver's driving state.
  • the measured value of the driver's skin impedance is corrected, and based on the corrected value, It has been proposed to determine the driver's arousal level (see, for example, Patent Document 1).
  • biometric data measured by a vehicle biosensor is transmitted to a data processing device via a portable terminal and a public network line installed in a charger in the vehicle, and the data processing device transmits the received biometric data to the driver. It is proposed to transmit to a portable terminal (for example, see Patent Document 2).
  • driving assistance for avoiding risks such as accidents is performed based on the detected state of the driver.
  • This technology has been made in view of such a situation, and makes it possible for a user to reliably avoid a risk.
  • An information processing apparatus includes a presentation control unit that generates a risk avoidance plan for a user based on a predicted risk, and the user's reaction to the risk avoidance plan based on the user's reaction.
  • An evaluation unit that evaluates the degree of compliance and a risk prediction unit that adjusts a prediction parameter of the risk based on the evaluated degree of compliance.
  • the risk prediction unit can make a prediction of a risk related to driving of the moving body by the user.
  • a driving behavior detection unit that detects a driving behavior that is the behavior of the user or the moving body during driving is further provided, and the risk prediction unit is configured to predict the risk based on the detection result of the driving behavior. be able to.
  • a diagnostic unit for diagnosing suitability for the user's driving is further provided, and the risk prediction unit is based on the diagnosis result Thus, the risk can be predicted.
  • An insurance premium calculation unit that calculates insurance premiums for the user based on the degree of compliance can be further provided.
  • the insurance premium calculation unit can decrease the insurance premium as the degree of compliance is high, and increase the insurance premium as the degree of compliance is low.
  • the risk may be a risk related to driving the vehicle by the user, and the insurance may include car insurance.
  • An information processing method includes a presentation control step of generating a risk avoidance plan for a user based on a predicted risk, and the user's reaction to the risk avoidance plan based on the user's reaction.
  • a program includes a presentation control step of generating a risk avoidance plan for a user based on a predicted risk, and the user's degree of compliance based on the user's reaction to the risk avoidance plan. And a risk prediction step of adjusting a risk prediction parameter based on the evaluated degree of obedience.
  • a risk avoidance plan for the user is generated based on the predicted risk, and the user's degree of compliance is evaluated based on the user's response to the risk avoidance plan.
  • the risk prediction parameter is adjusted based on the degree of compliance.
  • user obedience can be obtained.
  • the user's degree of obedience can be used to ensure that the user can avoid the risk.
  • FIG. 1 is a block diagram illustrating an embodiment of an information processing system to which the present technology is applied. It is a block diagram which shows the structural example of a user terminal part. It is a block diagram which shows the structural example of a vehicle. It is a block diagram which shows the structural example of a server. It is a flowchart for demonstrating the driving assistance process performed by the server. It is a flowchart for demonstrating the driving assistance process performed by the server. It is a figure for demonstrating a user's state estimation process. It is a figure for demonstrating the learning method of a user's standard state pattern. It is a figure for demonstrating the learning method of a user set state pattern. It is a figure for demonstrating the example of the method of driving
  • FIG. 1 is a block diagram illustrating an embodiment of an information processing system to which the present technology is applied.
  • the information processing system 10 is a system that provides services such as vehicle driving assistance and car insurance using, for example, telematics technology.
  • the information processing system 10 includes a user terminal unit 11, a vehicle 12, and a server 13.
  • the user terminal unit 11 and the vehicle 12 communicate directly or via the network 14.
  • the server 13 communicates with the user terminal unit 11 and the vehicle 12 via the network 14.
  • the user terminal unit 11 includes one or more information processing terminals possessed by a user who uses the information processing system 10.
  • the user terminal unit 11 may include a mobile terminal and a wearable terminal.
  • the vehicle 12 is a vehicle driven by a user who uses the information processing system 10.
  • the server 13 communicates with the user terminal unit 11 and the vehicle 12 via the network 14 to provide services such as driving support and car insurance to the user who uses the information processing system 10.
  • the user terminal unit 11, the vehicle 12, and the server 13 are illustrated one by one for easy understanding of the diagram, but two or more can be provided. For example, as many user terminal units 11 and vehicles 12 as the number of users using the information processing system 10 are provided.
  • FIG. 2 is a block diagram illustrating a configuration example of the user terminal unit 11.
  • the user terminal unit 11 includes a mobile terminal 51 and a wearable terminal 52.
  • the mobile terminal 51 includes, for example, a portable information processing terminal such as a smartphone, a mobile phone, a tablet, a notebook personal computer, a portable game machine, a portable video or music playback device.
  • a portable information processing terminal such as a smartphone, a mobile phone, a tablet, a notebook personal computer, a portable game machine, a portable video or music playback device.
  • the mobile terminal 51 includes a GNSS (Global Navigation Satellite System) receiver 61, an inertial sensor 62, an environment sensor 63, a biosensor 64, an input unit 65, an output unit 66, a control unit 67, and a communication unit 68.
  • GNSS Global Navigation Satellite System
  • the GNSS receiver 61 measures the current position of the mobile terminal 51 (the user who has the mobile terminal 51) by receiving radio waves from the positioning satellite, and supplies position data indicating the measured current position to the control unit 67.
  • the inertial sensor 62 detects various types of inertial data regarding the mobile terminal 51 (the user having the mobile terminal 51), and supplies the detected inertial data to the control unit 67.
  • the inertial data detected by the inertial sensor 62 includes, for example, one or more of acceleration, angular velocity, and the like.
  • the environmental sensor 63 detects various environmental data around the mobile terminal 51 (the user having the mobile terminal 51), and supplies the detected environmental data to the control unit 67.
  • the environmental data detected by the environmental sensor 63 includes, for example, one or more of geomagnetism, atmospheric pressure, carbon dioxide concentration, and the like.
  • the biosensor 64 detects various biometric data of the user and supplies the detected biometric data to the control unit 67.
  • the biometric data detected by the biosensor 64 includes, for example, heart rate, sweating volume, blood pressure, blood oxygen concentration, myoelectricity, body temperature, body composition, exhaled alcohol concentration, maximum oxygen intake, calories consumed, voice tone, conversation Including one or more of the speeds.
  • the input unit 65 includes an input device for inputting various data to the mobile terminal 51.
  • the input unit 65 includes one or more of buttons, switches, keys, a touch panel, a microphone, and the like.
  • the input unit 65 supplies input data to the control unit 67.
  • the output unit 66 includes an output device for outputting various information and data.
  • the output unit 66 includes one or more of a display, a speaker, a buzzer, a vibrator, and the like.
  • the control unit 67 includes control devices such as various processors, for example.
  • the control unit 67 is based on the data supplied from the GNSS receiver 61, the inertial sensor 62, the environment sensor 63, the biological sensor 64, the input unit 65, the data received from the outside via the communication unit 68, and the like. Control of each part of the mobile terminal 51 and various processes are performed.
  • the control unit 67 supplies data obtained by various processes to the output unit 66 or transmits the data to other devices via the communication unit 68.
  • the communication unit 68 communicates with other devices (for example, the vehicle 12, the server 13, the wearable terminal 52, etc.) by a predetermined communication method.
  • a communication method of the communication unit 68 any wireless or wired method can be adopted.
  • the communication unit 68 can support a plurality of communication methods.
  • the wearable terminal 52 includes a wearable terminal of any form such as a glasses type, a watch type, a bracelet type, a necklace type, a neckband type, an earphone type, a headset type, and a head mount type.
  • the wearable terminal 52 includes a biosensor 81, an input unit 82, an output unit 83, a control unit 84, and a communication unit 85.
  • the biometric sensor 81 detects various types of biometric data of the user and supplies the detected biometric data to the control unit 84 in the same manner as the biometric sensor 64 of the mobile terminal 51. Note that the type of biometric data detected by the biometric sensor 81 and the type of biometric data detected by the biometric sensor 64 of the mobile terminal 51 may overlap.
  • the input unit 82 includes an input device for inputting various data to the wearable terminal 52.
  • the input unit 82 includes one or more of buttons, switches, keys, a touch panel, a microphone, and the like.
  • the input unit 82 supplies input data to the control unit 67.
  • the output unit 83 includes an output device for outputting various information and data.
  • the output unit 83 includes one or more of a display, a speaker, a buzzer, a vibrator, and the like.
  • the control unit 84 includes control devices such as various processors, for example.
  • the control unit 84 controls each unit of the wearable terminal 52 and performs various processes based on data supplied from the biosensor 81 and the input unit 82 and data received from the outside via the communication unit 85.
  • the control unit 84 supplies data obtained by various processes to the output unit 83 or transmits the data to other devices via the communication unit 85.
  • the communication unit 85 communicates with other devices (for example, the vehicle 12, the server 13, the mobile terminal 51, etc.) by a predetermined communication method.
  • a communication method of the communication unit 85 any wireless or wired method can be adopted.
  • the communication unit 85 can support a plurality of communication methods.
  • FIG. 3 is a block diagram illustrating a configuration example of a part of the vehicle 12.
  • the vehicle 12 includes an in-vehicle system 101.
  • the in-vehicle system 101 includes a vehicle data acquisition unit 111, a video / audio acquisition unit 112, an input unit 113, an output unit 114, a control unit 115, and a communication unit 116.
  • the vehicle data acquisition unit 111 includes, for example, various sensors, communication devices, control devices, and the like.
  • the vehicle data acquisition unit 111 acquires vehicle data related to the vehicle 12 and supplies the acquired vehicle data to the control unit 115.
  • the vehicle data acquired by the vehicle data acquisition unit 111 includes, for example, vehicle speed, torque, steering angle, yaw angle, gear state, side brake state, accelerator pedal depression amount, brake pedal depression amount, and direction indicator state. , Light state, tire rotation angle and rotation speed, OBD (On-board Diagnostics) data indicating diagnosis results (hereinafter referred to as OBD data), sensor data such as millimeter wave radar and laser radar, etc. Includes one or more.
  • the audio / video acquisition unit 112 includes, for example, a camera and a microphone.
  • the camera provided in the video / audio acquisition unit 112 may be a special camera such as a ToF (Time Of Flight) camera, a stereo camera, or an infrared camera, in addition to a normal camera.
  • the video / audio acquisition unit 112 acquires video and audio around and inside the vehicle 12 and supplies the control unit 115 with video data and audio data indicating the acquired video and audio.
  • the input unit 113 includes an input device for inputting various data to the vehicle 12.
  • the input unit 113 includes one or more of buttons, switches, keys, touch panels, and the like.
  • the input unit 113 supplies input data to the control unit 115.
  • the output unit 114 includes an output device for outputting various information and data.
  • the output unit 114 includes one or more of a display (for example, a head-up display), a speaker, a buzzer, a vibrator, and an instrument panel.
  • the control unit 115 includes a control device such as an ECU (Electronic Control Unit). Based on the data supplied from the vehicle data acquisition unit 111, the video / audio acquisition unit 112, and the input unit 113, the data received from the outside via the communication unit 116, and the like, the control unit 115 Control and various processes. In addition, the control unit 115 supplies data obtained by various processes to the output unit 114 or transmits the data to other devices via the communication unit 116.
  • ECU Electronic Control Unit
  • the communication unit 116 communicates with other devices (for example, the server 13, the mobile terminal 51, the wearable terminal 52, etc.) by a predetermined communication method.
  • a communication method of the communication unit 116 any wireless or wired method can be adopted.
  • the communication unit 116 can also support a plurality of communication methods.
  • FIG. 4 is a block diagram illustrating a configuration example of the server 13.
  • the server 13 includes a communication unit 151, a state estimation unit 152, a peripheral data acquisition unit 153, a diagnosis unit 154, a driving behavior detection unit 155, a risk prediction unit 156, a damage prediction unit 157, a presentation control unit 158, an evaluation unit 159, and a learning unit. 160, an insurance premium calculation unit 161, and a storage unit 162.
  • the communication unit 151 communicates with other devices (for example, the vehicle 12, the mobile terminal 51, the wearable terminal 52, other servers (not shown), etc.) via the network 14 by a predetermined communication method.
  • a communication method of the communication unit 151 any wireless or wired method can be adopted.
  • the communication unit 151 can also support a plurality of communication methods.
  • the state estimation unit 152 acquires data regarding the user state from the user terminal unit 11 and the vehicle 12 via the communication unit 151.
  • the state estimation unit 152 generates and updates a state data log that is a log of data related to the user state, and stores the state data log in the storage unit 162.
  • the state estimation unit 152 performs a user state estimation process using the state estimation model stored in the storage unit 162 based on the state data log.
  • the state estimation model is a model used for estimating a user's state, and is generated for each user, for example.
  • the state estimation unit 152 generates and updates an estimated state history, which is a history of user state estimation results, and stores it in the storage unit 162.
  • the peripheral data acquisition unit 153 receives peripheral data indicating the peripheral state of the vehicle 12 based on data received from the user terminal unit 11, the vehicle 12, and other servers (not shown) via the communication unit 151. get.
  • the peripheral data acquisition unit 153 supplies the acquired peripheral data to the diagnosis unit 154 and the risk prediction unit 156.
  • the diagnosis unit 154 acquires the user's estimated state history, driving behavior history, and driving diagnosis model from the storage unit 162.
  • the driving behavior history is a history of detection results of driving behavior that is the behavior of the driving user or the vehicle 12, and is generated for each user, for example.
  • the driving diagnosis model is a model used for driving diagnosis for diagnosing the suitability of the user for driving the vehicle, and is generated for each user, for example.
  • the diagnosis unit 154 performs a driving diagnosis of the user using the driving diagnosis model based on the acquired history.
  • the diagnosis unit 154 generates and updates the driving diagnosis history that is the history of the driving diagnosis result of the user, and stores it in the storage unit 162.
  • the driving behavior detection unit 155 receives data from the user terminal unit 11 and the vehicle 12 via the communication unit 151. Further, the driving behavior detection unit 155 acquires the user's estimated state history and the driving behavior detection model from the storage unit 162.
  • the driving behavior detection model is a model used for detection of driving behavior, and is generated for each user, for example. Furthermore, the driving behavior detection unit 155 acquires, from the damage prediction unit 157, a risk related to the driving of the vehicle by the user and a prediction result of damage caused by the risk.
  • the driving behavior detection unit 155 performs a driving behavior detection process of the user using the driving behavior detection model based on the acquired history and data.
  • the driving behavior detection unit 155 generates and updates a driving behavior history that is a history of detection results of the driving behavior of the user, and stores the driving behavior history in the storage unit 162.
  • the risk prediction unit 156 acquires the user's estimated state history, driving diagnosis history, driving behavior history, and risk prediction model from the storage unit 162.
  • the risk prediction model is a model used for predicting a risk related to driving of the vehicle 12 by the user, and is generated for each user, for example.
  • the risk prediction unit 156 performs risk prediction using a risk prediction model based on the acquired history.
  • the risk prediction unit 156 supplies the risk prediction result to the damage prediction unit 157.
  • the damage prediction unit 157 predicts damage caused by the risk predicted by the risk prediction unit 156 while using the user's degree of compliance evaluated by the evaluation unit 159 as necessary.
  • the degree of obedience is a degree that the user obeys the proposal from the server 13 and the like.
  • the damage prediction unit 157 supplies the risk and damage prediction results to the driving behavior detection unit 155 and the presentation control unit 158.
  • the presentation control unit 158 acquires the driving diagnosis history of the user and the insurance premium calculated by the insurance premium calculation unit 161 from the storage unit 162.
  • the presentation control unit 158 includes information on the predicted risk based on the risk and damage prediction results, the user's driving diagnosis history, and the insurance premium, and generates feedback information presented to the user.
  • the presentation control unit 158 controls the presentation of feedback information to the user by transmitting the generated feedback information to the user terminal unit 11 or the vehicle 12 of the user via the communication unit 151. Also, the presentation control unit 158 supplies feedback information to the evaluation unit 159.
  • the evaluation unit 159 acquires the user's estimated state history and driving behavior history from the storage unit 162. And the evaluation part 159 evaluates a user's obedience degree based on the acquired log
  • the learning unit 160 acquires the user's estimated state history from the storage unit 162.
  • the learning unit 160 learns a user's standard state pattern (hereinafter referred to as a standard state pattern) based on the acquired estimated state history, and stores data indicating the obtained standard state pattern in the storage unit 162.
  • a standard state pattern a user's standard state pattern
  • the learning unit 160 acquires the estimated state history of each user included in the predetermined user set from the storage unit 162.
  • the learning unit 160 learns an average state pattern of users in the user set (hereinafter referred to as a user set state pattern) based on the acquired estimated state history, and shows the obtained user set state pattern Data is stored in the storage unit 162.
  • the learning unit 160 acquires the user state data log, the estimated state history, the driving diagnosis history, and the driving behavior history from the storage unit 162.
  • the learning unit 160 learns the state estimation model, the driving diagnosis model, the driving behavior detection model, and the risk prediction model based on the acquired log and history, and stores the learning in the storage unit 162.
  • the insurance premium calculation unit 161 acquires the user's driving diagnosis history, driving behavior history, and degree of compliance from the storage unit 162.
  • the insurance premium calculation unit 161 calculates the insurance premium of the user's car insurance based on the acquired history and the degree of obedience.
  • the insurance premium calculation unit 161 stores data indicating the calculated insurance premium in the storage unit 162.
  • step S1 the server 13 starts a process of estimating the state of the user (attention user) when not driving. Specifically, for example, the following processing is started.
  • the state estimation unit 152 acquires data on the state of the target user from the data (for example, inertia data, environment data, biometric data, input data, etc.) received by the communication unit 151 from the user terminal unit 11 of the target user. .
  • the state estimation unit 152 stores each data in the storage unit 162 together with the acquired time. Thereby, the state data log of the user of interest is updated.
  • the state data log of the user of interest may include not only data relating to the state of the user of interest but also data relating to the state around the user of interest.
  • the state estimating unit 152 estimates the current state of the target user using the target user's state estimation model stored in the storage unit 162 based on the target user's state data log within the latest predetermined period. . For example, the state estimation unit 152 estimates the current biological state, behavior, and emotion of the target user as the current state of the target user.
  • the state estimation unit 152 performs the biological state and behavior of the target user for each frame of a predetermined time based on the time series change of the sensor data group indicating the state of the target user. Is estimated. For example, based on the heart rate and the amount of sweat of the user of interest, various biological states of the user of interest such as concentration, arousal, fatigue, stress, tension, and intensity of exercise are estimated. For example, based on the acceleration and angular velocity of the user of interest, the ambient atmospheric pressure, and the like, the type of action of the user of interest (eg, stationary, walking, running, cycling, going up and down stairs, eating, sleeping, etc.) is estimated. .
  • various biological states of the user of interest such as concentration, arousal, fatigue, stress, tension, and intensity of exercise are estimated.
  • the type of action of the user of interest eg, stationary, walking, running, cycling, going up and down stairs, eating, sleeping, etc.
  • the state estimation unit 152 estimates the moving distance, moving speed, action range, and the like of the focused user based on the positional data and acceleration of the focused user.
  • the state estimation unit 152 estimates the emotion of the attention user based on the biological data of the attention user, the estimation result of the biological state of the attention user, and the like. For example, the state estimation unit 152 estimates the degree of emotions, excitement, frustration, anxiety, etc. of the user of interest.
  • the biological state and emotion of the user of interest are not necessarily all clearly separated and may overlap.
  • the degree of excitement can be either the biological state or emotion of the user of interest.
  • any method can be adopted as the method for estimating the user state.
  • the type of user state to be estimated is not limited to the above-described example, and can be added or deleted as necessary.
  • the state estimation unit 152 stores the estimated state of the noted user in the storage unit 162 together with the estimated time. Thereby, the estimated state history of the user of interest is updated.
  • the estimated state history is provided for each frame such as data in which numerical values for each frame are arranged in time series such as the degree of arousal or behavior (type of action). Data including labels arranged in time series.
  • step S2 the learning unit 160 determines whether or not to learn a standard state pattern (standard state pattern) of the user (attention user). For example, in the learning of the standard state pattern of the user of interest, when the user of interest starts using the information processing system 10, the amount of data of the estimated state history of the user of interest increases by a predetermined amount or more each time a predetermined time elapses. It is executed at a predetermined timing. Then, the learning unit 160 determines to learn the standard state pattern of the user of interest when the current timing is to learn the standard state pattern of the user of interest, and the process proceeds to step S3.
  • a standard state pattern standard state pattern of the user of interest
  • step S3 the learning unit 160 learns a standard state pattern (standard state pattern) of the user (attention user). For example, as illustrated in FIG. 8, the learning unit 160, based on the estimated state history within the relatively long period (for example, monthly or yearly) in the immediate vicinity of the focused user, To learn.
  • a standard state pattern standard state pattern of the user (attention user). For example, as illustrated in FIG. 8, the learning unit 160, based on the estimated state history within the relatively long period (for example, monthly or yearly) in the immediate vicinity of the focused user, To learn.
  • the learning unit 160 calculates the average and variance of each of the following items for a predetermined time period (for example, 1 minute, 10 minutes, 30 minutes, or 1 hour) as the standard state pattern of the user of interest.
  • a transition pattern indicating a standard transition of each item for a predetermined period is learned. For example, one day of attention user's concentration level, arousal level, fatigue level, stress level, tension level, intensity of exercise, heart rate, amount of sweat, amount of exercise, degree of emotions, excitement level, frustration level, anxiety level, etc. Standard transition patterns are learned.
  • the learning unit 160 calculates the average and variance of each of the following items for each day (for each day of the week) as the standard state pattern of the user of interest, for a predetermined period of each item (for example, one week) ) To learn a typical transition pattern. For example, standard transition of one week such as sleeping time, wake-up time, bedtime, exercise amount, movement range, number of meals, meal time, meal time zone, driving time, driving time zone, commuting time zone, school time zone, etc. The pattern is learned.
  • the learning unit 160 also compares the standard state pattern of the user of interest with an average standard state pattern (user set state pattern) in the user set based on the estimated state history of each user in the predetermined user set. To learn.
  • all users of the information processing system 10 may be included in the user set, or only some users may be included. In the latter case, for example, a user set including users similar to the target user may be used.
  • the user similar to the target user is, for example, a user similar to the target user in attributes (for example, age, sex, occupation, address, etc.), behavior pattern, and preference. Further, the user of interest may or may not be included in the user set.
  • the learning unit 160 learns the user set state pattern by totaling the average of the standard state patterns of each user in the user set. For example, the average daily transition pattern of each item in the user set is learned by summing up the average daily transition pattern of each item in the user set. In addition, for example, by averaging the average one-week standard transition patterns of each item in the user set, the average one-week transition pattern of each item in the user set is learned.
  • the learning unit 160 causes the storage unit 162 to store data indicating the learning result of the standard state pattern of the user of interest and the user aggregate state pattern.
  • timing of performing the learning of the standard state pattern of the user of interest and the learning of the user aggregate state pattern are not necessarily synchronized, and may be performed at different timings.
  • step S2 determines whether the standard state pattern of the user of interest is not learned. If it is determined in step S2 that the standard state pattern of the user of interest is not learned, the process of step S3 is skipped, and the process proceeds to step S4.
  • step S4 the diagnosis unit 154 performs driving diagnosis during non-driving. For example, based on the estimated state history of the user of interest, the diagnosis unit 154 uses the transition pattern (hereinafter, one day and one week) within the latest relatively short period (for example, the following) for the same items as the standard state pattern described above. (Referred to as the latest state pattern).
  • the transition pattern hereinafter, one day and one week
  • the latest relatively short period for example, the following
  • the diagnosis unit 154 includes a divergence degree vector x indicating a divergence degree between the latest state pattern of the target user and the standard state pattern, and the latest state pattern of the target user and the user.
  • a divergence degree vector y indicating the degree of divergence from the collective state pattern is calculated.
  • the divergence degree vector x and the divergence degree vector y are vectors including values obtained by normalizing the divergence degrees for each item of two state patterns to be compared.
  • the diagnosis unit 154 calculates the driving aptitude u when the user is not driving using the driving diagnosis model of the user of interest expressed by the function f of the following equation (1).
  • wx is a weight for the divergence degree vector x
  • wy is a weight for the divergence degree vector y.
  • the driving suitability u increases as the deviation degree of each item included in the deviation degree vector x decreases. In other words, the closer to the standard state pattern of the attention user, in other words, the smaller the difference between the immediate state of the attention user and the standard state, the more suitable the driving state is determined. . On the other hand, the driving suitability u decreases as the deviation degree of each item included in the deviation degree vector x increases. In other words, the farthest state pattern of the attention user is from the standard state pattern, in other words, the greater the difference between the immediate state of the attention user and the standard state, the more the state is determined to be less suitable for driving.
  • the driving suitability u increases as the deviation of each item included in the deviation vector y decreases. That is, the closer the attention user's latest state pattern is to the user aggregate state pattern, in other words, the smaller the difference between the immediate state of the attention user and the average state in the user aggregate, the more suitable the driving state is. It is determined.
  • the driving suitability u decreases as the deviation degree of each item included in the deviation degree vector y increases. In other words, the farther the state of interest of the attention user is from the user aggregate state pattern, in other words, the greater the difference between the immediate state of the attention user and the average state of the user set, the more unsuitable for driving. It is determined that there is.
  • the diagnosis unit 154 estimates a decrease factor of the driving suitability u. For example, the diagnosis unit 154 extracts an item in which the product of the weight wx and the deviation degree is a predetermined value or more in the deviation vector x. Further, the diagnosis unit 154 extracts an item in which the product of the weight wy and the divergence degree is a predetermined value or more in the divergence degree vector y. And the diagnosis part 154 estimates the fall factor of the driving suitability u by comparing the latest state pattern with the standard state pattern or the user set average pattern for each extracted item.
  • sleep deprivation is a factor of decrease.
  • the attention user's impatience is a factor of reduction. Presumed to be.
  • the driving suitability u is equal to or higher than a predetermined threshold, for example, the driving suitability u is not particularly reduced.
  • the diagnosis unit 154 stores the driving suitability u and the estimated decrease factor in the storage unit 162 as a diagnosis result of the driving suitability of the user of interest together with the time of diagnosis. Thereby, the driving diagnosis history of the noted user is updated.
  • step S5 the risk prediction unit 156 performs risk prediction. Specifically, the risk prediction unit 156 acquires the driving diagnosis history and risk prediction model of the user of interest from the storage unit 162. The risk predicting unit 156 predicts a risk when the focused user performs driving at the present time using the risk prediction model of the focused user based on the driving diagnosis history of the focused user.
  • the factor of lowering the driving suitability u is lack of sleep or physical fatigue, it is estimated that there is a risk of drowsy driving.
  • the driver's suitability u decreases due to the attention user's impatience, for example, collision or contact with other vehicles due to overspeed or excessive overtaking, and obstacles due to the attention user's carelessness (for example, other It is estimated that there is a risk of collision and contact with vehicles, bicycles, pedestrians, etc.).
  • the risk prediction unit 156 estimates the predicted risk occurrence probability. For example, the shorter the sleep time of the user of interest, the higher the estimated occurrence probability of dozing driving.
  • the risk prediction unit 156 supplies the risk prediction result to the damage prediction unit 157.
  • the prediction result of this risk includes the predicted risk, the basis for predicting the risk (for example, a factor that reduces the driving suitability u), and the probability of occurrence of the risk.
  • the damage prediction unit 157 performs damage prediction. Specifically, the damage prediction unit 157 predicts damage (for example, risk / penalty value) caused by the risk predicted by the risk prediction unit 156. At this time, the risk occurrence probability is taken into account. That is, the higher the occurrence probability, the greater the predicted damage, and the lower the occurrence probability, the smaller the predicted damage.
  • the damage prediction unit 157 supplies the risk and damage prediction results to the driving behavior detection unit 155 and the presentation control unit 158.
  • step S7 the driving behavior detection unit 155 adjusts the driving behavior detection parameter.
  • the driving behavior detection unit 155 adjusts parameters for detecting dangerous driving among various driving behaviors according to the predicted risk and damage.
  • the driving behavior related to the detection of dangerous driving is, for example, sudden start, sudden acceleration, sudden braking, sudden steering, etc., meandering driving, dozing driving, decrease in alertness and concentration, side-viewing driving Dangerous driving behavior such as inadvertent forward, overspeed, overtaking, overtaking distance, and approaching obstacles.
  • the detection parameter is adjusted so that the level of risky driving (risk level) to be detected becomes lower as the estimated risk and damage increase. As a result, dangerous driving is detected from an earlier stage and a lighter stage.
  • the threshold of the number of blinks in the sleepiness determination is reduced so that the user's sleepiness is detected earlier.
  • the threshold for detection of sudden acceleration or sudden braking is made small so that sudden acceleration or sudden braking is easily detected.
  • the lower the level of dangerous driving to be detected the lower the risk level (danger level) to be predicted. In other words, risks at an earlier stage and a lighter stage are predicted.
  • the level of dangerous driving to be detected and the level of risk to be predicted change.
  • the detection parameters are adjusted so that the level of dangerous driving that is a detection target is lower.
  • the lower the driving aptitude u the lower the level of dangerous driving that is the detection target and the level of risk that is the prediction target.
  • step S8 the presentation control unit 158 determines whether or not to perform feedback to the user (attention user).
  • Feedback to the user of interest is executed at a predetermined timing. For example, when a feedback request is transmitted from the user terminal unit 11 of the user of interest, the feedback is executed every time a predetermined time elapses or when a significant risk is predicted. Then, the presentation control unit 158 determines that the feedback to the user of interest is to be performed when the current timing is the time of performing the feedback to the user of interest, and the process proceeds to step S9.
  • the server 13 provides feedback to the user (attention user).
  • the presentation control unit 158 generates feedback information to be presented to the noted user.
  • the feedback information includes, for example, the result of the driving diagnosis of the user of interest, the content of the predicted risk, the basis of the driving diagnosis result or the basis for predicting the risk, and a proposal for avoiding the risk (hereinafter referred to as a risk avoidance plan).
  • the presentation control unit 158 transmits the generated feedback information to the user terminal unit 11 of the user of interest via the communication unit 151.
  • the output unit 66 of the mobile terminal 51 uses at least one of visual information (for example, video) and auditory information (for example, audio) to provide feedback information.
  • visual information for example, video
  • auditory information for example, audio
  • the output unit 83 of the wearable terminal 52 presents the feedback information to the user of interest using at least one of visual information and auditory information.
  • a voice message such as “Slow sleep state. It is recommended to drive after sleeping a little.”
  • the driving suitability u is presented as a value at a predetermined stage (for example, 10 stages), and the grounds are presented.
  • the estimation result of the state of the user of interest may be presented.
  • emotional indices such as emotion, excitement, aggression, etc. of the user of interest may be presented from values at a predetermined level (for example, 10 levels).
  • step S8 determines whether feedback to the user of interest is not performed. If it is determined in step S8 that feedback to the user of interest is not performed, the process of step S9 is skipped, and the process proceeds to step S10.
  • step S10 the state estimation unit 152 determines whether or not the user (attention user) has started driving. Specifically, the state estimation unit 152 determines whether or not the attention user has started driving based on data received from at least one of the user terminal unit 11 and the vehicle 12 of the attention user via the communication unit 151. Determine whether.
  • the driving start determination process may be performed by any of the user terminal unit 11, the vehicle 12, and the server 13.
  • the mobile terminal 51 may perform the driving start determination process by performing the driving recognition process of the user of interest or performing beacon synchronization with the vehicle 12.
  • a measurement device integrated with an in-vehicle display device or the like of the vehicle 12 may execute a driving start determination process.
  • the determination result is included in the data transmitted from the user terminal unit 11 or the vehicle 12, and the state estimation unit 152 receives attention based on the determination result. It is determined whether the user has started driving.
  • step S2 If it is determined that the user of interest has not started driving, the process returns to step S2. Thereafter, the processes in steps S2 to S10 are repeatedly executed until it is determined in step S10 that the user of interest has started driving. As a result, driving diagnosis, risk prediction, and damage prediction of the focused user are appropriately performed, and based on the results, adjustment of the dangerous driving detection parameter and feedback to the focused user are performed. In addition, the standard state pattern and the user set state pattern of the user of interest are updated as appropriate.
  • step S10 determines whether the user of interest has started driving. If it is determined in step S10 that the user of interest has started driving, the process proceeds to step S11.
  • step S11 the server 13 starts a process for estimating the state of the user (attention user) during driving.
  • This estimation process is significantly different from the estimation process in step S1 in that the estimation process is performed based on data transmitted from the vehicle 12 in addition to the user terminal unit 11 of the user of interest.
  • the gaze, blink, facial expression, etc. of the user of interest are detected and used to estimate the user's concentration, alertness, fatigue, emotions, etc. Further, for example, based on the vehicle data from the vehicle 12, the content of the driving operation of the user of interest is estimated.
  • the state of the target user is estimated based on the travel route of the vehicle 12 and the time zone during which the target user is driving. For example, after the heart rate and the amount of exercise of the user of interest increase rapidly, the user of interest drives in a different time zone (for example, late at night or early morning), or the vehicle 12 goes out of the daily life range of the user of interest. When traveling, it is estimated that the user of interest is impatient due to some emergency.
  • the state estimating unit 152 appropriately updates the state data log and the estimated state history of the user of interest as in the process of step S1.
  • the peripheral data acquisition unit 153 starts acquiring the peripheral data of the vehicle 12.
  • the peripheral data acquisition unit 153 is based on the positional information transmitted from the user terminal unit 11 or the vehicle 12 and the map information received from another server or the like via the communication unit 151, and the vehicle of the user of interest The state of 12 surrounding structures, roads, traffic jams, weather, and the like is detected.
  • the peripheral data acquisition unit 153 is based on video data, audio data, sensor data, and the like transmitted from the user terminal unit 11 or the vehicle 12, for example, an object (for example, a vehicle, a person, Obstacles, structures, roads, traffic lights, traffic signs, road markings, etc.) are detected.
  • the user terminal unit 11 or the vehicle 12 may perform detection processing of objects around the vehicle 12 and transmit the detection result to the server 13.
  • the peripheral data acquisition unit 153 supplies the acquired peripheral data of the vehicle 12 to the diagnosis unit 154 and the risk prediction unit 156.
  • step S13 the server 13 starts a driving behavior detection process. Specifically, for example, the following processing is started.
  • the driving behavior detection unit 155 transmits data related to driving behavior (for example, the behavior of the focused user or the vehicle 12 during driving) among the data received from the user terminal unit 11 and the vehicle 12 of the user of interest by the communication unit 151. Get from. Further, the driving behavior detection unit 155 is based on the acquired driving behavior data, the estimated state history of the user of interest stored in the storage unit 162, and the surrounding data of the vehicle 12 acquired from the surrounding data acquisition unit 153. The driving behavior is detected using the driving behavior detection model of the noted user stored in the storage unit 162. That is, the behavior of the user of interest during driving and the behavior of the vehicle 12 are detected. For example, the speed, acceleration, deceleration, brake operation, steering angle, travel route, etc. of the vehicle 12 are detected.
  • part of the behavior of the user of interest during driving may be detected (estimated) by the state estimation unit 152 in step S11.
  • the detection of the driving behavior may be performed by any of the user terminal unit 11, the vehicle 12, and the server 13, or may be performed by the user terminal unit 11, the vehicle 12, and the server 13 sharing. .
  • the driving behavior detection unit 155 performs dangerous driving detection processing based on the detected driving behavior, the estimated state history of the user of interest, and the surrounding data of the vehicle 12.
  • an abrupt operation is detected by a sudden change in the speed, steering angle, or torque of the vehicle 12 based on the OBD information or the like, or a sudden change in acceleration or angular velocity detected by the user terminal unit 12.
  • the meandering operation is detected based on periodic fluctuations such as the speed, steering angle, or torque of the vehicle 12 based on OBD information or the like, or periodic fluctuations such as acceleration or angular velocity detected by the user terminal unit 12. .
  • the shortage of the inter-vehicle distance is detected based on the position of the preceding vehicle detected using a stereo camera, laser radar, or millimeter wave radar.
  • step S7 the detection parameter adjusted in step S7 described above or step S20 described later is used in the dangerous driving detection process. Therefore, as described above, the lower the driving aptitude u of the user of interest is, the lower the level of dangerous driving to be detected, and the detection target is detected as dangerous driving from an earlier and lighter stage. .
  • the driving behavior detection unit 155 stores the driving behavior detection result in the storage unit 162 together with the detected time. Thereby, the driving behavior history of the noted user is updated.
  • step S14 the diagnosis unit 154 performs driving diagnosis during driving. For example, the diagnosis unit 154 determines the driving aptitude u using the driving diagnosis model of the user of interest stored in the storage unit 162 based on the estimated state history of the user of interest after the start of driving and the driving behavior history. to correct.
  • the driving suitability u is lowered when the attention user's concentration level or arousal level decreases or the attention user's fatigue level, stress level, or tension level increases.
  • the driving aptitude level u is increased.
  • the driving suitability u is lowered according to the detection frequency.
  • the driving suitability u is increased according to the duration.
  • the driving suitability u is corrected based on the smoothness of the brake or accelerator pedal, how to handle the steering wheel during cornering, smoothness of acceleration and deceleration, etc. May be.
  • the diagnosis unit 154 stores the corrected driving aptitude u and the estimated decrease factor in the storage unit 162 as a diagnosis result of the driving aptitude of the user of interest together with the time of diagnosis. Thereby, the driving diagnosis history of the noted user is updated.
  • step S15 the risk prediction unit 156 performs risk prediction.
  • the risk prediction unit 156 further uses the estimated state history and driving behavior history of the attention user stored in the storage unit 162 in addition to the driving diagnosis history of the attention user, Make a prediction. For example, even if the user's driving aptitude u is high, the predicted risk increases as the dangerous driving detection frequency increases and the detected dangerous driving risk increases. On the other hand, for example, even if the user's driving suitability u is low, the risk that is predicted is reduced if dangerous driving is not detected. In this way, since the risk prediction is performed by further using the actual driving state and driving behavior of the user of interest, the accuracy of the risk prediction is improved as compared with the process of step S5.
  • the risk prediction unit 156 can predict not only the risk and its occurrence probability but also the time when the risk occurrence probability will increase in the future (hereinafter referred to as the risk rise time). For example, the risk prediction unit 156 estimates, as the risk increase time, the time when the user falls below a predetermined threshold based on the time series change of the concentration level, the tension level, or the arousal level of the focused user.
  • the risk prediction unit 156 supplies the risk prediction result to the damage prediction unit 157.
  • the risk prediction result includes the predicted risk content, the basis for predicting the risk (for example, a decrease factor of driving suitability u or a detection result of dangerous driving), and the risk occurrence probability.
  • the risk rise time is included as necessary.
  • step S16 damage prediction is performed in the same manner as in step S6.
  • the damage prediction unit 157 performs damage prediction by further using the degree of compliance of the user of interest. That is, the higher the degree of obedience of the user of interest, the higher the possibility of avoiding the risk, and the lower the degree of obedience, the lower the possibility of avoiding the risk. Accordingly, the higher the degree of obedience, the smaller the expected damage, and the lower degree of obedience, the larger the expected damage.
  • the damage prediction unit 157 supplies the risk and damage prediction results to the driving behavior detection unit 155 and the presentation control unit 158.
  • the level of dangerous driving to be detected and the level of risk to be predicted change depending on the degree of obedience of the user of interest. For example, as described above, the lower the degree of compliance of the user of interest, the greater the risk damage that can be predicted. Therefore, the detection parameters are adjusted so that the level of dangerous driving that is a detection target is lower. As a result, the lower the degree of compliance, the lower the level of dangerous driving to be detected and the level of risk to be predicted.
  • step S17 the presentation control unit 158 determines whether or not to perform feedback to the user (attention user). For example, if the occurrence of a risk that needs to be notified to the user of interest is predicted, the presentation control unit 158 determines to perform feedback to the user of interest, and the process proceeds to step S18.
  • step S18 feedback to the user of interest is performed in the same manner as in step S8.
  • feedback information presented to the user of interest will be described.
  • a warning for dangerous driving is performed.
  • a voice message such as “Slow sleep state. Please drive carefully” is output.
  • the part “Please drive carefully” is a risk avoidance plan
  • the part “I am short of sleep” is the basis for presenting the risk avoidance plan.
  • a warning for dangerous driving is performed when approaching the preceding vehicle is detected. Is called.
  • a voice message such as “Are you in a hurry? Let's drive calmly” is output from the user terminal unit 11 or the vehicle 12 of the user of interest. For example, the part “Let's drive calmly” becomes a risk avoidance plan, and the part “Would you be in a hurry?” Is the basis for presenting the risk avoidance plan.
  • a voice message such as “Are you not sleepy?
  • the part “Please drive carefully with your surroundings” is the risk avoidance plan
  • the part “Do you feel sleepy?” Is the basis for presenting the risk avoidance plan.
  • a voice message such as “Would you like to take a break in the next service area?”
  • a warning of an increase in the insurance premium of car insurance and a cause of the warning are presented.
  • “Dangerous driving due to lack of sleep (or tension) occurs frequently. If x dangerous driving is detected, the right to cash back the insurance premium
  • Mass is the basis for warning.
  • the service area A is a service area in which it is estimated that the vehicle 12 of the user of interest can be reached before the risk rise time is reached. For example, “Would you like to take a break in service area A?” Is a risk avoidance plan, and “Are you tired?” Is the basis for presenting the risk avoidance plan.
  • risk avoidance plan can be made more specific, for example, “Please reduce the speed to 60 km / h” or “Please turn to the front immediately”.
  • the presentation control unit 158 supplies feedback information to the evaluation unit 159.
  • step S19 the evaluation unit 159 evaluates the degree of obedience of the user (attention user). Specifically, the evaluation unit 159 acquires from the storage unit 162 the estimated state history and the driving behavior history of the target user after the feedback to the target user is performed. And the evaluation part 159 detects the reaction (for example, the content of driving
  • the reaction for example, the content of driving
  • the evaluation unit 159 updates the evaluation value of the degree of obedience of the attention user based on the reaction of the attention user. For example, if the risk avoidance plan is included in the feedback information presented this time and the target user follows the risk avoidance plan, the degree of compliance of the target user increases. In addition, the shorter the time until the focused user follows the risk avoidance plan (the faster the response speed), or the smaller the difference between the focused user's response and the risk avoidance plan, the greater the increase in the degree of compliance of the focused user. . Conversely, the longer the time it takes for the focused user to follow the risk avoidance plan (the slower the response speed), or the greater the difference between the focused user response and the risk avoidance plan, the smaller the increase in the degree of compliance of the focused user. Become.
  • the degree of compliance of the focused user is descend.
  • the degree of decrease in the degree of compliance of the attention user increases.
  • the evaluation unit 159 supplies the updated degree of obedience to the attention user to the damage prediction unit 157 and stores it in the storage unit 162.
  • step S17 determines whether feedback to the user of interest is not performed. If it is determined in step S17 that feedback to the user of interest is not performed, the processing in step S18 and step S19 is skipped, and the processing proceeds to step S20.
  • step S20 the driving behavior detection parameter is adjusted in the same manner as in step S7.
  • step S21 the state estimation unit 152 determines whether or not the user has stopped driving. That is, the state estimation unit 152 receives the attention based on the data received from at least one of the user terminal unit 11 and the vehicle 12 of the user of interest via the communication unit 151 as in the driving start determination process in step S10. It is determined whether the user has stopped driving.
  • step S14 If it is determined that the user of interest has not stopped driving, the process returns to step S14. Thereafter, the processing from step S14 to step S21 is repeatedly executed until it is determined in step S21 that the user of interest has stopped driving. As a result, driving diagnosis, risk prediction, and damage prediction of the focused user are appropriately performed, and based on the results, adjustment of the dangerous driving detection parameter and feedback to the focused user are performed. In addition, the degree of compliance of the user of interest is updated as appropriate.
  • step S21 if it is determined in step S21 that the user of interest has stopped driving, the process proceeds to step S22.
  • step S22 as in the process of step S1, the process of estimating the state of the focused user during non-driving is started.
  • step S23 the peripheral data acquisition unit 153 stops the acquisition of data around the vehicle 12.
  • step S24 the driving behavior detection unit 155 stops the driving behavior detection process.
  • step S25 the learning unit 160 performs a learning process.
  • the learning unit 160 detects the state estimation model, the driving diagnosis model, and the driving behavior detection based on the state data log, the estimated state history, the driving diagnosis history, and the driving behavior history stored in the storage unit 162.
  • the model and the risk prediction model are learned.
  • the weight wx and the weight wy of the equation (1) representing the above-described driving diagnosis model are set to be small.
  • the driving aptitude u of the user of interest is evaluated higher than before.
  • the weight wx and the weight wy of the formula (1) are set large.
  • the driving suitability u of the focused user is evaluated lower than before.
  • the above formula (1) The weight wx is increased and the weight wy is decreased. That is, in the driving diagnosis, the difference between the latest state pattern of the user of interest and the standard state pattern is more emphasized.
  • each model is updated to a model more suitable for the user of interest by learning processing (personalized).
  • this learning process does not necessarily have to be performed every time the user's driving is completed, for example, every predetermined period, every time the driving is performed a predetermined number of times, every time the driving time increases by a predetermined time or more. It may be performed at an arbitrary timing. In addition, it is not always necessary to perform learning processing for all models at the same time, and learning processing may be performed at different timings for each model.
  • the learning unit 160 may learn a fatigue level estimation model that predicts the fatigue level of the focused user based on the transition of the fatigue level of the focused user before and during driving indicated in the estimated state history.
  • the state estimation unit 152 can estimate the fatigue level of the user of interest at each point on the planned travel route using the fatigue level estimation model.
  • the learning unit 160 learns the fatigue level estimation model by taking into account the surrounding conditions of the vehicle 12 such as time zone, weather, traffic congestion, and road type (for example, general road or highway). By doing so, it is possible to improve the estimation accuracy of the fatigue level.
  • machine learning such as a neural network or any other method can be used.
  • the insurance premium calculation unit 161 calculates the insurance premium of the user (attention user). For example, the insurance fee calculation unit 161, when the insurance premium of the user's car insurance or the cashback amount for the insurance fee fluctuates in real time, the driving diagnosis history, driving behavior history of the user's attention stored in the storage unit 162, And the insurance premium or cashback amount is updated based on the degree of obedience.
  • the insurance fee calculation unit 161 causes the storage unit 162 to store the updated premium or cashback amount of the attention user.
  • the lower the average value of the driving aptitude u the higher the insurance premium (or the cashback amount decreases), and the higher the average value of the driving aptitude u, the lower the insurance premium (or the cashback amount). rises).
  • the higher the frequency or cumulative number of dangerous driving the higher the insurance premium (or the cashback amount decreases), and the lower the dangerous driving frequency or cumulative number, the lower the insurance fee (or the cashback amount). Rises).
  • the higher the average or total expected damage for dangerous driving the higher the premium (or lower cashback amount) and the lower the average or total expected damage for dangerous driving The insurance premium decreases (or the cashback amount increases).
  • the lower the obedience level the lower the risk cannot be expected, so the premium increases (or the cashback amount decreases), and the higher the obedience level, the lower the risk, the lower the premium. (Or the cash back amount will increase).
  • the increase in the insurance premium increases as a penalty.
  • this insurance premium calculation process does not necessarily have to be performed every time the user's driving ends, for example, every predetermined period, every time the driving is performed a predetermined number of times, every time the driving time increases by a predetermined time or more. It may be performed at an arbitrary timing.
  • this premium calculation processing may be executed, for example, to calculate an estimated amount of premium when the next insurance is renewed.
  • the insurance premium may be calculated by executing this insurance premium calculation process before driving.
  • the insurance premium is calculated using at least one of the driving aptitude u and the degree of obedience of the user of interest.
  • the calculated insurance premium or cashback amount may be presented to the attention user as feedback information.
  • step S2 Thereafter, the process returns to step S2, and the processes after step S2 are executed.
  • driving behavior is influenced not only by the state of the user during driving, but also by the state of the user before driving (for example, behavior, biological state, emotion, etc.).
  • the driving aptitude u is more appropriately evaluated by considering the user's state before driving in addition to the user's driving state and driving behavior.
  • the accuracy of the driving suitability u is improved, so that the accuracy of risk prediction and damage prediction is improved.
  • appropriate feedback information can be presented at a more appropriate timing, safety can be improved, and an accident can be prevented.
  • the user's satisfaction is improved, and the probability that the user follows the risk avoidance plan is increased.
  • the user instructs the server 13 to make corrections and reflects them in the learning process, thereby improving the accuracy of the driving diagnosis model and the risk prediction model.
  • the degree of obedience of the user is evaluated, and the risk is more reliably avoided by the user by changing the level of dangerous driving to be detected and the level of risk to be predicted based on the degree of obedience. Will be able to.
  • the insurance premium (including cashback amount) for automobile insurance based on not only the driving behavior of the user but also the driving suitability u and the degree of obedience, a more appropriate insurance premium is set for each user. Can do. Thereby, for example, the user can be motivated to follow the risk avoidance plan, and the user can more reliably avoid the risk.
  • the configuration example of the information processing system 10 in FIGS. 1 to 4 is an example, and can be changed as necessary.
  • the server 13 has shown an example in which most processing is performed based on data acquired from the user terminal unit 11 and the vehicle 12 (in-vehicle system 101).
  • the user terminal unit 11, vehicle 12 and the server 13 can share the processing, or the user terminal unit 11 or the vehicle 12 can perform the processing alone.
  • At least one of the user terminal unit 11 and the vehicle 12 can perform part or all of the processing of the server 13.
  • At least one of the user terminal unit 11 and the vehicle 12 performs part or all of the processing of the state estimation unit 152, the driving behavior detection unit 155, and the evaluation unit 159, and transmits the estimation result and the detection result to the server 13. You may make it do.
  • At least one of the user terminal unit 11 and the vehicle 12 may perform part or all of the processing of the peripheral data acquisition unit 153 and transmit the acquired peripheral data to the server 13.
  • At least one of the user terminal unit 11 and the vehicle 12 performs part or all of the processing of the diagnosis unit 154, the risk prediction unit 156, and the damage prediction unit 157, and transmits the diagnosis result and the prediction result to the server 13. You may do it.
  • the user terminal unit 11 may perform processing related to driving support.
  • the user terminal unit 11 may be composed of a plurality of devices or a single device.
  • the user terminal unit 11 may acquire various types of data (for example, vehicle data, video data, audio data, etc.) from the vehicle 12 and use them for processing, or use data from the vehicle 12 for processing. It may not be.
  • the user gathering state pattern may or may not be used for the driving diagnosis process.
  • the server 13 learns the user set state pattern based on the standard state pattern of each user acquired from the user terminal unit 11 of each user. And the server 13 transmits the data which show a user aggregate state pattern to the user terminal part 11 of each user.
  • the insurance premium calculation process may be performed by either the user terminal unit 11 or the server 13.
  • the user terminal unit 11 performs, for example, an application program that performs insurance premium calculation processing is provided from the server 13.
  • the server 13 performs, for example, data necessary for calculating the insurance premium is provided from the user terminal unit 11 to the server 13.
  • the vehicle 12 in-vehicle system 101.
  • the user terminal unit 11 performs a process for estimating the state of the user during non-driving and a learning process for the standard state pattern, and obtains data indicating the estimated state history and the standard state pattern obtained as a result of the vehicle before driving. 12 to send. Then, the vehicle 12 executes the remaining processing.
  • the user aggregate state pattern may or may not be used for the driving diagnosis process.
  • the server 13 learns the user set state pattern based on the standard state pattern of each user acquired from the user terminal unit 11 of each user. . Then, the server 13 transmits data indicating the user aggregate state pattern to the user terminal unit 11 or the vehicle 12 of each user.
  • the insurance premium calculation process may be performed by any of the user terminal unit 11, the vehicle 12, and the server 13.
  • the user terminal unit 11 or the vehicle 12 performs, for example, an application program that performs insurance premium calculation processing is provided from the server 13.
  • the server 13 performs, for example, data necessary for calculating the insurance premium is provided from the user terminal unit 11 and the vehicle 12 to the server 13.
  • the user terminal unit 11 and the server 13 may share the processing.
  • data from the vehicle 12 may or may not be used for processing.
  • the processing may be performed by sharing the vehicle 12 and the server 13.
  • data necessary for processing for example, a user's standard state pattern and the latest state pattern
  • the user terminal unit 11 for example, a user's standard state pattern and the latest state pattern
  • processing may be shared by a plurality of servers.
  • processing related to driving support and the processing related to insurance premium calculation may be performed by different servers.
  • communication between the vehicle 12 and the server 13 may be performed via the user terminal unit 11.
  • data from the vehicle 12 is once transmitted to the user terminal unit 11 and then transferred from the user terminal unit 11 to the server 13.
  • Data from the server 13 is once transmitted to the user terminal unit 11 and then transferred from the user terminal unit 11 to the vehicle 12.
  • communication between the user terminal unit 11 and the server 13 may be performed via the vehicle 12.
  • data from the user terminal unit 11 is once transmitted to the vehicle 12 and then transferred from the vehicle 12 to the server 13.
  • Data from the server 13 is once transmitted to the vehicle 12 and then transferred from the vehicle 12 to the user terminal unit 11.
  • the state data log before the user state is estimated is directly used, the driving diagnosis of the diagnosis unit 154, the risk prediction of the risk prediction unit 156, and the driving behavior detection unit 155 Detection of driving behavior may be performed.
  • the state estimation unit 152 can be deleted.
  • the driving aptitude degree u may be calculated using the current user state in addition to the degree of deviation between the user's latest state pattern and the standard state pattern or the user set average pattern. For example, even if the difference between the user's latest state pattern and the standard state pattern is small, for example, when the user's arousal level is low, excited, or depressed, there is a high possibility that dangerous driving will be performed. Therefore, for example, among the items indicating the user's state, for items that have a large influence on driving, the current state (for example, arousal level, excitement level, depression level) of those items is set as the driving aptitude level u. You may make it use for calculation.
  • the estimated user state is not limited to the above-described three types of biological state, action, and emotion. For example, only one or two of the above three types may be estimated, or other types of states may be estimated.
  • a user action that is normally assumed not to directly affect driving may be used for calculation of the driving suitability u.
  • the user's state for example, emotion
  • the user's ability detected based on the state of the user during non-driving and the ability to influence driving may be used for calculating the driving suitability u.
  • the driving aptitude degree u of a user having a high judgment ability in daily life may be set high, and the driving aptitude degree u of a user having a low judgment ability may be set low.
  • the risk predicted for a user with high judgment ability is low and the judgment ability is low
  • the predicted risk for the user is high.
  • the risk avoidance plan is presented to reduce lane changes, but the lane change is ignored and repeated, the degree of obedience will be evaluated low, so it is predicted. Risk increases.
  • risk prediction may be performed based on only one or two of the estimation result of the user state, the result of the driving diagnosis, and the detection result of the driving behavior. For example, when risk prediction is performed using the result of driving diagnosis, only one of the driving aptitude u before driving and the driving aptitude u during driving may be used.
  • driving diagnosis may be performed based only on the state of one user before driving and during driving.
  • the estimated state history, the driving diagnosis history, and the driving behavior history can be used for investigation of the cause of the accident. For example, by recording an estimated state history, a driving diagnosis history, and a driving behavior history on a drive recorder, in addition to the state and behavior of the user (driver) at the time of the accident, it is based on the state of the user before driving. This makes it possible to investigate the cause of the accident.
  • the user terminal unit 11 or the vehicle 12 can acquire the driving suitability u of other users, the risk prediction results, and the like from the user terminal unit 11 or the vehicle 12 of other users or the server 13. May be.
  • the user terminal unit 11 or the vehicle 12 can acquire the driving suitability u of other users, the risk prediction results, and the like from the user terminal unit 11 or the vehicle 12 of other users or the server 13. May be.
  • the state estimation model is not necessarily performed, and a model using a predetermined algorithm or the like may be used.
  • a model using a predetermined algorithm or the like may be used instead of learning the above model for each user, for example, the entire user set may be used, and a common model may be used for each user.
  • the feedback information presentation method, presentation frequency, presentation content, and the like may be changed based on the degree of user obedience.
  • the driving support processing of the present technology can be applied to, for example, various types of moving bodies such as motorcycles, bicycles, personal mobility, airplanes, ships, construction machines, and agricultural machines (tractors).
  • the present invention can also be applied when driving. That is, driving diagnosis, risk prediction, damage prediction, feedback to the user, and the like can be performed using the estimation result of the user state before driving and during driving.
  • the movable body to which the present technology can be applied includes parts that work in a fixed place such as some construction machines (for example, fixed cranes) in addition to those that move the place. A moving body that moves is also included.
  • mobile bodies to which the present technology can be applied include, for example, mobile bodies that are operated (operated) remotely without a user such as a drone or a robot boarding.
  • this technology can be applied to systems and devices that provide various types of insurance such as life insurance, non-life insurance, and medical insurance.
  • various insurance premiums can be calculated based on the user's estimated state history and degree of compliance.
  • the user terminal unit 11 or the server 13 performs a user state estimation process and accumulates an estimated state history.
  • the user terminal unit 11 or the server 13 presents the user with a proposal (risk avoidance plan) for avoiding the risk of illness based on the user's lifestyle and biological condition based on the estimated state history, and the reaction To evaluate the user's degree of obedience.
  • the user terminal part 11 or the server 13 calculates the insurance premium of a life insurance or a medical insurance based on a user's lifestyle, biological condition, obedience degree, etc.
  • the premium is lower for a user with a better lifestyle and biological condition, and the premium is higher for a user with a worse lifestyle and biological condition.
  • FIG. 11 is a block diagram showing an example of a hardware configuration of a computer that executes the above-described series of processing by a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • an input / output interface 405 is connected to the bus 404.
  • An input unit 406, an output unit 407, a recording unit 408, a communication unit 409, and a drive 410 are connected to the input / output interface 405.
  • the input unit 406 includes an input switch, a button, a microphone, an image sensor, and the like.
  • the output unit 407 includes a display, a speaker, and the like.
  • the recording unit 408 includes a hard disk, a nonvolatile memory, and the like.
  • the communication unit 409 includes a network interface.
  • the drive 410 drives a removable recording medium 411 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 401 loads, for example, the program recorded in the recording unit 408 to the RAM 403 via the input / output interface 405 and the bus 404 and executes the program. Is performed.
  • the program executed by the computer (CPU 401) can be provided by being recorded in, for example, a removable recording medium 411 as a package medium or the like.
  • the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the recording unit 408 via the input / output interface 405 by attaching the removable recording medium 411 to the drive 410. Further, the program can be received by the communication unit 409 via a wired or wireless transmission medium and installed in the recording unit 408. In addition, the program can be installed in the ROM 402 or the recording unit 408 in advance.
  • the program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
  • the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Accordingly, a plurality of devices housed in separate housings and connected via a network and a single device housing a plurality of modules in one housing are all systems. .
  • the present technology can take a cloud computing configuration in which one function is shared by a plurality of devices via a network and is jointly processed.
  • each step described in the above flowchart can be executed by one device or can be shared by a plurality of devices.
  • the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
  • a presentation control unit that generates a risk avoidance plan for the user based on the predicted risk; Based on the user's response to the risk avoidance plan, an evaluation unit that evaluates the degree of compliance of the user;
  • An information processing apparatus comprising: a risk prediction unit that adjusts a risk prediction parameter based on the evaluated degree of compliance.
  • the information processing apparatus according to (1) wherein the risk prediction unit predicts a risk related to driving of the moving body by the user.
  • a driving behavior detection unit that detects driving behavior that is the behavior of the user or the moving body during driving; The information processing apparatus according to (2), wherein the risk prediction unit predicts the risk based on a detection result of the driving behavior.
  • the information processing apparatus according to any one of (1) to (6), wherein the level of risk that is a prediction target of the risk prediction unit decreases as the degree of compliance decreases.
  • the information processing apparatus according to any one of (1) to (7), further including an insurance premium calculation unit configured to calculate an insurance premium for the user based on the degree of compliance.
  • the information processing apparatus wherein the insurance premium calculation unit decreases the insurance premium as the degree of compliance is high, and increases the insurance premium as the degree of compliance is low.
  • the risk is a risk related to driving the vehicle by the user, The information processing apparatus according to (8) or (9), wherein the insurance includes automobile insurance.

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Strategic Management (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Technology Law (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)
  • Traffic Control Systems (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Physiology (AREA)
  • Signal Processing (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

本技術は、ユーザが確実にリスクを回避することができるようにする情報処理装置、情報処理方法、及び、プログラムに関する。 情報処理装置は、予測されるリスクに基づいて、ユーザに対するリスクの回避案を生成する提示制御部と、前記リスクの回避案に対する前記ユーザの反応に基づいて、前記ユーザの従順度を評価する評価部と、評価された従順度に基づいてリスクの予測パラメータを調整するリスク予測部とを備える。本技術は、例えば、移動体の運転の支援を行う情報処理システム若しくは情報処理装置、又は、各種の保険を提供する情報処理システム若しくは情報処理装置に適用できる。

Description

情報処理装置、情報処理方法、及び、プログラム
 本技術は、情報処理装置、情報処理方法、及び、プログラムに関し、特に、ユーザにリスクの回避案を提示する場合に用いて好適な情報処理装置、情報処理方法、及び、プログラムに関する。
 従来、運転者の運転中の状態を検出するために、運転者の生体情報が用いられている。
 例えば、運転者の皮膚インピーダンスの安静閉眼時の測定値と通常活動時の測定値の平均値とに基づく補正データにより、運転者の皮膚インピーダンスの測定値を補正し、補正した値に基づいて、運転者の覚醒度の判断を行うことが提案されている(例えば、特許文献1参照)。
 例えば、車両の生体センサにより測定された生体データを、車内の充電器に設置された携帯端末及び公衆ネットワーク回線を介してデータ処理装置に送信し、データ処理装置が、受信した生体データを運転者の携帯端末に送信することが提案されている(例えば、特許文献2参照)。
 そして、例えば、検出された運転者の状態に基づいて、事故等のリスクを回避するための運転支援が行われる。
特開平10-80405号公報 特開2016-140377号公報
 ところで、運転支援を行っても、ユーザが意図したように行動しない場合、リスクを回避できないときがある。
 本技術は、このような状況に鑑みてなされたものであり、ユーザが確実にリスクを回避できるようにするものである。
 本技術の一側面の情報処理装置は、予測されるリスクに基づいて、ユーザに対するリスクの回避案を生成する提示制御部と、前記リスクの回避案に対する前記ユーザの反応に基づいて、前記ユーザの従順度を評価する評価部と、評価された従順度に基づいてリスクの予測パラメータを調整するリスク予測部とを備える。
 前記リスク予測部には、前記ユーザによる移動体の運転に関するリスクの予測を行わせることができる。
 運転中の前記ユーザ又は前記移動体の挙動である運転挙動を検出する運転挙動検出部をさらに設け、前記リスク予測部には、前記運転挙動の検出結果に基づいて、前記リスクの予測を行わせることができる。
 前記運転挙動検出部の検出対象となる危険な運転挙動のレベルを、前記従順度に基づいて変化させることができる。
 前記従順度が低くなるほど、前記運転挙動検出部の検出対象となる危険な運転挙動のレベルを低くさせることができる。
 前記ユーザの運転前の状態及び運転中の状態のうち少なくとも1つに基づいて、前記ユーザの運転に対する適性の診断を行う診断部をさらに設け、前記リスク予測部には、前記診断の結果に基づいて、前記リスクの予測を行わせることができる。
 前記従順度が低くなるほど、前記リスク予測部の予測対象となるリスクのレベルを低くすることができる。
 前記従順度に基づいて、前記ユーザに対する保険の保険料の算定を行う保険料算定部をさらに設けることができる。
 前記保険料算定部には、前記従順度が高いほど前記保険料を下げさせ、前記従順度が低いほど前記保険料を上げさせることができる。
 前記リスクを、前記ユーザによる車両の運転に関するリスクとし、前記保険には、自動車保険を含ませることができる。
 本技術の一側面の情報処理方法は、予測されるリスクに基づいて、ユーザに対するリスクの回避案を生成する提示制御ステップと、前記リスクの回避案に対する前記ユーザの反応に基づいて、前記ユーザの従順度を評価する評価ステップと、評価された従順度に基づいてリスクの予測パラメータを調整するリスク予測ステップとを含む。
 本技術の一側面のプログラムは、予測されるリスクに基づいて、ユーザに対するリスクの回避案を生成する提示制御ステップと、前記リスクの回避案に対する前記ユーザの反応に基づいて、前記ユーザの従順度を評価する評価ステップと、評価された従順度に基づいてリスクの予測パラメータを調整するリスク予測ステップとを含む処理をコンピュータに実行させる。
 本技術の一側面においては、予測されるリスクに基づいて、ユーザに対するリスクの回避案が生成され、前記リスクの回避案に対する前記ユーザの反応に基づいて、前記ユーザの従順度が評価され、評価された従順度に基づいてリスクの予測パラメータが調整される。
 本技術の一側面によれば、ユーザの従順度を得ることができる。その結果、例えば、ユーザの従順度を用いて、ユーザが確実にリスクを回避できるようにすることができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載された何れかの効果であってもよい。
本技術を適用した情報処理システムの一実施の形態を示すブロック図である。 ユーザ端末部の構成例を示すブロック図である。 車両の構成例を示すブロック図である。 サーバの構成例を示すブロック図である。 サーバにより実行される運転支援処理を説明するためのフローチャートである。 サーバにより実行される運転支援処理を説明するためのフローチャートである。 ユーザの状態の推定処理を説明するための図である。 ユーザの標準状態パターンの学習方法を説明するための図である。 ユーザ集合状態パターンの学習方法を説明するための図である。 運転診断の方法の例を説明するための図である。 コンピュータの構成例を示す図である。
 以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
 1.実施の形態
 2.変形例
 3.その他
 <<1.実施の形態>>
 <情報処理システムの構成例>
 図1は、本技術を適用した情報処理システムの一実施の形態を示すブロック図である。
 情報処理システム10は、例えば、テレマティクス技術を用いて、車両の運転支援や自動車保険等のサービスを提供するシステムである。
 情報処理システム10は、ユーザ端末部11、車両12、及び、サーバ13を備える。ユーザ端末部11と車両12は、直接又はネットワーク14を介して通信を行う。サーバ13は、ユーザ端末部11及び車両12と、ネットワーク14を介して通信を行う。
 ユーザ端末部11は、情報処理システム10を利用するユーザが持つ1以上の情報処理端末からなる。例えば、ユーザ端末部11は、モバイル端末及びウエアラブル端末を含み得る。
 車両12は、情報処理システム10を利用するユーザが運転する車両である。
 サーバ13は、ネットワーク14を介して、ユーザ端末部11及び車両12と通信を行うことにより、情報処理システム10を利用するユーザに対して、運転支援や自動車保険等のサービスを提供する。
 なお、図1では、図を分かりやすくするために、ユーザ端末部11、車両12、及び、サーバ13を1つずつ図示しているが、2つ以上設けることが可能である。例えば、ユーザ端末部11及び車両12は、情報処理システム10を利用するユーザ数とほぼ等しい数だけ設けられる。
 また、以下、説明を簡単にするために、ユーザ端末部11、車両12、及び、サーバ13がネットワーク14を介して通信を行う場合の「ネットワーク14を介して」の記載を省略する。
 <ユーザ端末部の構成例>
 図2は、ユーザ端末部11の構成例を示すブロック図である。この例では、ユーザ端末部11は、モバイル端末51及びウエアラブル端末52を備える。
 モバイル端末51は、例えば、スマートフォン、携帯電話機、タブレット、ノート型のパーソナルコンピュータ、携帯型のゲーム機、携帯型の動画又は音楽再生装置等の携帯型の情報処理端末からなる。
 モバイル端末51は、GNSS(Global Navigation Satellite System)受信機61、慣性センサ62、環境センサ63、生体センサ64、入力部65、出力部66、制御部67、及び、通信部68を備える。
 GNSS受信機61は、測位衛星からの電波を受信することにより、モバイル端末51(を持つユーザ)の現在位置を測定し、測定した現在位置を示す位置データを制御部67に供給する。
 慣性センサ62は、モバイル端末51(を持つユーザ)に関する各種の慣性データを検出し、検出した慣性データを制御部67に供給する。慣性センサ62が検出する慣性データは、例えば、加速度、角速度等のうち1以上を含む。
 環境センサ63は、モバイル端末51(を持つユーザ)の周囲の各種の環境データを検出し、検出した環境データを制御部67に供給する。環境センサ63が検出する環境データは、例えば、地磁気、大気圧、二酸化炭素濃度等のうち1以上を含む。
 生体センサ64は、ユーザの各種の生体データを検出し、検出した生体データを制御部67に供給する。生体センサ64が検出する生体データは、例えば、心拍、発汗量、血圧、血中酸素濃度、筋電、体温、体組成、呼気中アルコール濃度、最大酸素摂取量、消費カロリー、声のトーン、会話のスピード等のうちの1以上を含む。
 入力部65は、モバイル端末51に各種のデータを入力するための入力装置を備える。例えば、入力部65は、ボタン、スイッチ、キー、タッチパネル、マイクロフォン等のうち1以上を備える。入力部65は、入力データを制御部67に供給する。
 出力部66は、各種の情報やデータを出力するための出力装置を備える。例えば、出力部66は、ディスプレイ、スピーカ、ブザー、バイブレータ等のうち1以上を備える。
 制御部67は、例えば、各種のプロセッサ等の制御装置を備える。制御部67は、GNSS受信機61、慣性センサ62、環境センサ63、生体センサ64、及び、入力部65から供給されるデータ、並びに、通信部68を介して外部から受信したデータ等に基づいて、モバイル端末51の各部の制御や各種の処理を行う。また、制御部67は、各種の処理により得られたデータを出力部66に供給したり、通信部68を介して他の機器に送信したりする。
 通信部68は、所定の通信方式により他の機器(例えば、車両12、サーバ13、ウエアラブル端末52等)との通信を行う。通信部68の通信方式には、無線又は有線の任意の方式を採用することができる。また、通信部68は、複数の通信方式に対応することも可能である。
 ウエアラブル端末52は、例えば、眼鏡型、腕時計型、ブレスレット型、ネックレス型、ネックバンド型、イヤフォン型、ヘッドセット型、及び、ヘッドマウント型等の任意の形態のウエアラブル端末からなる。
 ウエアラブル端末52は、生体センサ81、入力部82、出力部83、制御部84、及び、通信部85を備える。
 生体センサ81は、モバイル端末51の生体センサ64と同様に、ユーザの各種の生体データを検出し、検出した生体データを制御部84に供給する。なお、生体センサ81が検出する生体データの種類と、モバイル端末51の生体センサ64が検出する生体データの種類とは重複していても構わない。
 入力部82は、ウエアラブル端末52に各種のデータを入力するための入力装置を備える。例えば、入力部82は、ボタン、スイッチ、キー、タッチパネル、マイクロフォン等のうち1以上を備える。入力部82は、入力データを制御部67に供給する。
 出力部83は、各種の情報やデータを出力するための出力装置を備える。例えば、出力部83は、ディスプレイ、スピーカ、ブザー、バイブレータ等のうち1以上を備える。
 制御部84は、例えば、各種のプロセッサ等の制御装置を備える。制御部84は、生体センサ81及び入力部82から供給されるデータ、並びに、通信部85を介して外部から受信したデータ等に基づいて、ウエアラブル端末52の各部の制御や各種の処理を行う。また、制御部84は、各種の処理により得られたデータを出力部83に供給したり、通信部85を介して他の機器に送信したりする。
 通信部85は、所定の通信方式により他の機器(例えば、車両12、サーバ13、モバイル端末51等)との通信を行う。通信部85の通信方式には、無線又は有線の任意の方式を採用することができる。また、通信部85は、複数の通信方式に対応することも可能である。
 <車両の構成例>
 図3は、車両12の一部の構成例を示すブロック図である。車両12は、車載システム101を備える。車載システム101は、車両データ取得部111、映像音声取得部112、入力部113、出力部114、制御部115、及び、通信部116を備える。
 車両データ取得部111は、例えば、各種のセンサ、通信機器、制御装置等を備える。車両データ取得部111は、車両12に関する車両データを取得し、取得した車両データを制御部115に供給する。車両データ取得部111が取得する車両データは、例えば、車速、トルク、ステアリング角度、ヨー角、ギアの状態、サイドブレーキの状態、アクセルペダルの踏み込み量、ブレーキペダルの踏み込み量、方向指示器の状態、ライトの状態、タイヤの回転角や回転速度、OBD(On-board Diagnostics)の診断結果を示すデータ(以下、OBDデータと称する)、並びに、ミリ波レーダ及びレーザレーダ等のセンサデータ等のうち1以上を含む。
 映像音声取得部112は、例えば、カメラ及びマイクロフォン等を備える。映像音声取得部112が備えるカメラは、通常のカメラ以外にも、例えば、ToF(Time Of Flight)カメラ、ステレオカメラ、赤外線カメラ等の特殊なカメラであってもよい。映像音声取得部112は、例えば、車両12の周囲及び内部の映像及び音声を取得し、取得した映像及び音声を示す映像データ及び音声データを制御部115に供給する。
 入力部113は、車両12に各種のデータを入力するための入力装置を備える。例えば、入力部113は、ボタン、スイッチ、キー、タッチパネル等のうち1以上を備える。入力部113は、入力データを制御部115に供給する。
 出力部114は、各種の情報やデータを出力するための出力装置を備える。例えば、出力部114は、ディスプレイ(例えば、ヘッドアップディスプレイ)、スピーカ、ブザー、バイブレータ、インストルメントパネル等のうち1以上を備える。
 制御部115は、例えば、ECU(Electronic Control Unit)等の制御装置を備える。制御部115は、車両データ取得部111、映像音声取得部112、及び、入力部113から供給されるデータ、並びに、通信部116を介して外部から受信したデータ等に基づいて、車両12の各部の制御や各種の処理を行う。また、制御部115は、各種の処理により得られたデータを出力部114に供給したり、通信部116を介して他の機器に送信したりする。
 通信部116は、所定の通信方式により他の機器(例えば、サーバ13、モバイル端末51、ウエアラブル端末52等)との通信を行う。通信部116の通信方式には、無線又は有線の任意の方式を採用することができる。また、通信部116は、複数の通信方式に対応することも可能である。
 <サーバの構成例>
 図4は、サーバ13の構成例を示すブロック図である。サーバ13は、通信部151、状態推定部152、周辺データ取得部153、診断部154、運転挙動検出部155、リスク予測部156、損害予測部157、提示制御部158、評価部159、学習部160、保険料算定部161、及び、記憶部162を備える。
 通信部151は、所定の通信方式により、ネットワーク14を介して、他の機器(例えば、車両12、モバイル端末51、ウエアラブル端末52、他のサーバ(不図示)等)との通信を行う。通信部151の通信方式には、無線又は有線の任意の方式を採用することができる。また、通信部151は、複数の通信方式に対応することも可能である。
 状態推定部152は、通信部151を介して、ユーザ端末部11及び車両12からユーザの状態に関するデータを取得する。状態推定部152は、ユーザの状態に関するデータのログである状態データログの生成及び更新を行い、記憶部162に記憶させる。
 また、状態推定部152は、状態データログに基づいて、記憶部162に記憶されている状態推定モデルを用いて、ユーザの状態の推定処理を行う。ここで、状態推定モデルとは、ユーザの状態の推定に用いるモデルであり、例えば、ユーザ毎に生成される。状態推定部152は、ユーザの状態の推定結果の履歴である推定状態履歴の生成及び更新を行い、記憶部162に記憶させる。
 周辺データ取得部153は、通信部151を介して、ユーザ端末部11、車両12、及び、他のサーバ(不図示)から受信したデータに基づいて、車両12の周辺の状態を示す周辺データを取得する。周辺データ取得部153は、取得した周辺データを診断部154及びリスク予測部156に供給する。
 診断部154は、ユーザの推定状態履歴、運転挙動履歴、及び、運転診断モデルを記憶部162から取得する。ここで、運転挙動履歴とは、運転中のユーザ又は車両12の挙動である運転挙動の検出結果の履歴であり、例えば、ユーザ毎に生成される。また、運転診断モデルとは、ユーザの車両の運転に対する適性を診断する運転診断に用いるモデルであり、例えば、ユーザ毎に生成される。診断部154は、取得した履歴に基づいて、運転診断モデルを用いて、ユーザの運転診断を行う。診断部154は、ユーザの運転診断結果の履歴である運転診断履歴の生成及び更新を行い、記憶部162に記憶させる。
 運転挙動検出部155は、通信部151を介して、ユーザ端末部11及び車両12からデータを受信する。また、運転挙動検出部155は、ユーザの推定状態履歴及び運転挙動検出モデルを記憶部162から取得する。ここで、運転挙動検出モデルとは、運転挙動の検出に用いるモデルであり、例えば、ユーザ毎に生成される。さらに、運転挙動検出部155は、損害予測部157から、ユーザによる車両の運転に関するリスク、及び、リスクにより発生する損害の予測結果を取得する。運転挙動検出部155は、取得した履歴及びデータ等に基づいて、運転挙動検出モデルを用いて、ユーザの運転挙動の検出処理を行う。運転挙動検出部155は、ユーザの運転挙動の検出結果の履歴である運転挙動履歴の生成及び更新を行い、記憶部162に記憶させる。
 リスク予測部156は、ユーザの推定状態履歴、運転診断履歴、運転挙動履歴、及び、リスク予測モデルを記憶部162から取得する。ここで、リスク予測モデルとは、ユーザによる車両12の運転に関するリスクの予測に用いるモデルであり、例えば、ユーザ毎に生成される。リスク予測部156は、取得した履歴に基づいて、リスク予測モデルを用いて、リスク予測を行う。リスク予測部156は、リスクの予測結果を損害予測部157に供給する。
 損害予測部157は、評価部159により評価されるユーザの従順度を必要に応じて用いながら、リスク予測部156により予測されるリスクにより発生する損害を予測する。ここで、従順度とは、サーバ13からの提案等にユーザが素直に従う度合いである。損害予測部157は、リスク及び損害の予測結果を運転挙動検出部155及び提示制御部158に供給する。
 提示制御部158は、ユーザの運転診断履歴、及び、保険料算定部161により算定された保険料を記憶部162から取得する。提示制御部158は、リスク及び損害の予測結果、並びに、ユーザの運転診断履歴及び保険料に基づいて、予測されるリスクに関する情報を含み、ユーザに提示されるフィードバック情報を生成する。提示制御部158は、生成したフィードバック情報を、通信部151を介して、ユーザのユーザ端末部11又は車両12に送信することにより、ユーザへのフィードバック情報の提示を制御する。また、提示制御部158は、フィードバック情報を評価部159に供給する。
 評価部159は、ユーザの推定状態履歴及び運転挙動履歴を記憶部162から取得する。そして、評価部159は、取得した履歴、及び、フィードバック情報に基づいて、ユーザの従順度を評価する。評価部159は、ユーザの従順度を損害予測部157に供給するとともに、記憶部162に記憶させる。
 学習部160は、ユーザの推定状態履歴を記憶部162から取得する。学習部160は、取得した推定状態履歴に基づいて、ユーザの標準的な状態のパターン(以下、標準状態パターンと称する)の学習を行い、得られた標準状態パターンを示すデータを記憶部162に記憶させる。
 また、学習部160は、所定のユーザ集合に含まれる各ユーザの推定状態履歴を記憶部162から取得する。学習部160は、取得した推定状態履歴に基づいて、ユーザ集合内のユーザの平均的な状態のパターン(以下、ユーザ集合状態パターンと称する)の学習を行い、得られたユーザ集合状態パターンを示すデータを記憶部162に記憶させる。
 さらに、学習部160は、ユーザの状態データログ、推定状態履歴、運転診断履歴、及び、運転挙動履歴を記憶部162から取得する。学習部160は、取得したログ及び履歴に基づいて、状態推定モデル、運転診断モデル、運転挙動検出モデル、及び、リスク予測モデルの学習を行い、記憶部162に記憶させる。
 保険料算定部161は、ユーザの運転診断履歴、運転挙動履歴、及び、従順度を記憶部162から取得する。保険料算定部161は、取得した履歴及び従順度に基づいて、ユーザの自動車保険の保険料の算定を行う。保険料算定部161は、算定した保険料を示すデータを記憶部162に記憶させる。
 <運転支援処理>
 次に、図5及び図6のフローチャートを参照して、サーバ13により実行される運転支援処理について説明する。
 なお、以下、主に1人の特定のユーザ(以下、注目ユーザと称する)に対する処理を中心に説明するが、実際には注目ユーザ以外の他のユーザに対する処理が並行して行われる。
 ステップS1において、サーバ13は、非運転時のユーザ(注目ユーザ)の状態の推定処理を開始する。具体的には、例えば、以下の処理が開始される。
 状態推定部152は、通信部151が注目ユーザのユーザ端末部11から受信したデータ(例えば、慣性データ、環境データ、生体データ、入力データ等)の中から、注目ユーザの状態に関するデータを取得する。状態推定部152は、各データを取得された時刻とともに記憶部162に記憶させる。これにより、注目ユーザの状態データログが更新される。
 なお、注目ユーザの状態データログは、注目ユーザ自身の状態に関するデータだけでなく、注目ユーザの周囲の状態に関するデータも含み得る。
 状態推定部152は、直近の所定の期間内の注目ユーザの状態データログに基づいて、記憶部162に記憶されている注目ユーザの状態推定モデルを用いて、注目ユーザの現在の状態を推定する。例えば、状態推定部152は、注目ユーザの現在の状態として、注目ユーザの現在の生体状態、行動、及び、感情を推定する。
 例えば、図7に例示されるように、状態推定部152は、注目ユーザの状態を示すセンサデータ群の時系列の変化に基づいて、所定の時間のフレーム毎に、注目ユーザの生体状態及び行動を推定する。例えば、注目ユーザの心拍及び発汗量等に基づいて、集中度、覚醒度、疲労度、ストレス度、緊張度、運動の激しさ等の注目ユーザの各種の生体状態が推定される。例えば、注目ユーザの加速度及び角速度、並びに、周囲の気圧等に基づいて、注目ユーザの行動の種類(例えば、静止、歩行、ランニング、サイクリング、階段の上り下り、食事、睡眠等)が推定される。
 また、例えば、状態推定部152は、注目ユーザの位置データ及び加速度等に基づいて、注目ユーザの移動距離、移動速度、及び、行動範囲等を推定する。
 さらに、状態推定部152は、注目ユーザの生体データ、及び、注目ユーザの生体状態の推定結果等に基づいて、注目ユーザの感情を推定する。例えば、状態推定部152は、注目ユーザの喜怒哀楽の度合い、興奮度、焦燥度、不安度等を推定する。
 なお、注目ユーザの生体状態と感情とは、必ずしも全てが明確に分かれるものではなく、重複するものもある。例えば、興奮度は、注目ユーザの生体状態及び感情のいずれでもあり得る。
 また、ユーザの状態の推定方法には、任意の方法を採用することができる。さらに、推定するユーザの状態の種類は、上述した例に限定されるものではなく、必要に応じて追加したり、削除したりすることができる。
 状態推定部152は、推定した注目ユーザの状態を、推定した時刻とともに記憶部162に記憶させる。これにより、注目ユーザの推定状態履歴が更新される。
 なお、例えば、図7に例示されるように、推定状態履歴は、覚醒度のようにフレーム毎の数値を時系列に並べたデータや、行動のようにフレーム毎に付与された(行動の種類を示す)ラベルを時系列に並べたデータを含む。
 ステップS2において、学習部160は、ユーザ(注目ユーザ)の標準的な状態のパターン(標準状態パターン)を学習するか否かを判定する。例えば、注目ユーザの標準状態パターンの学習は、注目ユーザが情報処理システム10の利用を開始したとき、所定の時間が経過する毎、注目ユーザの推定状態履歴のデータ量が所定の量以上増加する毎等の所定のタイミングで実行される。そして、学習部160は、現在が注目ユーザの標準状態パターンの学習を行うタイミングである場合、注目ユーザの標準状態パターンを学習すると判定し、処理はステップS3に進む。
 ステップS3において、学習部160は、ユーザ(注目ユーザ)の標準的な状態のパターン(標準状態パターン)を学習する。例えば、学習部160は、図8に例示されるように、注目ユーザの直近の比較的長期の期間内(例えば、月単位、年単位)の推定状態履歴に基づいて、注目ユーザの標準状態パターンを学習する。
 例えば、学習部160は、注目ユーザの標準状態パターンとして、以下の各項目の所定の時間(例えば、1分、10分、30分、又は、1時間)の期間毎の平均及び分散等を算出することにより、各項目の所定の期間(例えば、1日)の標準的な推移を示す推移パターンを学習する。例えば、注目ユーザの集中度、覚醒度、疲労度、ストレス度、緊張度、運動の激しさ、心拍、発汗量、運動量、喜怒哀楽の度合い、興奮度、焦燥度、不安度等の1日の標準的な推移パターンが学習される。
 また、例えば、学習部160は、注目ユーザの標準状態パターンとして、以下の各項目の1日毎(曜日毎)の平均及び分散等を算出することにより、各項目の所定の期間(例えば、1週間)あたりの標準的な推移パターンを学習する。例えば、睡眠時間、起床時刻、就寝時刻、運動量、移動範囲、食事の回数、食事時間、食事時間帯、運転時間、運転時間帯、通勤時間帯、通学時間帯等の1週間の標準的な推移パターンが学習される。
 また、学習部160は、注目ユーザの標準状態パターンの比較対象として、所定のユーザ集合内の各ユーザの推定状態履歴に基づいて、ユーザ集合内の平均的な標準状態パターン(ユーザ集合状態パターン)を学習する。
 ここで、ユーザ集合には、情報処理システム10の全てのユーザを含めるようにしてもよいし、一部のユーザのみを含めるようにしてもよい。後者の場合、例えば、注目ユーザと類似するユーザからなるユーザ集合としてもよい。ここで、注目ユーザと類似するユーザとは、例えば、注目ユーザと属性(例えば、年齢、性別、職業、住所等)、行動パターン、嗜好等が類似するユーザのことである。また、ユーザ集合に注目ユーザを含めてもよいし、含めなくてもよい。
 例えば、学習部160は、図9に例示されるように、ユーザ集合内の各ユーザの標準状態パターンの平均を集計することにより、ユーザ集合状態パターンを学習する。例えば、各項目の1日の標準的な推移パターンの平均がユーザ集合内において集計されることにより、ユーザ集合内の各項目の平均的な1日の推移パターンが学習される。また、例えば、各項目の1週間の標準的な推移パターンの平均がユーザ集合内において集計されることにより、ユーザ集合内の各項目の平均的な1週間の推移パターンが学習される。
 学習部160は、注目ユーザの標準状態パターン、及び、ユーザ集合状態パターンの学習結果を示すデータを記憶部162に記憶させる。
 なお、注目ユーザの標準状態パターンの学習と、ユーザ集合状態パターンの学習とを行うタイミングは、必ずしも同期する必要はなく、それぞれ異なるタイミングで行われてもよい。
 その後、処理はステップS4に進む。
 一方、ステップS2において、注目ユーザの標準状態パターンを学習しないと判定された場合、ステップS3の処理はスキップされ、処理はステップS4に進む。
 ステップS4において、診断部154は、非運転時の運転診断を行う。例えば、診断部154は、注目ユーザの推定状態履歴に基づいて、上述した標準状態パターンと同じ項目について、直近の比較的短期の期間内(例えば、1日及び1週間)の推移パターン(以下、直近状態パターンと称する)を検出する。
 次に、診断部154は、例えば、図10に例示されるように、注目ユーザの直近状態パターンと標準状態パターンとの乖離度を示す乖離度ベクトルx、及び、注目ユーザの直近状態パターンとユーザ集合状態パターンとの乖離度を示す乖離度ベクトルyを算出する。例えば、乖離度ベクトルx及び乖離度ベクトルyは、比較対象となる2つの状態パターンの項目毎の乖離度を正規化した値を含むベクトルされる。
 そして、診断部154は、次式(1)の関数fにより表される注目ユーザの運転診断モデルを用いて、注目ユーザの非運転時の運転適性度uを算出する。
u=f(x,y,wx,wy) ・・・(1)
 なお、wxは、乖離度ベクトルxに対する重みであり、wyは、乖離度ベクトルyに対する重みである。
 運転適性度uは、乖離度ベクトルxに含まれる各項目の乖離度が小さくなるほど大きくなる。すなわち、注目ユーザの直近状態パターンが標準状態パターンに近いほど、換言すれば、注目ユーザの直近の状態と標準的な状態との差が小さいほど、より運転に適した状態であると判定される。一方、運転適性度uは、乖離度ベクトルxに含まれる各項目の乖離度が大きくなるほど小さくなる。すなわち、注目ユーザの直近状態パターンが標準状態パターンから遠いほど、換言すれば、注目ユーザの直近の状態と標準的な状態との差が大きいほど、より運転に適していない状態であると判定される。
 また、運転適性度uは、乖離度ベクトルyに含まれる各項目の乖離度が小さくなるほど大きくなる。すなわち、注目ユーザの直近状態パターンがユーザ集合状態パターンに近いほど、換言すれば、注目ユーザの直近の状態とユーザ集合における平均的な状態との差が小さいほど、より運転に適した状態であると判定される。一方、運転適性度uは、乖離度ベクトルyに含まれる各項目の乖離度が大きくなるほど小さくなる。すなわち、注目ユーザの直近状態パターンがユーザ集合状態パターンから遠いほど、換言すれば、注目ユーザの直近の状態とユーザ集合における平均的な状態との差が大きいほど、より運転に適していない状態であると判定される。
 なお、重みwxが大きくなるほど、運転適性度uに対する乖離度ベクトルx(すなわち、注目ユーザの直近状態パターンと標準状態パターンの差)の影響が大きくなる。一方、重みwyが大きくなるほど、運転適性度uに対する乖離度ベクトルy(すなわち、注目ユーザのユーザ集合状態パターンと標準状態パターンの差)の影響が大きくなる。
 また、例えば、診断部154は、運転適性度uが所定の閾値未満である場合、運転適性度uの低下要因を推定する。例えば、診断部154は、乖離度ベクトルxにおいて、重みwxと乖離度の積が所定の値以上となる項目を抽出する。また、診断部154は、乖離度ベクトルyにおいて、重みwyと乖離度の積が所定の値以上となる項目を抽出する。そして、診断部154は、抽出した各項目について、直近状態パターンと標準状態パターン又はユーザ集合平均パターンとを比較することにより、運転適性度uの低下要因を推定する。
 例えば、注目ユーザの直近状態パターンにおける睡眠時間が標準状態パターン又はユーザ集合平均パターンを大幅に下回っている場合、睡眠不足が低下要因であると推定される。
 例えば、注目ユーザの直近状態パターンにおける運動時間、心拍、及び、発汗量のうち1つ以上が標準状態パターン又はユーザ集合平均パターンを大幅に上回っている場合、激しい運動による肉体疲労が低下要因であると推定される。
 例えば、注目ユーザの直近状態パターンにおけるストレス度、緊張度、及び、焦燥度のうち1つ以上が、標準状態パターン又はユーザ集合平均パターンを大幅に上回っている場合、注目ユーザの焦りが低下要因であると推定される。
 なお、運転適性度uが所定の閾値以上の場合、例えば、運転適性度uの低下要因は、特になしとなる。
 診断部154は、運転適性度u、及び、推定される低下要因を、診断した時刻とともに、注目ユーザの運転の適性の診断結果として記憶部162に記憶させる。これにより、注目ユーザの運転診断履歴が更新される。
 ステップS5において、リスク予測部156は、リスク予測を行う。具体的には、リスク予測部156は、注目ユーザの運転診断履歴及びリスク予測モデルを記憶部162から取得する。リスク予測部156は、注目ユーザの運転診断履歴に基づいて、注目ユーザのリスク予測モデルを用いて、現時点で注目ユーザが運転を行った場合のリスクを予測する。
 例えば、運転適性度uの低下要因が睡眠不足又は肉体疲労である場合、居眠り運転のリスクがあると推定される。
 例えば、運転適性度uの低下要因が注目ユーザの焦りである場合、例えば、速度オーバーや無理な追い越し等による他車両との衝突又は接触、並びに、注目ユーザの不注意による障害物(例えば、他車両、自転車、歩行者等)との衝突や接触等のリスクがあると推定される。
 また、リスク予測部156は、予測されるリスクの発生確率を推定する。例えば、注目ユーザの睡眠時間が短いほど、居眠り運転の推定発生確率は高くなる。
 なお、一般的に、運転適性度uが低くなるほど、予測されるリスク及び発生確率が大きくなる。
 リスク予測部156は、リスクの予測結果を損害予測部157に供給する。このリスクの予測結果には、予測されるリスク、リスクを予測した根拠(例えば、運転適性度uの低下要因)、及び、リスクの発生確率が含まれる。
 ステップS6において、損害予測部157は、損害予測を行う。具体的には、損害予測部157は、リスク予測部156により予測されるリスクにより発生する損害(例えば、リスク/ペナルティ値)を予測する。このとき、リスクの発生確率が加味される。すなわち、発生確率が高いほど、予測される損害が大きくなり、発生確率が低いほど、予測される損害が小さくなる。損害予測部157は、リスク及び損害の予測結果を運転挙動検出部155及び提示制御部158に供給する。
 ステップS7において、運転挙動検出部155は、運転挙動の検出パラメータを調整する。例えば、運転挙動検出部155は、予測されるリスク及び損害に応じて、各種の運転挙動のうち、危険運転の検出用のパラメータを調整する。
 ここで、危険運転の検出に関わる運転挙動とは、例えば、急発進、急加速、急ブレーキ、及び、急ステアリング等の急操作、蛇行運転、居眠り運転、覚醒度や集中力の低下、脇見運転、前方不注意、速度オーバー、無理な追い越し、車間距離の不足、並びに、障害物への接近等の危険な運転挙動のことである。
 また、推定されるリスク及び損害が大きくなるほど、検出対象となる危険運転のレベル(危険度)がより低くなるように、検出パラメータが調整される。これにより、より早期かつより軽微な段階から危険運転が検出されるようになる。
 例えば、居眠り運転の発生が予測される場合、より早くユーザの眠気を検出するように、眠気判定における瞬きの回数の閾値が小さくされる。例えば、脇見運転、前方不注意、速度オーバー等の発生が予測される場合、急加速や急ブレーキが検出されやすくなるように、急加速や急ブレーキの検出用の閾値が小さくされる。
 さらに、検出対象となる危険運転のレベルが低くなるほど、予測対象となるリスクのレベル(危険度)が低くなる。すなわち、より早期かつより軽微な段階のリスクが予測されるようになる。
 ここで、注目ユーザの運転適性度uにより、検出対象となる危険運転のレベル、及び、予測対象となるリスクのレベルが変化する。例えば、上述したように、一般的に運転適性度uが低くなるほど、予測されるリスク及び損害発生確率が大きくなり、予測される損害も大きくなる。従って、検出対象となる危険運転のレベルがより低くなるように、検出パラメータが調整される。その結果、運転適性度uが低くなるほど、検出対象となる危険運転のレベル、及び、予測対象となるリスクのレベルが低くなる。
 ステップS8において、提示制御部158は、ユーザ(注目ユーザ)へのフィードバックを行うか否かを判定する。注目ユーザへのフィードバックは、所定のタイミングで実行される。例えば、注目ユーザのユーザ端末部11からフィードバックの要求が送信されてきたとき、所定の時間が経過する毎、又は、重大なリスクが予測されるとき等のタイミングで、フィードバックが実行される。そして、提示制御部158は、現在が注目ユーザへのフィードバックを行うタイミングである場合、注目ユーザへのフィードバックを行うと判定し、処理はステップS9に進む。
 ステップS9において、サーバ13は、ユーザ(注目ユーザ)へのフィードバックを行う。具体的には、提示制御部158は、注目ユーザに提示するフィードバック情報を生成する。このフィードバック情報は、例えば、注目ユーザの運転診断の結果、予測されるリスクの内容、運転診断結果の根拠又はリスクを予測した根拠、及び、リスクを避けるための提案(以下、リスク回避案と称する)のうち1つ以上を含む。提示制御部158は、生成したフィードバック情報を、通信部151を介して、注目ユーザのユーザ端末部11に送信する。
 例えば、注目ユーザのモバイル端末51がフィードバック情報を受信した場合、モバイル端末51の出力部66は、視覚情報(例えば、映像)及び聴覚情報(例えば、音声)のうち少なくとも1つを用いてフィードバック情報を注目ユーザに提示する。また、例えば、注目ユーザのウエアラブル端末52がフィードバック情報を受信した場合、ウエアラブル端末52の出力部83は、視覚情報及び聴覚情報のうち少なくとも1つを用いてフィードバック情報を注目ユーザに提示する。
 例えば、注目ユーザの睡眠不足が推定されている場合、「寝不足状態です。少し睡眠を取ってから運転することをお勧めします。」のような音声メッセージが出力される。
 また、例えば、注目ユーザの運転診断結果として、運転適性度uが所定の段階(例えば、10段階)の値により提示されるともに、その根拠が提示される。
 さらに、例えば、注目ユーザの状態の推定結果が提示されてもよい。例えば、注目ユーザの喜怒哀楽、興奮度、攻撃性等の感情指数が所定の段階(例えば、10段階)の値より提示されてもよい。
 その後、処理はステップS10に進む。
 一方、ステップS8において、注目ユーザへのフィードバックを行わないと判定された場合、ステップS9の処理はスキップされ、処理はステップS10に進む。
 ステップS10において、状態推定部152は、ユーザ(注目ユーザ)が運転を開始したか否かを判定する。具体的には、状態推定部152は、通信部151を介して、注目ユーザのユーザ端末部11及び車両12のうち少なくとも1つから受信したデータに基づいて、注目ユーザが運転を開始したか否かを判定する。
 運転開始の判定処理は、ユーザ端末部11、車両12、及び、サーバ13のいずれで行ってもよい。例えば、モバイル端末51が、注目ユーザの運転認識処理を行ったり、車両12とビーコン同期を行ったりすることにより、運転開始の判定処理を実行するようにしてもよい。また、例えば、車両12の車載表示デバイス等と一体化した計測機器が、運転開始の判定処理を実行するようにしてもよい。
 なお、ユーザ端末部11又は車両12で判定処理を行う場合、ユーザ端末部11又は車両12から送信されるデータにその判定結果が含まれ、状態推定部152は、その判定結果に基づいて、注目ユーザが運転を開始したか否かを判定する。
 そして、注目ユーザが運転を開始していないと判定された場合、処理はステップS2に戻る。その後、ステップS10において、注目ユーザが運転を開始したと判定されるまで、ステップS2乃至ステップS10の処理が繰り返し実行される。これにより、注目ユーザの運転診断、リスク予測、及び、損害予測が適宜行われ、その結果に基づいて、危険運転の検出パラメータの調整や注目ユーザへのフィードバックが行われる。また、注目ユーザの標準状態パターン、及び、ユーザ集合状態パターンが適宜更新される。
 一方、ステップS10において、注目ユーザが運転を開始したと判定された場合、処理はステップS11に進む。
 ステップS11において、サーバ13は、運転時のユーザ(注目ユーザ)の状態の推定処理を開始する。この推定処理は、ステップS1の推定処理と比較して、注目ユーザのユーザ端末部11に加えて、車両12から送信されてくるデータに基づいて、推定処理が行われる点が大きく異なる。
 例えば、車両12からの映像データに基づいて、注目ユーザの視線、瞬き、表情等が検出され、注目ユーザの集中度、覚醒度、疲労度、感情等の推定に用いられる。また、例えば、車両12からの車両データに基づいて、注目ユーザの運転操作の内容等が推定される。
 さらに、例えば、車両12の走行ルートや注目ユーザが運転している時間帯に基づいて、注目ユーザの状態が推定される。例えば、注目ユーザの心拍数や運動量が急速に上昇した後、通常とは異なる時間帯(例えば、深夜や早朝)に注目ユーザが運転したり、車両12が注目ユーザの日常の生活範囲の圏外を走行したりしている場合、注目ユーザが何らかの緊急事態により焦っていると推定される。
 また、状態推定部152は、ステップS1の処理と同様に、注目ユーザの状態データログ及び推定状態履歴の更新を適宜行う。
 ステップS12において、周辺データ取得部153は、車両12の周辺データの取得を開始する。例えば、周辺データ取得部153は、ユーザ端末部11又は車両12から送信されてくる位置情報、並びに、通信部151を介して他のサーバ等から受信した地図情報等に基づいて、注目ユーザの車両12の周辺の構造物、道路、渋滞、天候等の状態の検出を行う。また、例えば、周辺データ取得部153は、ユーザ端末部11又は車両12から送信されてくる映像データ、音声データ、及び、センサデータ等に基づいて、車両12周辺の物体(例えば、車両、人、障害物、構造物、道路、信号機、交通標識、道路標示等)の検出を行う。なお、ユーザ端末部11又は車両12が、車両12の周辺の物体の検出処理を行い、検出結果をサーバ13に送信するようにしてもよい。
 周辺データ取得部153は、取得した車両12の周辺データを診断部154及びリスク予測部156に供給する。
 ステップS13において、サーバ13は、運転挙動の検出処理を開始する。具体的には、例えば、以下の処理が開始される。
 運転挙動検出部155は、通信部151が注目ユーザのユーザ端末部11及び車両12から受信したデータのうち、運転挙動(例えば、運転中の注目ユーザ又は車両12の挙動)に関するデータを通信部151から取得する。また、運転挙動検出部155は、取得した運転挙動に関するデータ、記憶部162に記憶されている注目ユーザの推定状態履歴、及び、周辺データ取得部153から取得した車両12の周辺データに基づいて、記憶部162に記憶されている注目ユーザの運転挙動検出モデルを用いて、運転挙動を検出する。すなわち、運転中の注目ユーザの挙動と車両12の挙動が検出される。例えば、車両12の速度、加速度、減速度、ブレーキ操作、ステアリング角度、走行ルート等が検出される。
 なお、運転中の注目ユーザの挙動の一部は、ステップS11において、状態推定部152により検出(推定)されてもよい。
 また、運転挙動の検出は、ユーザ端末部11、車両12、及び、サーバ13のいずれで行われてもよいし、ユーザ端末部11、車両12、及び、サーバ13が分担して行ってもよい。
 次に、運転挙動検出部155は、検出した運転挙動、注目ユーザの推定状態履歴、及び、車両12の周辺データに基づいて、危険運転の検出処理を行う。
 例えば、OBD情報等に基づく車両12の速度、ステアリング角度、若しくは、トルク等の急変動、又は、ユーザ端末部12により検出される加速度又は角速度等の急変動により、急操作が検出される。
 例えば、OBD情報等に基づく車両12の速度、ステアリング角度、若しくは、トルク等の周期的変動、又は、ユーザ端末部12により検出される加速度又は角速度等の周期的変動により、蛇行運転が検出される。
 例えば、ステレオカメラ、レーザレーダ、ミリ波レーダを用いて検出される先行車の位置により、車間距離の不足が検出される。
 ここで、上述したステップS7又は後述するステップS20において調整される検出パラメータが、危険運転の検出処理に用いられる。従って、上述したように、注目ユーザの運転適性度uが低くなるほど、検出対象となる危険運転のレベルが低くなり、より早期かつより軽微な段階から検出対象が危険運転として検出されるようになる。
 運転挙動検出部155は、運転挙動の検出結果を、検出した時刻とともに記憶部162に記憶させる。これにより、注目ユーザの運転挙動履歴が更新される。
 ステップS14において、診断部154は、運転時の運転診断を行う。例えば、診断部154は、運転開始後の注目ユーザの推定状態履歴、及び、運転挙動履歴に基づいて、記憶部162に記憶されている注目ユーザの運転診断モデルを用いて、運転適性度uを補正する。
 例えば、注目ユーザの集中度又は覚醒度の低下や、注目ユーザの疲労度、ストレス度、又は、緊張度の上昇が発生している場合、運転適性度uが下げられる。一方、例えば、注目ユーザの集中度又は覚醒度の上昇や、注目ユーザの疲労度、ストレス度、又は、緊張度の低下が発生している場合、運転適性度uが上げられる。また、例えば、危険運転が検出されている場合、検出頻度に応じて運転適性度uが下げられる。一方、危険運転が検出されない状態が継続している場合、継続時間に応じて、運転適性度uが上げられる。
 なお、ブレーキやアクセルペダルの踏み方の滑らかさ、コーナリングの際のステアリングホイールのさばき方、加速及び減速の滑らかさ等の注目ユーザの運転操作の良し悪しに基づいて、運転適性度uが補正されてもよい。
 診断部154は、補正後の運転適性度u、及び、推定される低下要因を、診断した時刻とともに、注目ユーザの運転の適性の診断結果として記憶部162に記憶させる。これにより、注目ユーザの運転診断履歴が更新される。
 ステップS15において、リスク予測部156は、リスク予測を行う。ここで、リスク予測部156は、ステップS5の処理と異なり、注目ユーザの運転診断履歴に加えて、記憶部162に記憶されている注目ユーザの推定状態履歴及び運転挙動履歴をさらに用いて、リスク予測を行う。例えば、注目ユーザの運転適性度uが高くても、危険運転の検出頻度が高くなるほど、及び、検出された危険運転の危険度が高くなるほど、予測されるリスクが大きくなる。一方、例えば、注目ユーザの運転適性度uが低くても、危険運転が検出されない場合、予測されるリスクが小さくなる。このように、実際の注目ユーザの運転中の状態や運転挙動をさらに用いて、リスク予測が行われるため、ステップS5の処理と比較して、リスク予測の精度が向上する。
 また、リスク予測部156は、リスク及びその発生確率だけでなく、今後リスクの発生確率が高くなる時刻(以下、リスク上昇時刻と称する)を予測することも可能である。例えば、リスク予測部156は、注目ユーザの集中度、緊張度、又は、覚醒度の時系列の変化に基づいて、それらが所定の閾値を下回る時刻を、リスク上昇時刻として推定する。
 リスク予測部156は、リスクの予測結果を損害予測部157に供給する。このリスクの予測結果には、予測されるリスクの内容、リスクを予測した根拠(例えば、運転適性度uの低下要因や危険運転の検出結果)、及び、リスクの発生確率が含まれる。また、必要に応じて、リスク上昇時刻が含まれる。
 ステップS16において、ステップS6の処理と同様に、損害予測が行われる。ただし、損害予測部157は、ステップS6の処理と異なり、注目ユーザの従順度をさらに用いて、損害予測を行う。すなわち、注目ユーザの従順度が高いほどリスクを回避する可能性が高くなり、従順度が低いほどリスクを回避する可能性が低くなる。従って、従順度が高いほど、予測される損害が小さくなり、従順度が低いほど、予測される損害が大きくなる。損害予測部157は、リスク及び損害の予測結果を運転挙動検出部155及び提示制御部158に供給する。
 ここで、注目ユーザの従順度により、検出対象となる危険運転のレベル、及び、予測対象となるリスクのレベルが変化する。例えば、上述したように、注目ユーザの従順度が低くなるほど、予測されるリスクの損害が大きくなる。従って、検出対象となる危険運転のレベルがより低くなるように、検出パラメータが調整される。その結果、従順度が低くなるほど、検出対象となる危険運転のレベル、及び、予測対象となるリスクのレベルが低くなる。
 ステップS17において、提示制御部158は、ユーザ(注目ユーザ)へのフィードバックを行うか否かを判定する。例えば、提示制御部158は、注目ユーザに通知する必要があるリスクの発生が予測されている場合、注目ユーザへのフィードバックを行うと判定し、処理はステップS18に進む。
 ステップS18において、ステップS8の処理と同様に、注目ユーザへのフィードバックが行われる。ここで、注目ユーザに提示されるフィードバック情報の具体例について説明する。
 例えば、注目ユーザの睡眠不足が推定されている場合に、急操作又は蛇行運転が検出されたとき、危険運転に対する注意喚起が行われる。例えば、注目ユーザのユーザ端末部11又は車両12において、「寝不足状態です。注意して運転してください。」のような音声メッセージが出力される。例えば、「注意して運転してください」の部分がリスク回避案となり、「寝不足状態です」の部分が、リスク回避案を提示する根拠となる。
 例えば、注目ユーザが日常生活の圏外にいると推定される場合、又は、強いストレスを感じていると推定される場合に、前方車両への接近が検出されたとき、危険運転に対する注意喚起が行われる。例えば、注目ユーザのユーザ端末部11又は車両12において、「急いでいませんか?落ち着いて運転しましょう。」のような音声メッセージが出力される。例えば、「落ち着いて運転しましょう」の部分がリスク回避案となり、「急いでいませんか?」の部分が、リスク回避案を提示する根拠となる。
 例えば、注目ユーザが運転前に激しい運動をしていたと推定される場合に、注目ユーザの視線の一点集中が検出されたとき、又は、車両12周辺に多数の歩行者が検出されたとき、危険運転のおそれに対する注意喚起が行われる。例えば、注目ユーザのユーザ端末部11又は車両12において、「眠くなっていませんか?周囲に注意して運転してください。」のような音声メッセージが出力される。例えば、「周囲に注意して運転してください」の部分がリスク回避案となり、「眠くなっていませんか?」の部分が、リスク回避案を提示する根拠となる。
 例えば、注目ユーザが日常生活の圏外にいると推定される場合に、又は、注目ユーザの睡眠不足が推定される場合に、高速道路を走行中に急操作又は蛇行運転が検出されたとき、危険運転に対する注意喚起が行われる。例えば、注目ユーザのユーザ端末部11又は車両12において、「次のサービスエリアで休憩してはいかがでしょうか?あなたは昨日寝不足で、現在蛇行運転しています。」のような音声メッセージが出力される。例えば、「次のサービスエリアで休憩してはいかがでしょうか?」の部分がリスク回避案となり、「あなたは昨日寝不足で、現在蛇行運転しています」の部分が、リスク回避案を提示する根拠となる。
 例えば、注目ユーザの睡眠不足又は極度の緊張状態が推定される場合に、危険運転が頻繁に検出されたとき、自動車保険の保険料上昇の注意喚起、及び、その原因の提示が行われる。例えば、注目ユーザのユーザ端末部11又は車両12において、「寝不足(又は、緊張)による危険運転が頻発しています。あとx回の危険運転が検出されると、保険料のキャッシュバックの権利を失います。」のような音声メッセージが出力される。例えば、「あとx回の危険運転が検出されると、保険料のキャッシュバックの権利を失います」の部分が注目ユーザへの警告となり、「寝不足(又は、緊張)による危険運転が頻発しています」の部分が、警告を行う根拠となる。
 例えば、注目ユーザが日常生活の圏外の慣れない道を走行していると推定され、疲労によるリスク上昇時刻が推定された場合、「疲れていませんか?サービスエリアAで休憩してはいかがでしょうか?」のような音声メッセージが出力される。なお、サービスエリアAは、リスク上昇時刻になるまでの間に、注目ユーザの車両12が到達可能であると推定されるサービスエリアである。例えば、「サービスエリアAで休憩してはいかがでしょうか?」の部分がリスク回避案となり、「疲れていませんか?」の部分が、リスク回避案を提示する根拠となる。
 なお、リスク回避案は、例えば、「60km/hまでスピードを落としてください。」や「すぐに正面を向いてください。」等のように、より具体的な内容にすることも可能である。
 また、提示制御部158は、フィードバック情報を評価部159に供給する。
 ステップS19において、評価部159は、ユーザ(注目ユーザ)の従順度を評価する。具体的には、評価部159は、注目ユーザに対するフィードバックが行われた後の注目ユーザの推定状態履歴及び運転挙動履歴を記憶部162から取得する。そして、評価部159は、取得した履歴に基づいて、フィードバックに対する注目ユーザの反応(例えば、運転の内容)を検出する。
 また、評価部159は、注目ユーザの反応に基づいて、注目ユーザの従順度の評価値を更新する。例えば、今回提示されたフィードバック情報にリスク回避案が含まれており、そのリスク回避案に注目ユーザが従った場合、注目ユーザの従順度は上昇する。また、注目ユーザがリスク回避案に従うまでの時間が短いほど(反応速度が速いほど)、又は、注目ユーザの反応とリスク回避案との差が小さいほど、注目ユーザの従順度の上げ幅が大きくなる。逆に、注目ユーザがリスク回避案に従うまでの時間が長いほど(反応速度が遅いほど)、又は、注目ユーザの反応とリスク回避案との差が大きいほど、注目ユーザの従順度の上げ幅は小さくなる。
 一方、注目ユーザがリスク回避案に従わなかった場合、例えば、注目ユーザがリスク回避案を無視した場合、又は、注目ユーザがリスク回避案とは異なる反応を示した場合、注目ユーザの従順度は低下する。特に、注目ユーザがリスク回避案に従わずに危険運転を行った場合、注目ユーザの従順度の下げ幅は大きくなる。
 評価部159は、更新した注目ユーザの従順度を損害予測部157に供給するとともに、記憶部162に記憶させる。
 その後、処理はステップS20に進む。
 一方、ステップS17において、注目ユーザへのフィードバックを行わないと判定された場合、ステップS18及びステップS19の処理はスキップされ、処理はステップS20に進む。
 ステップS20において、ステップS7の処理と同様に、運転挙動の検出パラメータが調整される。
 ステップS21において、状態推定部152は、ユーザが運転を停止したか否かを判定する。すなわち、状態推定部152は、ステップS10の運転開始の判定処理と同様に、通信部151を介して注目ユーザのユーザ端末部11及び車両12のうち少なくとも1つから受信したデータに基づいて、注目ユーザが運転を停止したか否かを判定する。
 そして、注目ユーザが運転を停止していないと判定された場合、処理はステップS14に戻る。その後、ステップS21において、注目ユーザが運転を停止したと判定されるまで、ステップS14乃至ステップS21の処理が繰り返し実行される。これにより、注目ユーザの運転診断、リスク予測、及び、損害予測が適宜行われ、その結果に基づいて、危険運転の検出パラメータの調整や注目ユーザへのフィードバックが行われる。また、注目ユーザの従順度が適宜更新される。
 一方、ステップS21において、注目ユーザが運転を停止したと判定された場合、処理はステップS22に進む。
 ステップS22において、ステップS1の処理と同様に、非運転時の注目ユーザの状態の推定処理が開始される。
 ステップS23において、周辺データ取得部153は、車両12の周辺のデータの取得を停止する。
 ステップS24において、運転挙動検出部155は、運転挙動の検出処理を停止する。
 ステップS25において、学習部160は、学習処理を行う。例えば、学習部160は、記憶部162に記憶されている注目ユーザの状態データログ、推定状態履歴、運転診断履歴、及び、運転挙動履歴に基づいて、状態推定モデル、運転診断モデル、運転挙動検出モデル、及び、リスク予測モデルの学習を行う。
 例えば、運転適性度uが低く評価されたにも関わらず、安全運転が行われた場合、上述した運転診断モデルを表す式(1)の重みwx及び重みwyが小さく設定される。これにより、注目ユーザの運転適性度uが、これまでより高く評価されるようになる。逆に、運転適性度uが高く評価されたにも関わらず、危険運転が頻繁に行われた場合、式(1)の重みwx及び重みwyが大きく設定される。これにより、注目ユーザの運転適性度uが、これまでより低く評価されるようになる。
 また、例えば、注目ユーザの直近状態パターンとユーザ集合状態パターンとの差が大きく、運転適性度uが低く評価されたにも関わらず、安全運転が行われた場合、上述した式(1)の重みwxが大きくされ、重みwyが小さくされる。すなわち、運転診断において、より注目ユーザの直近状態パターンと標準状態パターンとの差が重視されるようになる。
 なお、例えば、注目ユーザがサービスの利用を開始した当初は、事前の実験等により得られた平均的なユーザに対応するモデルが使用される。その後、学習処理により、各モデルが、より注目ユーザに適したモデルに更新されていく(個人化される)。
 なお、この学習処理は、必ずしも注目ユーザの運転が終了する毎に行う必要はなく、例えば、所定の期間毎、運転が所定の回数行われる毎、運転時間が所定の時間以上増加する毎等の任意のタイミングで行われるようにしてもよい。また、必ずしも全てのモデルの学習処理を同時に行う必要はなく、モデル毎に異なるタイミングで学習処理を行うようにしてもよい。
 また、例えば、学習部160は、推定状態履歴に示される運転前及び運転中の注目ユーザの疲労度の推移に基づいて、注目ユーザの疲労度を予測する疲労度推定モデルの学習を行ってもよい。例えば、状態推定部152は、疲労度推定モデルを用いて、走行予定ルートの各地点における注目ユーザの疲労度を推定することができる。さらに、例えば、学習部160は、時間帯、天候、渋滞の状況、道路の種類(例えば、一般道又は高速道)等の車両12の周囲の状態を加味して、疲労度推定モデルの学習を行うことにより、疲労度の推定精度を向上させることができる。
 また、学習処理の方法には、例えば、ニューラルネットワーク等の機械学習やその他の任意の方法を用いることができる。
 ステップS26において、保険料算定部161は、ユーザ(注目ユーザ)の保険料の算定を行う。例えば、保険料算定部161は、注目ユーザの自動車保険の保険料又は保険料に対するキャッシュバック金額がリアルタイムに変動する場合、記憶部162に記憶されている注目ユーザの運転診断履歴、運転挙動履歴、及び、従順度に基づいて、保険料又はキャッシュバック金額を更新する。保険料算定部161は、更新した注目ユーザの保険料又はキャッシュバック金額を記憶部162に記憶させる。
 例えば、運転適性度uの平均値がより低いほど、保険料が上がり(又は、キャッシュバック金額が下がり)、運転適性度uの平均値がより高いほど、保険料が下がる(又は、キャッシュバック金額が上がる)。
 また、例えば、危険運転の頻度又は累積回数が大きいほど、保険料が上がり(又は、キャッシュバック金額が下がり)、危険運転の頻度又は累積回数が小さいほど、保険料が下がる(又は、キャッシュバック金額が上がる)。さらに、例えば、危険運転に対して予測される損害の平均又は合計が高いほど、保険料が上がり(又は、キャッシュバック金額が下がり)、危険運転に対して予測される損害の平均又は合計が低いほど、保険料が下がる(又は、キャッシュバック金額が上がる)。
 また、例えば、従順度が低いほど、リスクの低下が期待できないため、保険料が上がり(又は、キャッシュバック金額が下がり)、従順度が高いほど、リスクの低下が期待できるため、保険料が下がる(又は、キャッシュバック金額が上がる)。特に、注目ユーザがリスク回避案に従わずに危険運転を行った場合、例えば、ペナルティとして、保険料の上げ幅(又は、キャッシュバック金額の下げ幅)が大きくなる。
 なお、この保険料算定処理は、必ずしも注目ユーザの運転が終了する毎に行う必要はなく、例えば、所定の期間毎、運転が所定の回数行われる毎、運転時間が所定の時間以上増加する毎等の任意のタイミングで行われるようにしてもよい。
 また、この保険料算定処理は、例えば、次回の保険の更新時に、保険料の見積もり金額を算定するために実行されてもよい。
 さらに、例えば、1回の運転毎又は1日単位の自動車保険の場合、この保険料算定処理を運転前に実行することにより、保険料を算定してもよい。この場合、例えば、注目ユーザの運転適性度u及び従順度のうち少なくとも1つを用いて、保険料が算定される。
 また、算定した保険料又はキャッシュバック金額が、フィードバック情報として注目ユーザに提示されてもよい。
 その後、処理はステップS2に戻り、ステップS2以降の処理が実行される。
 例えば、運転挙動は、運転中のユーザの状態だけでなく、運転前のユーザの状態(例えば、行動、生体状態、感情等)に影響される。これに対して、以上のように、ユーザの運転中の状態や運転挙動に加えて、運転前のユーザの状態を複合的に考慮することにより、より適切に運転適性度uが評価される。また、運転適性度uの精度が向上することにより、リスク予測及び損害予測の精度が向上する。その結果、より適切なタイミングで適切なフィードバック情報を提示することができ、安全性が向上し、事故の発生を防止することができる。
 また、フィードバック情報に、運転診断の結果の根拠又はリスクを予測した根拠が示されるため、ユーザの納得感が向上し、ユーザがリスク回避案に従う確率が高くなる。また、提示された根拠が誤っている場合、例えば、ユーザがサーバ13に訂正を指示し、学習処理に反映することにより、運転診断モデルやリスク予測モデルの精度が向上する。
 さらに、ユーザの従順度を評価し、従順度に基づいて、検出対象となる危険運転のレベル、及び、予測対象となるリスクのレベルが変化することにより、ユーザがより確実にリスクを回避することができるようになる。
 また、ユーザの運転挙動だけでなく、運転適性度u及び従順度に基づいて、自動車保険の保険料(キャッシュバック金額を含む)を算定することにより、ユーザ毎により適切な保険料を設定することができる。これにより、例えば、ユーザがリスク回避案に従う動機づけを行うことができ、ユーザがより確実にリスクを回避することができるようになる。
 <<2.変形例>>
 以下、上述した本開示に係る技術の実施の形態の変形例について説明する。
 <システムの構成に関する変形例>
 図1乃至図4の情報処理システム10の構成例は、その一例であり、必要に応じて変更することが可能である。
 例えば、以上の説明では、サーバ13が、ユーザ端末部11及び車両12(車載システム101)から取得したデータに基づいて、ほとんどの処理を行う例を示したが、例えば、ユーザ端末部11、車両12、及び、サーバ13で処理を分担したり、ユーザ端末部11又は車両12が単独で処理を行ったりすることも可能である。
 例えば、ユーザ端末部11及び車両12の少なくとも一方が、サーバ13の処理の一部又は全部を行うようにすることが可能である。
 例えば、ユーザ端末部11及び車両12の少なくとも一方が、状態推定部152、運転挙動検出部155、及び、評価部159の処理の一部又は全部を行い、推定結果及び検出結果をサーバ13に送信するようにしてもよい。
 例えば、ユーザ端末部11及び車両12の少なくとも一方が、周辺データ取得部153の処理の一部又は全部を行い、取得した周辺データをサーバ13に送信するようにしてもよい。
 例えば、ユーザ端末部11及び車両12の少なくとも一方が、診断部154、リスク予測部156、及び、損害予測部157の処理の一部又は全部を行い、診断結果及び予測結果をサーバ13に送信するようにしてもよい。
 また、例えば、運転支援に関する処理をユーザ端末部11で行うようにしてもよい。この場合、ユーザ端末部11は、複数の装置で構成してもよいし、1つの装置で構成してもよい。また、ユーザ端末部11が、車両12から各種のデータ(例えば、車両データ、映像データ、音声データ等)を取得し、処理に用いるようにしてもよいし、車両12からのデータを処理に用いないようにしてもよい。また、運転診断処理にユーザ集合状態パターンを用いてもよいし、用いなくてもよい。ユーザ集合状態パターンを用いる場合、例えば、サーバ13は、各ユーザのユーザ端末部11から取得した各ユーザの標準状態パターンに基づいて、ユーザ集合状態パターンの学習を行う。そして、サーバ13は、ユーザ集合状態パターンを示すデータを各ユーザのユーザ端末部11に送信する。
 この場合、保険料の算定処理は、ユーザ端末部11及びサーバ13のいずれで行ってもよい。ユーザ端末部11が行う場合、例えば、保険料の算定処理を行うアプリケーションプログラムが、サーバ13から提供される。一方、サーバ13が行う場合、例えば、保険料の算定に必要なデータがユーザ端末部11からサーバ13に提供される。
 さらに、例えば、運転支援に関する処理のうち、非運転時のユーザの状態の推定処理及び標準状態パターンの学習処理を除くほぼ全ての処理を車両12(車載システム101)で行うようにしてもよい。この場合、例えば、ユーザ端末部11が、非運転時のユーザの状態の推定処理及び標準状態パターンの学習処理を行い、その結果得られる推定状態履歴及び標準状態パターンを示すデータを運転前に車両12に送信する。そして、車両12が、残りの処理を実行する。この場合、運転診断処理にユーザ集合状態パターンを用いてもよいし、用いなくてもよい。ユーザ集合状態パターンを用いる場合、ユーザ集合状態パターンを用いる場合、例えば、サーバ13は、各ユーザのユーザ端末部11から取得した各ユーザの標準状態パターンに基づいて、ユーザ集合状態パターンの学習を行う。そして、サーバ13は、ユーザ集合状態パターンを示すデータを各ユーザのユーザ端末部11又は車両12に送信する。
 この場合、保険料の算定処理は、ユーザ端末部11、車両12、及び、サーバ13のいずれで行ってもよい。ユーザ端末部11又は車両12が行う場合、例えば、保険料の算定処理を行うアプリケーションプログラムが、サーバ13から提供される。一方、サーバ13が行う場合、例えば、保険料の算定に必要なデータがユーザ端末部11及び車両12からサーバ13に提供される。
 また、例えば、ユーザ端末部11とサーバ13で分担して処理を行うようにしてもよい。この場合、車両12からのデータを処理に用いてもよいし、用いなくてもよい。
 さらに、例えば、車両12とサーバ13で分担して処理を行うようにしてもよい。この場合、例えば、ユーザ端末部11から車両12及びサーバ13に処理に必要なデータ(例えば、ユーザの標準状態パターン及び直近状態パターン等)が提供される。
 また、例えば、複数のサーバで処理を分担してもよい。例えば、運転支援に関する処理と保険料算定に関する処理を異なるサーバで行ってもよい。
 さらに、例えば、車両12とサーバ13との間の通信を、ユーザ端末部11を介して行うようにしてもよい。この場合、例えば、車両12からのデータが、いったんユーザ端末部11に送信された後、ユーザ端末部11からサーバ13に転送される。また、サーバ13からのデータが、いったんユーザ端末部11に送信された後、ユーザ端末部11から車両12に転送される。
 また、例えば、ユーザ端末部11とサーバ13との間の通信を、車両12を介して行うようにしてもよい。この場合、例えば、ユーザ端末部11からのデータが、いったん車両12に送信された後、車両12からサーバ13に転送される。また、サーバ13からのデータが、いったん車両12に送信された後、車両12からユーザ端末部11に転送される。
 さらに、例えば、推定状態履歴の代わりに、ユーザの状態を推定する前の状態データログを直接用いて、診断部154の運転診断、リスク予測部156のリスク予測、及び、運転挙動検出部155の運転挙動の検出が行われてもよい。この場合、状態推定部152を削除することが可能である。
 <その他の変形例>
 例えば、ユーザの直近状態パターンと標準状態パターン又はユーザ集合平均パターンとの乖離度に加えて、現在のユーザの状態を用いて、運転適性度uを算出するようにしてもよい。例えば、ユーザの直近状態パターンと標準状態パターンとの差が小さくても、例えば、ユーザの覚醒度が低かったり、興奮したり、落ち込んだりしている場合、危険運転が行われる可能性が高い。そこで、例えば、ユーザの状態を示す各項目のうち、運転への影響が大きい項目については、それらの項目の現在の状態(例えば、覚醒度、興奮度、落ち込み度)を、運転適性度uの算出に用いるようにしてもよい。
 また、推定するユーザの状態は、上述した生体状態、行動、及び、感情の3種類に限定されるものではない。例えば、上記の3種類のうち1種類又は2種類のみ推定するようにしてもよいし、他の種類の状態を推定するようにしてもよい。
 さらに、例えば、通常は運転に直接影響しないと想定されるユーザの行動を、運転適性度uの算出に用いるようにしてもよい。例えば、ユーザの購買履歴に基づいて、ユーザが通常と異なる傾向のショッピングをした場合(例えば、非常に高価な買い物をした場合)、ユーザの状態(例えば、感情)が通常とは異なることが想定される。そこで、例えば、運転適性度uの算出に、ユーザの購買履歴を用いてもよい。
 また、例えば、運転適性度uの算出に、非運転時のユーザの状態に基づいて検出されるユーザの能力であって、運転にも影響する能力を用いてもよい。例えば、日常生活の判断能力が高いユーザの運転適性度uが高く設定され、判断能力が低いユーザの運転適性度uが低く設定されるようにしてもよい。
 なお、この場合、例えば、判断能力が高いユーザと低いユーザが同じように車線変更を高頻度に繰り返していても、判断能力が高いユーザに対して予測されるリスクは低くなり、判断能力が低いユーザに対して予測されるリスクは高くなる。ただし、判断能力が高いユーザであっても、車線変更を減らすようにリスク回避案が提示されたにも関わらず、無視して車線変更を繰り返す場合、従順度が低く評価されるため、予測されるリスクは高くなる。
 さらに、例えば、ユーザの状態の推定結果、運転診断の結果、及び、運転挙動の検出結果のうち1つ又は2つのみに基づいて、リスク予測が行われるようにしてもよい。また、例えば、運転診断の結果を用いてリスク予測が行われる場合、運転前の運転適性度u及び運転中の運転適性度uのうち一方のみを用いるようにしてもよい。
 また、例えば、運転前及び運転中の一方のユーザの状態のみに基づいて、運転診断が行われるようにしてもよい。
 さらに、例えば、事故の発生原因の究明に、推定状態履歴、運転診断履歴、及び、運転挙動履歴を用いることが可能である。例えば、ドライブレコーダに、推定状態履歴、運転診断履歴、及び、運転挙動履歴を記録することにより、事故発生時のユーザ(運転者)の状態や挙動に加えて、運転前のユーザの状態に基づいて、事故の発生原因を究明することが可能になる。
 また、例えば、ユーザ端末部11又は車両12が、他のユーザの運転適性度uやリスクの予測結果等を、他のユーザのユーザ端末部11若しくは車両12、又は、サーバ13から取得できるようにしてもよい。これにより、例えば、運転適性度uが低いユーザが運転する危険車両が近くに存在する場合、例えば、ユーザは、事前にその情報を取得することにより、危険車両による事故に巻き込まれることを回避することができる。
 さらに、状態推定モデル、運転診断モデル、運転挙動検出モデル、及び、リスク予測モデルの個人化は、必ずしも行う必要はなく、所定のアルゴリズム等を用いたモデルを用いるようにしてもよい。また、例えば、上記のモデルの学習をユーザ毎に行わずに、例えば、ユーザ集合全体で行い、各ユーザで共通のモデルを用いるようにしてもよい。
 また、例えば、ユーザの従順度に基づいて、フィードバック情報の提示方法、提示頻度、及び、提示内容等を変更してもよい。
 <適用例>
 本技術の運転支援処理は、先に例示した車両以外にも、例えば、本技術は、自動二輪車、自転車、パーソナルモビリティ、飛行機、船舶、建設機械、農業機械(トラクター)等の各種の移動体の運転を行う場合にも適用することができる。すなわち、運転前及び運転中のユーザの状態の推定結果を用いて、運転診断、リスク予測、損害予測、ユーザへのフィードバック等を行うことができる。なお、本技術が適用可能な移動体には、場所を移動するもの以外にも、一部の建設機械等(例えば、固定式のクレーン等)の、固定された場所において作業を行う部分等が移動する移動体も含まれる。また、本技術が適用可能な移動体には、例えば、ドローン、ロボット等のユーザが搭乗せずにリモートで運転(操作)する移動体も含まれる。
 また、本技術は、自動車保険以外にも、生命保険、損害保険、医療保険等の各種の保険を提供するシステム及び装置等に適用することができる。例えば、ユーザの推定状態履歴及び従順度に基づいて、各種の保険料(キャッシュバック金額を含む)を算定することができる。具体的には、例えば、生命保険又は医療保険の場合、ユーザ端末部11又はサーバ13が、ユーザの状態推定処理を行い、推定状態履歴を蓄積する。また、ユーザ端末部11又はサーバ13が、推定状態履歴に基づくユーザの生活習慣及び生体状態等に基づいて、病気等のリスクを避けるための提案(リスク回避案)をユーザに提示し、その反応に基づいて、ユーザの従順度を評価する。そして、ユーザ端末部11又はサーバ13が、ユーザの生活習慣及び生体状態、並びに、従順度等に基づいて、生命保険又は医療保険の保険料を算定する。
 例えば、生活習慣及び生体状態が良いユーザほど、保険料が安くなり、生活習慣及び生体状態が悪いユーザほど、保険料が高くなる。また、従順度が高いユーザほど、保険料が安くなり、従順度が低いユーザほど、保険料が高くなる。このように、ユーザの生活習慣及び生体状態だけでなく、ユーザの従順度を考慮することにより、上述した自動車保険の場合と同様に、ユーザ毎により適切な保険料を設定することができる。
 <<3.その他>>
 <コンピュータの構成例>
 上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図11は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 コンピュータにおいて、CPU(Central Processing Unit)401,ROM(Read Only Memory)402,RAM(Random Access Memory)403は、バス404により相互に接続されている。
 バス404には、さらに、入出力インターフェース405が接続されている。入出力インターフェース405には、入力部406、出力部407、記録部408、通信部409、及びドライブ410が接続されている。
 入力部406は、入力スイッチ、ボタン、マイクロフォン、撮像素子などよりなる。出力部407は、ディスプレイ、スピーカなどよりなる。記録部408は、ハードディスクや不揮発性のメモリなどよりなる。通信部409は、ネットワークインターフェースなどよりなる。ドライブ410は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体411を駆動する。
 以上のように構成されるコンピュータでは、CPU401が、例えば、記録部408に記録されているプログラムを、入出力インターフェース405及びバス404を介して、RAM403にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU401)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体411に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータでは、プログラムは、リムーバブル記録媒体411をドライブ410に装着することにより、入出力インターフェース405を介して、記録部408にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部409で受信し、記録部408にインストールすることができる。その他、プログラムは、ROM402や記録部408に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 さらに、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 <構成の組み合わせ例>
 本技術は、以下のような構成をとることもできる。
(1)
 予測されるリスクに基づいて、ユーザに対するリスクの回避案を生成する提示制御部と、
 前記リスクの回避案に対する前記ユーザの反応に基づいて、前記ユーザの従順度を評価する評価部と、
 評価された従順度に基づいてリスクの予測パラメータを調整するリスク予測部と
 を備える情報処理装置。
(2)
 前記リスク予測部は、前記ユーザによる移動体の運転に関するリスクの予測を行う
 前記(1)に記載の情報処理装置。
(3)
 運転中の前記ユーザ又は前記移動体の挙動である運転挙動を検出する運転挙動検出部を
 さらに備え、
 前記リスク予測部は、前記運転挙動の検出結果に基づいて、前記リスクの予測を行う
 前記(2)に記載の情報処理装置。
(4)
 前記運転挙動検出部の検出対象となる危険な運転挙動のレベルが、前記従順度に基づいて変化する
 前記(3)に記載の情報処理装置。
(5)
 前記従順度が低くなるほど、前記運転挙動検出部の検出対象となる危険な運転挙動のレベルが低くなる
 前記(4)に記載の情報処理装置。
(6)
 前記ユーザの運転前の状態及び運転中の状態のうち少なくとも1つに基づいて、前記ユーザの運転に対する適性の診断を行う診断部を
 さらに備え、
 前記リスク予測部は、前記診断の結果に基づいて、前記リスクの予測を行う
 前記(2)乃至(4)のいずれかに記載の情報処理装置。
(7)
 前記従順度が低くなるほど、前記リスク予測部の予測対象となるリスクのレベルが低くなる
 前記(1)乃至(6)のいずれかに記載の情報処理装置。
(8)
 前記従順度に基づいて、前記ユーザに対する保険の保険料の算定を行う保険料算定部を
 さらに備える前記(1)乃至(7)のいずれかに記載の情報処理装置。
(9)
 前記保険料算定部は、前記従順度が高いほど前記保険料を下げ、前記従順度が低いほど前記保険料を上げる
 前記(8)に記載の情報処理装置。
(10)
 前記リスクは、前記ユーザによる車両の運転に関するリスクであり、
 前記保険は、自動車保険を含む
 前記(8)又は(9)に記載の情報処理装置。
(11)
 予測されるリスクに基づいて、ユーザに対するリスクの回避案を生成する提示制御ステップと、
 前記リスクの回避案に対する前記ユーザの反応に基づいて、前記ユーザの従順度を評価する評価ステップと、
 評価された従順度に基づいてリスクの予測パラメータを調整するリスク予測ステップと
 を含む情報処理方法。
(12)
 予測されるリスクに基づいて、ユーザに対するリスクの回避案を生成する提示制御ステップと、
 前記リスクの回避案に対する前記ユーザの反応に基づいて、前記ユーザの従順度を評価する評価ステップと、
 評価された従順度に基づいてリスクの予測パラメータを調整するリスク予測ステップと
 を含む処理をコンピュータに実行させるプログラム。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 10 情報処理システム, 11 ユーザ端末部, 12 車両, 13 サーバ, 51 モバイル端末, 52 ウエアラブル端末, 61 GNSS受信機, 62 慣性センサ, 63 環境センサ, 64 生体センサ, 66 出力部, 67 制御部, 81 生体センサ, 83 出力部, 84 制御部, 101 車載システム, 111 車両データ取得部, 112 映像音声取得部, 114 出力部, 115 制御部, 152 状態推定部, 154 診断部, 155 運転挙動検出部, 156 リスク予測部, 157 損害予測部, 158 提示制御部, 159 評価部, 160 学習部, 161 保険料算定部

Claims (12)

  1.  予測されるリスクに基づいて、ユーザに対するリスクの回避案を生成する提示制御部と、
     前記リスクの回避案に対する前記ユーザの反応に基づいて、前記ユーザの従順度を評価する評価部と、
     評価された従順度に基づいてリスクの予測パラメータを調整するリスク予測部と
     を備える情報処理装置。
  2.  前記リスク予測部は、前記ユーザによる移動体の運転に関するリスクの予測を行う
     請求項1に記載の情報処理装置。
  3.  運転中の前記ユーザ又は前記移動体の挙動である運転挙動を検出する運転挙動検出部を
     さらに備え、
     前記リスク予測部は、前記運転挙動の検出結果に基づいて、前記リスクの予測を行う
     請求項2に記載の情報処理装置。
  4.  前記運転挙動検出部の検出対象となる危険な運転挙動のレベルが、前記従順度に基づいて変化する
     請求項3に記載の情報処理装置。
  5.  前記従順度が低くなるほど、前記運転挙動検出部の検出対象となる危険な運転挙動のレベルが低くなる
     請求項4に記載の情報処理装置。
  6.  前記ユーザの運転前の状態及び運転中の状態のうち少なくとも1つに基づいて、前記ユーザの運転に対する適性の診断を行う診断部を
     さらに備え、
     前記リスク予測部は、前記診断の結果に基づいて、前記リスクの予測を行う
     請求項2に記載の情報処理装置。
  7.  前記従順度が低くなるほど、前記リスク予測部の予測対象となるリスクのレベルが低くなる
     請求項1に記載の情報処理装置。
  8.  前記従順度に基づいて、前記ユーザに対する保険の保険料の算定を行う保険料算定部を
     さらに備える請求項1に記載の情報処理装置。
  9.  前記保険料算定部は、前記従順度が高いほど前記保険料を下げ、前記従順度が低いほど前記保険料を上げる
     請求項8に記載の情報処理装置。
  10.  前記リスクは、前記ユーザによる車両の運転に関するリスクであり、
     前記保険は、自動車保険を含む
     請求項8に記載の情報処理装置。
  11.  予測されるリスクに基づいて、ユーザに対するリスクの回避案を生成する提示制御ステップと、
     前記リスクの回避案に対する前記ユーザの反応に基づいて、前記ユーザの従順度を評価する評価ステップと、
     評価された従順度に基づいてリスクの予測パラメータを調整するリスク予測ステップと
     を含む情報処理方法。
  12.  予測されるリスクに基づいて、ユーザに対するリスクの回避案を生成する提示制御ステップと、
     前記リスクの回避案に対する前記ユーザの反応に基づいて、前記ユーザの従順度を評価する評価ステップと、
     評価された従順度に基づいてリスクの予測パラメータを調整するリスク予測ステップと
     を含む処理をコンピュータに実行させるプログラム。
PCT/JP2018/013631 2017-04-14 2018-03-30 情報処理装置、情報処理方法、及び、プログラム WO2018190152A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201880021809.9A CN110505837B (zh) 2017-04-14 2018-03-30 信息处理设备、信息处理方法和记录介质
JP2019512430A JP7092116B2 (ja) 2017-04-14 2018-03-30 情報処理装置、情報処理方法、及び、プログラム
EP18784023.6A EP3610785B1 (en) 2017-04-14 2018-03-30 Information processing device, information processing method, and program
US16/498,629 US11040712B2 (en) 2017-04-14 2018-03-30 Information processing apparatus and information processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017080437 2017-04-14
JP2017-080437 2017-04-14

Publications (1)

Publication Number Publication Date
WO2018190152A1 true WO2018190152A1 (ja) 2018-10-18

Family

ID=63792451

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/013631 WO2018190152A1 (ja) 2017-04-14 2018-03-30 情報処理装置、情報処理方法、及び、プログラム

Country Status (5)

Country Link
US (1) US11040712B2 (ja)
EP (1) EP3610785B1 (ja)
JP (1) JP7092116B2 (ja)
CN (1) CN110505837B (ja)
WO (1) WO2018190152A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020161901A1 (ja) * 2019-02-08 2020-08-13 日本電気株式会社 生体情報処理装置、方法、及びコンピュータ読取可能記録媒体
WO2020179186A1 (ja) * 2019-03-01 2020-09-10 パナソニックIpマネジメント株式会社 眠気予測装置、移動体、及び眠気予測方法
WO2022091289A1 (ja) * 2020-10-29 2022-05-05 三菱電機株式会社 セキュリティ対策支援装置、セキュリティ対策支援方法、及びプログラム
KR20230099705A (ko) * 2021-12-24 2023-07-05 안동대학교 산학협력단 졸음운전 방지시스템
WO2024171468A1 (ja) * 2023-02-17 2024-08-22 日本電信電話株式会社 分析装置、分析方法および分析プログラム
JP7611596B2 (ja) 2018-11-29 2025-01-10 株式会社ユピテル 装置およびプログラム等

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3700791A4 (en) * 2017-10-23 2021-06-30 Bayerische Motoren Werke Aktiengesellschaft METHOD AND APPARATUS FOR DETERMINING A DRIVING STRATEGY OF A VEHICLE
KR102240993B1 (ko) * 2018-03-20 2021-04-15 미쓰비시덴키 가부시키가이샤 표시 장치, 표시 시스템, 및 표시 화면 생성 방법
US11180158B1 (en) * 2018-07-31 2021-11-23 United Services Automobile Association (Usaa) Routing or driving systems and methods based on sleep pattern information
WO2020122175A1 (ja) * 2018-12-12 2020-06-18 日本電気株式会社 運転支援装置、運転支援方法、プログラムを記憶する記憶媒体
JP7298343B2 (ja) * 2019-07-01 2023-06-27 日本電信電話株式会社 故障影響推定装置、故障影響推定方法、及びプログラム
JP7328828B2 (ja) * 2019-08-27 2023-08-17 フォルシアクラリオン・エレクトロニクス株式会社 状態推定装置、状態推定プログラムおよび状態推定方法
US11493351B2 (en) 2019-09-03 2022-11-08 Allstate Insurance Company Systems and methods of connected driving based on dynamic contextual factors
US11609834B2 (en) * 2020-01-21 2023-03-21 Druva Inc. Event based aggregation for distributed scale-out storage systems
US11753019B2 (en) 2020-11-30 2023-09-12 Sony Group Corporation Event determination for vehicles and occupants of mobility provider on MaaS platform
CN113635905B (zh) * 2021-08-24 2023-04-18 桂林航天工业学院 一种面向驾驶行为保险的风险实时提示系统及装置
CN116416192A (zh) * 2021-12-30 2023-07-11 华为技术有限公司 一种检测的方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1080405A (ja) 1996-09-10 1998-03-31 Omron Corp 生体情報測定装置、生体情報測定方法及び生体情報測定プログラム記憶媒体
JP2003281375A (ja) * 2002-03-26 2003-10-03 Fujitsu Ltd 保険料設定方法、保険料設定プログラムおよび保険料設定装置
JP2015099465A (ja) * 2013-11-19 2015-05-28 日産自動車株式会社 運転支援装置
US9165326B1 (en) * 2012-12-17 2015-10-20 State Farm Mutual Automobile Insurance Company System and method to adjust insurance rate based on real-time data about potential vehicle operator impairment
US20160086393A1 (en) * 2010-05-17 2016-03-24 The Travelers Indemnity Company Customized vehicle monitoring privacy system
JP2016140377A (ja) 2015-01-29 2016-08-08 オムロンオートモーティブエレクトロニクス株式会社 生体データ処理システム、これに用いる確認後送信装置、制御装置、充電器

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2917502B2 (ja) * 1990-11-19 1999-07-12 オムロン株式会社 保険料決定装置
ATE385015T1 (de) * 2005-08-02 2008-02-15 Delphi Tech Inc Verfahren zur steuerung eines fahrerassistenzsystems und dazugehörige vorrichtung
US20110040579A1 (en) 2006-12-20 2011-02-17 Safeco Insurance Company Of America Web-based systems and methods for providing services related to automobile safety and an insurance product
JP2010061550A (ja) * 2008-09-05 2010-03-18 Nec Corp 情報提供サービスシステム
US20130006674A1 (en) * 2011-06-29 2013-01-03 State Farm Insurance Systems and Methods Using a Mobile Device to Collect Data for Insurance Premiums
JP2013065246A (ja) * 2011-09-20 2013-04-11 Denso Corp 運転支援システム、車載装置、サーバ、及び、運転支援方法
DE112012006077B4 (de) * 2012-03-22 2022-02-10 Toyota Jidosha Kabushiki Kaisha Bremssteuervorrichtung
CA2805439C (en) * 2012-05-22 2020-10-06 State Farm Mutual Automobile Insurance Company Systems and methods using a mobile device to collect data for insurance premiums
EP2884477B1 (en) * 2012-08-07 2020-06-17 Sony Corporation Information processing device, information processing method, and information processing system
DE112012007123B4 (de) * 2012-11-13 2024-08-01 Toyota Jidosha Kabushiki Kaisha Fahrunterstützungsvorrichtung und Fahrunterstützungsverfahren
EP2752348A1 (en) * 2013-01-04 2014-07-09 Continental Automotive Systems, Inc. Adaptive emergency brake and steer assist system based on driver focus
US9751534B2 (en) * 2013-03-15 2017-09-05 Honda Motor Co., Ltd. System and method for responding to driver state
US20150166059A1 (en) * 2013-12-18 2015-06-18 Automotive Research & Testing Center Autonomous vehicle driving support system and autonomous driving method performed by the same
US9542848B2 (en) * 2014-04-08 2017-01-10 Continental Automotive Systems, Inc. Adjustment of vehicle alerts based on response time learning
US9786103B2 (en) * 2014-05-15 2017-10-10 State Farm Mutual Automobile Insurance Company System and method for determining driving patterns using telematics data
JP6480143B2 (ja) * 2014-10-09 2019-03-06 株式会社日立製作所 運転特性診断装置、運転特性診断システム、運転特性診断方法
JP6486640B2 (ja) * 2014-10-09 2019-03-20 株式会社日立製作所 運転特性診断装置、運転特性診断システム、運転特性診断方法、情報出力装置、情報出力方法
EP3091509A1 (en) * 2015-05-04 2016-11-09 Honda Research Institute Europe GmbH Method for improving performance of a method for computationally predicting a future state of a target object, driver assistance system, vehicle including such driver assistance system and respective program storage medium and program
CN106427826B (zh) * 2015-08-06 2019-07-23 平安科技(深圳)有限公司 汽车、用户终端、基于行驶数据的提醒控制方法及系统
US9818239B2 (en) * 2015-08-20 2017-11-14 Zendrive, Inc. Method for smartphone-based accident detection
US20170072850A1 (en) * 2015-09-14 2017-03-16 Pearl Automation Inc. Dynamic vehicle notification system and method
CN105374211B (zh) * 2015-12-09 2018-01-05 敏驰信息科技(上海)有限公司 基于多源数据计算驾驶风险与辅助车险定价的系统及方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1080405A (ja) 1996-09-10 1998-03-31 Omron Corp 生体情報測定装置、生体情報測定方法及び生体情報測定プログラム記憶媒体
JP2003281375A (ja) * 2002-03-26 2003-10-03 Fujitsu Ltd 保険料設定方法、保険料設定プログラムおよび保険料設定装置
US20160086393A1 (en) * 2010-05-17 2016-03-24 The Travelers Indemnity Company Customized vehicle monitoring privacy system
US9165326B1 (en) * 2012-12-17 2015-10-20 State Farm Mutual Automobile Insurance Company System and method to adjust insurance rate based on real-time data about potential vehicle operator impairment
JP2015099465A (ja) * 2013-11-19 2015-05-28 日産自動車株式会社 運転支援装置
JP2016140377A (ja) 2015-01-29 2016-08-08 オムロンオートモーティブエレクトロニクス株式会社 生体データ処理システム、これに用いる確認後送信装置、制御装置、充電器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3610785A4

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7611596B2 (ja) 2018-11-29 2025-01-10 株式会社ユピテル 装置およびプログラム等
WO2020161901A1 (ja) * 2019-02-08 2020-08-13 日本電気株式会社 生体情報処理装置、方法、及びコンピュータ読取可能記録媒体
JPWO2020161901A1 (ja) * 2019-02-08 2021-11-25 日本電気株式会社 生体情報処理装置、方法、及びプログラム
JP7238910B2 (ja) 2019-02-08 2023-03-14 日本電気株式会社 生体情報処理装置、方法、及びプログラム
WO2020179186A1 (ja) * 2019-03-01 2020-09-10 パナソニックIpマネジメント株式会社 眠気予測装置、移動体、及び眠気予測方法
US12036842B2 (en) 2019-03-01 2024-07-16 Panasonic Automotive Systems Co., Ltd. Sleepiness prediction device, moving body, and sleepiness prediction method
WO2022091289A1 (ja) * 2020-10-29 2022-05-05 三菱電機株式会社 セキュリティ対策支援装置、セキュリティ対策支援方法、及びプログラム
JPWO2022091289A1 (ja) * 2020-10-29 2022-05-05
JP7199610B2 (ja) 2020-10-29 2023-01-05 三菱電機株式会社 セキュリティ対策支援装置、セキュリティ対策支援方法、及びプログラム
KR20230099705A (ko) * 2021-12-24 2023-07-05 안동대학교 산학협력단 졸음운전 방지시스템
KR102750047B1 (ko) 2021-12-24 2025-01-14 국립안동대학교 산학협력단 졸음운전 방지시스템
WO2024171468A1 (ja) * 2023-02-17 2024-08-22 日本電信電話株式会社 分析装置、分析方法および分析プログラム

Also Published As

Publication number Publication date
US11040712B2 (en) 2021-06-22
US20200094737A1 (en) 2020-03-26
CN110505837A (zh) 2019-11-26
EP3610785A1 (en) 2020-02-19
EP3610785B1 (en) 2024-06-26
JPWO2018190152A1 (ja) 2020-04-09
EP3610785A4 (en) 2020-04-22
JP7092116B2 (ja) 2022-06-28
CN110505837B (zh) 2023-01-17

Similar Documents

Publication Publication Date Title
JP7092116B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6972629B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP7288911B2 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
JP7324716B2 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
US10493914B2 (en) System and method for vehicle collision mitigation with vulnerable road user context sensing
JP7080598B2 (ja) 車両制御装置および車両制御方法
CN108205731B (zh) 情境评估车辆系统
US9956963B2 (en) Apparatus for assessing, predicting, and responding to driver fatigue and drowsiness levels
CN112041910A (zh) 信息处理装置、移动设备、方法和程序
EP3889740B1 (en) Affective-cognitive load based digital assistant
JPWO2019202881A1 (ja) 情報処理装置、移動装置、情報処理システム、および方法、並びにプログラム
WO2021145131A1 (ja) 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム
JP7658474B2 (ja) 情報処理システム、情報処理装置、情報処理方法、及び、プログラム
JP7691795B2 (ja) 情報処理システム、情報処理装置、情報処理方法、及び、プログラム
JP2023135475A (ja) 情報処理装置、情報処理方法、プログラム及び記憶媒体
Alomari Human-Centric Detection and Mitigation Approach for Various Levels of Cell Phone-Based Driver Distractions

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18784023

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019512430

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2018784023

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2018784023

Country of ref document: EP

Effective date: 20191114

点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载